PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33 34 35 36

dildo4u
2013-10-25, 10:53:14
AMD Radeon R9 290: Erste Performance-Hinweise aufgetaucht

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-R9-290-Performance-Hinweise-aufgetaucht-1094286/

dargo
2013-10-25, 11:04:40
AMD Radeon R9 290: Erste Performance-Hinweise aufgetaucht

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-R9-290-Performance-Hinweise-aufgetaucht-1094286/
Wenn ich den Text schon mit der Vernichtung lese muss ich schmunzeln. Da liegt eine Karte 7% vor der anderen und da spricht man von Vernichtung. :facepalm:

dildo4u
2013-10-25, 11:06:42
Zeigt auch wie wenig Luft die 290X OC hat die 780 HOF ist meist schneller.

Arcanoxer
2013-10-25, 11:10:43
Wenn ich den Text schon mit der Vernichtung lese muss ich schmunzeln. Da liegt eine Karte 7% vor der anderen und da spricht man von Vernichtung. :facepalm:Finde es auch armselig, daß einzige was die Karte imho Vernichtet ist Strom. :freak:

schreiber
2013-10-25, 11:12:27
Finde es auch armselig, daß einzige was die Karte imho Vernichtet ist Strom. :freak:
Nanana, der wird nur in Wärme umgewandelt.

dargo
2013-10-25, 11:15:20
Finde es auch armselig, daß einzige was die Karte imho Vernichtet ist Strom. :freak:
Ach... das finde ich gar nicht mal so tragisch. Ich hatte hier schon eine GTX480 die afaik bis zu 320W gezogen hat. Mit einem vernünftigen Kühler (der von Zalman war es) war diese auch zu bändigen und schön leise bei Last. Alles eine Frage von vernünftiger Kühlung. Zumal dann auch der Verbrauch noch etwas sinkt.

Arcanoxer
2013-10-25, 11:23:44
Ach... das finde ich gar nicht mal so tragisch. Ich hatte hier schon eine GTX480 die afaik bis zu 320W gezogen hat. Mit einem vernünftigen Kühler (der von Zalman war es) war diese auch zu bändigen und schön leise bei Last. Alles eine Frage von vernünftiger Kühlung. Zumal dann auch der Verbrauch noch etwas sinkt.
Nur ist die R290x fernab von einer vernünftigen Kühlung.
Klar, selber kann man immer Hand anlegen.
Aber das muss doch nicht bei einer 500€+ Graka sein, oder?

robbitop
2013-10-25, 11:26:06
Es wird doch Partnermodelle geben. So wie immer. Wie kann man sich über die Referenzkühlung aufregen?

Botcruscher
2013-10-25, 11:26:37
Finde es auch armselig, daß einzige was die Karte imho Vernichtet ist Strom. :freak:

Im Q wenige Watt mehr als die 7970. Letztere ist und bleibt der Preis/Leistungsstar.

An der Sprachwahl sieht man aber schon wie langweilig der Fortschritt bei den GraKa ist. Der Schreiberling verfällt derweil in den Bildzeitungsmodus.

dargo
2013-10-25, 11:26:40
Nur ist die R290x fernab von einer vernünftigen Kühlung.
Klar, selber kann man immer Hand anlegen.
Aber das muss doch nicht bei einer 500€+ Graka sein, oder?
Wie ich schon im anderen Thread sagte... hätte ich Interesse an dieser Karte (habe ich ja nicht da zu wenig Bums gegenüber Tahiti, für mich wirds immer bei ca. Faktor 2 erst interessant) würde mich das Referenzdesign nicht interessieren. Das hat es noch nie. Da würde ich immer erst Custom-Kühler abwarten. Für das Ding wäre ein Triple-Slot-Kühler perfekt.

Sven77
2013-10-25, 11:26:58
Es wird doch Partnermodelle geben. So wie immer. Wie kann man sich über die Referenzkühlung aufregen?

Wann denn? Weisst du mehr als wir? Dieses Jahr anscheinend wohl nicht mehr..

robbitop
2013-10-25, 11:30:04
Wann denn? Weisst du mehr als wir? Dieses Jahr anscheinend wohl nicht mehr..
Es kommen doch für jede Karte Partnermodelle. Schon immer. Ein paar Wochen nach dem Launch. Dafür braucht man keine Glaskugel.

Arcanoxer
2013-10-25, 11:31:10
Es wird doch Partnermodelle geben. So wie immer. Wie kann man sich über die Referenzkühlung aufregen?
Es ist nun mal ein Teil des Gesamtpakets.
Und solange es noch keine gescheiten Partnermodelle gibt, leidet der Gesmteindruck.

Es ging im grunde genommen nur um die übertriebene Wortwahl von "vernichten". ;)

Sven77
2013-10-25, 11:38:22
Es kommen doch für jede Karte Partnermodelle. Schon immer. Ein paar Wochen nach dem Launch. Dafür braucht man keine Glaskugel.

Letzte Aussage von Asus war das dieses Jahr nix mehr gibt

Iruwen
2013-10-25, 11:45:59
Es wird doch Partnermodelle geben. So wie immer. Wie kann man sich über die Referenzkühlung aufregen?
Die wird nunmal überall getestet. Und das einzige was AMD damit sagt ist: wir könnens nicht, getreu dem ehemaligen oder bei vielen vielleicht immer noch vorhandenen Billigimage. Wenn die Karte mit Referenzkühlung eh kaum verkauft wird kann man auch eine teurere und dafür leisere verbauen.

robbitop
2013-10-25, 11:58:24
Ob es an "nichtkönnen" liegt, ist die Frage. Man wählt DHE ja deshalb, damit die Temperatur der Karte unabhängig von der Gehäusebelüftung und der Anzahl der Karten ist.

Die Karte wird entsprechend laut, weil sie eine entsprechend höhere Leistungsaufnahme als Titan hat. Man wollte halt unbedingt die hohen Taktraten haben, um an Titan heranzukommen (was mit ~ 100 sqmm wirklich beachtenswert ist!!).

Mit 50 sqmm mehr hätte man mehr Einheiten verbauen können und hätte weniger Taktrate und weniger Spannung gebraucht. Das wäre dem Ergebnis von Titan wohl näher gekommen.

Axialbelüftete Kühler haben es da wesentlich einfacher.

IMO hat das wenig mit "billig" zu tun. Die GTX480 war auch laut und ein Stromschlucker. War sie deshalb "billig"? Das ist alles eine Auslegungs- und Philosophiefrage. Es sollte eigentlich klar sein, dass Partnerkarten das Manko beheben. Darum sehe ich das sehr entspannt.

StefanV
2013-10-25, 12:04:37
Und der Kühler der Titan (http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1/3), noch ein Bild vom 7970 Kühler (http://hothardware.com/Reviews/AMD-Radeon-HD-7970-28nm-Tahiti-GPU-Review/?page=4).
hier gibts ein Bild vom Kühler der 290X (http://www.techpowerup.com/193121/amd-announces-radeon-r9-290x.html), GTX580 (http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-580-15GB-Review-and-SLI-Testing-GF110-brings-full-Fermi/Ge) und GTX480 (http://www.bit-tech.net/hardware/2010/03/27/nvidia-geforce-gtx-480-1-5gb-review/2)

Alles die glorreichen, von einigen so stark gewünschten DHE Kühler. Alle vom Design her recht ordentlich und kaum zu verbessern. Und alle sinds doch ziemlicher Dreck, da laut, heiß.

Aber hey, DHE Kühler sind halt super, da sie die Wärme ausm Gehäuse bringen!!111
Zwar nur ein Teil, weil die Strahlungswärme von der Karte im Gehäuse bleibt, aber egal. Und dass so ein Teil auch gern mal doppelt (oder dreimal) so laut ist, wie ein guter 'Standardkühler' (zum Beispiel das von der ASUS R9-280X, also ordentliche Oberfläche, große Lüfter), wird dabei gern unter den Tisch gekehrt.

Gut, in einem Multi GPU Setup braucht ein 'Standardkühlersetup' mehr Hilfe in Form eines Seitenlüfters, aber den soll man ja lt. nVidia für ein SLI System eh haben...
Muss anscheinend auch hier mal gesagt werden...

Dazu, lieber Iruwen, zeige doch bitte eine 7970, die noch (breit) verfügbar ist und auf dem Referenzdesign aufbaut. Das letzte mal, als ich schaute war das schon nicht so.
Wohingegen das Referenzdesign bei nV durchaus noch genutzt wird.

Von daher ist das rumgekloppe aufm Referenzdesign einfach nur doof, denn in ein paar Wochen wirst eh keine AMD mehr im Referenzdesign kaufen können....

Loeschzwerg
2013-10-25, 12:06:52
Schlechte PR, mehr muss man dazu nicht sagen. Leute die solche Tests lesen und keine Ahnung von der Materie haben werden sich dann evtl. keine 290X kaufen. Iruwen liegt damit also nicht verkehrt.

Pirx
2013-10-25, 12:11:18
Geht halt darum negative Stimmung in AMD Launchthreads zu verbreiten deshalb wird auf einzelnen Punkten extrem rumgeritten, während eine Diskussion über die anderen Fähigkeiten der Karte von den betreffenden Usern fast nicht stattfindet.
Beim letzten mal wars afair der Launchpreis, der natürlich vieeeeel zu hoch war.;D

Loeschzwerg
2013-10-25, 12:15:52
AMD wäre halt mal wieder ein komplett gelungener Launch zu wünschen, idealerweise ala 9500/9700.

Ein zeitgleicher Start mit Custom Designs wäre evtl. sinnvoller gewesen, aber wahrscheinlich auch später.

Edit: Wird AMD bei der 290 eigentlich auch zuerst mit dem Ref Design starten?

dargo
2013-10-25, 12:17:24
Schlechte PR, mehr muss man dazu nicht sagen. Leute die solche Tests lesen und keine Ahnung von der Materie haben werden sich dann evtl. keine 290X kaufen. Iruwen liegt damit also nicht verkehrt.
Leute die keine Ahnung von der Materie haben kaufen keine ~500€ Graka. ;) Andere Zielgruppe.

Loeschzwerg
2013-10-25, 12:22:25
Gamer die zu viel geld von Papa bekommen schon ;) Gamer != Ahnung von Materie

Von den 08/15 PC Schmieden um die Ecke, bei denen das Personal auch nur mittelmäßig Erfahrung hat, will ich garnicht erst anfangen. Edit: "Wir könnten Ihnen eine 290x verbauen, aber die ist recht laut. Die leisere, aber etwas langsamere alternative wäre die GTX 780."

Pirx
2013-10-25, 12:26:14
AMD wäre halt mal wieder ein komplett gelungener Launch zu wünschen, idealerweise ala 9500/9700.

Ein zeitgleicher Start mit Custom Designs wäre evtl. sinnvoller gewesen, aber wahrscheinlich auch später.

Edit: Wird AMD bei der 290 eigentlich auch zuerst mit dem Ref Design starten?
Soo toll war der Start der 9700 auch nicht, weil anfangs die Spiele auch auf der 4600 noch gut liefen, erst später dann nicht mehr soooo toll.:D

M4xw0lf
2013-10-25, 12:28:05
Der Launch der HD5870 war gelungen. Die Verfügbarkeit war halt nicht so genial ;)

Loeschzwerg
2013-10-25, 12:30:29
@pirx: An der Karte gab es aber auch nix zu meckern :) Entweder komplett überzeugen oder blenden, andernfalls bietet man immer Angriffsfläche und dann mus damit gelebt werden.

@M4x: Fand ich auch super, ebenfalls die kleinen Karten. Daher hatte ich auch übergangsweise eine HD5770.

N0Thing
2013-10-25, 12:34:03
Geht halt darum negative Stimmung in AMD Launchthreads zu verbreiten deshalb wird auf einzelnen Punkten extrem rumgeritten, während eine Diskussion über die anderen Fähigkeiten der Karte von den betreffenden Usern fast nicht stattfindet.


Welche überprüfbaren anderen Fähigkeiten bietet die R290x denn, die nicht auch schon eine HD7970/R280x zu bieten hatte? :confused:

aufkrawall
2013-10-25, 12:37:36
Welche überprüfbaren anderen Fähigkeiten bietet die R290x denn, die nicht auch schon eine HD7970/R280x zu bieten hatte? :confused:
Die App soll halt alles selber anfordern, weil das ja theoretisch am besten geht.
Ich find den Ansatz auch für den Lokus, zumindest für Enthusiasten auf dem PC.

Iruwen
2013-10-25, 12:39:50
Ob es an "nichtkönnen" liegt, ist die Frage. ... IMO hat das wenig mit "billig" zu tun.

Seh ich auch so, die Perzeption der typischen "ich hab Geld und kauf was mit der Typ hinterm Tresen empfiehlt" Fraktion dürfte aber anders aussehen. Ich durfte früher auf Kundenwunsch keine AMD CPUs verbauen, es mussten P4 sein. Völlig irrational, aber so läufts.

Iruwen
2013-10-25, 12:42:52
Dazu, lieber Iruwen, zeige doch bitte eine 7970, die noch (breit) verfügbar ist und auf dem Referenzdesign aufbaut. Das letzte mal, als ich schaute war das schon nicht so.
Wohingegen das Referenzdesign bei nV durchaus noch genutzt wird.

Von daher ist das rumgekloppe aufm Referenzdesign einfach nur doof, denn in ein paar Wochen wirst eh keine AMD mehr im Referenzdesign kaufen können....
Warum lässt AMD den Schrott dann testen? Das ist doof, aber von AMD. Nvidia ist (mittlerweile) so schlau die Referenz trotz DHE auf erträglichem Niveau zu halten.

Skysnake
2013-10-25, 12:48:32
Damit machen Sie sich aber nicht unbedingt beliebt bei den Boardpartnern...

Es ist ein sehr zweischneidiges Schwert.

Iruwen
2013-10-25, 12:50:25
Das setzt die Partner unter Druck ebenfalls keine absoluten Schrottkühler zu verbauen, ist für mich als Kunde interessanter als wie die sich untereinander vertragen. Legt NV wahrscheinlich auch keinen gesteigerten Wert drauf.

N0Thing
2013-10-25, 12:55:17
Und die Boardpartner haben sicher auch nichts dagegen Referenzdesigns verkaufen zu können, die auch von den Kunden nachgefragt werden.
Man sieht ja an der GTX 780, daß man trotzdem noch was leiseres oder stärkeres nachlegen kann, um sich vom Standard abzugrenzen.

Skysnake
2013-10-25, 13:07:19
Das setzt die Partner unter Druck ebenfalls keine absoluten Schrottkühler zu verbauen, ist für mich als Kunde interessanter als wie die sich untereinander vertragen. Legt NV wahrscheinlich auch keinen gesteigerten Wert drauf.
Wenn man aber gleichzeitig wie bei der Titan verhindert, dass die Boardpartner eigene Lösungen bringen, und ihnen bei fast jeder Gelegenheit in die Suppe spuckt (EVGA und ihr OC stick oder was das war), muss man sich auch nicht wundern, dass die nicht mehr groß Lust haben, Geld in die HAnd zu nehmen um was Neues zu entwickeln. Am Ende wirds ja eh wieder einkassiert....

Ich sags mal so. Mal sollte nicht überrascht sein, wenn in nächster Zeit nicht noch der ein oder andere exklusive Boardpartner von nVidia sich für AMD öffnet oder ganz wechselt.

Gaestle
2013-10-25, 13:11:10
Aber wenn das Referenzdesign so perfekt ist, macht man die Boardpartner doch austauschbar. Ein "schlechter" Referenzkühler gibt den Boardpartnern hingegen Spielraum, besser (oder zumindest anders) zu sein als die Anderen.

Iruwen
2013-10-25, 13:14:18
Wenn man aber gleichzeitig wie bei der Titan verhindert, dass die Boardpartner eigene Lösungen bringen

Titan ist halt ein Sonderfall (und bleibt es hoffentlich auch).

Aber wenn das Referenzdesign so perfekt ist, macht man die Boardpartner doch austauschbar. Ein "schlechter" Referenzkühler gibt den Boardpartnern hingegen Spielraum, besser (oder zumindest anders) zu sein als die Anderen.

So gut ist die Referenz nun auch nicht.

Skysnake
2013-10-25, 13:20:15
Das EVGA-Tool war bei der GTX680 glaub dabei...

nVidia hat in letzter Zeit viel getan, um schlechte Laue zu verbreiten.

Schon auf der letzten CeBIT war die Stimmungslage ziemlich zwiegestalten bei den Partnern.

AMD: Friedefreudeeierkuchen und ehrlich freudige Gesichter
nVidia: Zusammengebissene Zähne mit nem aufgesetzten freundlichen Gesicht und kein Kommentar, oder offrecord großes Gemeckere...

Klar ist das Ref-Design nicht knalle von AMD, aber die Boardpartner sind sehr sehr sehr erfreut darüber und wollen auch nichts geändert haben. VOR ALLEM! weil Sie auch sehr sehr früh schon anfangen können ihre Lösungen zu planen bei AMD. Bei nVidia ist das laut der Aussage mehrere Partner ganz anders. Die wissen erst sehr sehr sehr spät irgendwas und können erst kurz vor Launch anfangen an ihren eigenen Designs zu arbeiten.

Da spricht teils echte Verärgerung aus den Leuten.

Gunslinger
2013-10-25, 13:21:23
Der Launch der HD5870 war gelungen. Die Verfügbarkeit war halt nicht so genial ;)

Ich konnte direkt zum Launch eine um 349,-- kaufen. War eine tolle Karte.

Wenn man das mit der aktuellen Preislage vergleicht.

Superheld
2013-10-25, 13:23:24
Sowohl bei Arctic als auch bei Prolimatech sind die aktuellen Topmodelle unter den GPU-Kühlern auch mit AMDs Radeon R9 290X kompatibel. Das gaben die Hersteller auf Nachfrage von ComputerBase bekannt.
http://www.computerbase.de/news/2013-10/arctic-und-prolimatech-unterstuetzen-radeon-r9-290x/

kanns ja losgehen :D

Iruwen
2013-10-25, 13:25:01
Das EVGA-Tool war bei der GTX680 glaub dabei...
Ach so, du meintest das Umgehen der maximalen Spannung von 1,21V. Das ist ja nochmal was anderes als die Kühllösung. Da wirds natürlich für die Partner wirklich eng sich abzusetzen weil dem Takt damit sehr enge Grenzen gesetzt sind, an der Qualität der GPU können sie im Gegensatz zum Kühler ja nichts ändern.

Skysnake
2013-10-25, 13:41:29
nVidia will oder kann ihren Partnern aber nicht viel Spielraum geben. Die liegen quasi an der kurzen Leine.

Ist dir dagegen aufgefallen, mit was die Partner aktiv bei den neuen R9 Karten werben? ;)

Gipsel
2013-10-25, 13:43:14
Zeigt auch wie wenig Luft die 290X OC hat die 780 HOF ist meist schneller.Du hast schon gesehen, daß die 780 HOF bei 1310/6700 MHz gebencht wurde? Das ist schon ein wenig mehr, als der Normaluser da rausquetschen kann. Im Übrigen sind die Versuche mit den Grafiken im Eingangspost ohne jegliche Spannungsänderung gemacht worden. Später im Thread schreibt er, daß er inzwischen Tools hat, mit denen das geht und die die 290X (und auch die 290) deutlich höher takten lassen. Am Ende hat sogar eine 290 (ohne X) im übertakteten Zustand die HOF auf 1,31GHz geschlagen (in seinen wenigen Tests, aber na ja).

Schnitzl
2013-10-25, 14:22:04
Ich konnte direkt zum Launch eine um 349,-- kaufen. War eine tolle Karte.

Wenn man das mit der aktuellen Preislage vergleicht.
jo ^^

5850 für 237,- am Launchtag (oder 1 Tag später)
7950 für 429,- am Launchtag direkt beim Händler, da gabs sogar mehrere Modelle zur Auswahl

ich wette ich könnte jetzt auch zu Händler gehn und würde eine bekommen :freak:

Iruwen
2013-10-25, 14:31:52
nVidia will oder kann ihren Partnern aber nicht viel Spielraum geben. Die liegen quasi an der kurzen Leine.

Ist dir dagegen aufgefallen, mit was die Partner aktiv bei den neuen R9 Karten werben? ;)

Damit, dass dieses Jahr offenbar keine Nicht-Referenzversionen der R290(X) mehr kommen? :biggrin:

StefanV
2013-10-25, 19:33:56
Das setzt die Partner unter Druck ebenfalls keine absoluten Schrottkühler zu verbauen, ist für mich als Kunde interessanter als wie die sich untereinander vertragen. Legt NV wahrscheinlich auch keinen gesteigerten Wert drauf.
Das musst du aber andersrum sehen.
Erstens hat jeder Hersteller ein interesse daran, sich von anderen Herstellern absetzen zu können...

Wenn man den Herstellern dieses verwehrt, dann verärgert man sie einerseits und andererseits machts sie auch überflüssig/ersetzbar, wenn dann jeder das Referenzdesign mit Referenz Kühler verwendet.

Bei AMD gibt es da ja genau 3 Stufen, bei neuen Karten:
1. Referenzkarten mit Referenzkühler (ist aber sehr schnell vorbei, maximal 3 Monate)
2. Referenzkarten mit Partner Kühlern (dauert länger an)
3. im Endstadium hat dann jeder sein eigenes Design mit 'nem eigenen Kühler.

Und das ist jetzt nicht unbedingt schlecht, denn wenn alle eh das gleiche verticken, sind sie ja, wie schon erwähnt, ersetzbar. Das heißt, dass man sich maximal durch den Preis absetzen kann.
Und dass man eigentlich gar kein Hersteller ist sondern nur Vertreiber.
Wenn man aber gleichzeitig wie bei der Titan verhindert, dass die Boardpartner eigene Lösungen bringen, und ihnen bei fast jeder Gelegenheit in die Suppe spuckt (EVGA und ihr OC stick oder was das war), muss man sich auch nicht wundern, dass die nicht mehr groß Lust haben, Geld in die HAnd zu nehmen um was Neues zu entwickeln. Am Ende wirds ja eh wieder einkassiert....
das Teil wars (http://www.evga.com/articles/00521/)...

Wenn ich mich nicht irre, ist der Funktionsumfang bei der EVGA GTX680 deutlich beschränkter als bei der 580 oder der 285...

Ich sags mal so. Mal sollte nicht überrascht sein, wenn in nächster Zeit nicht noch der ein oder andere exklusive Boardpartner von nVidia sich für AMD öffnet oder ganz wechselt.
Was ja auch nicht unbedingt schlecht wäre, wenn dann z.B. EVGA ins AMD Lager wechseln würde.
Verstehe aber sowieso nicht, warum so viele nV Exklusivpartner sind und nicht beides machen. Bei AMD würden mir jetzt 2 exklusive Partner einfallen: Powercolor und Sapphire.

Knuddelbearli
2013-10-25, 20:00:29
weill das NV verlangt

gab da ja mal ne news dazu als XFX und noch 1-2 anbieter gewechselt haben das NV Partner die beides im Angebot habend eutlich benachteiligt bzw die anderen bevorzugt

MR2
2013-10-25, 20:01:56
His, xfx...

Die nvidia Exclusiven werden grad bei den jetzigen 290X Karten heulen :-) Vielleicht kommen Evga und Co noch zur anderen Seite der Macht:-)

@ Raff
Powercolor billig?
Ich dachte die PCS+ war super? In eurem Test hat die am Besten abgeschnitten. Ich hoffe auf eine 290 PCS+.

N0Thing
2013-10-25, 20:04:26
Was ja auch nicht unbedingt schlecht wäre, wenn dann z.B. EVGA ins AMD Lager wechseln würde.
Verstehe aber sowieso nicht, warum so viele nV Exklusivpartner sind und nicht beides machen. Bei AMD würden mir jetzt 2 exklusive Partner einfallen: Powercolor und Sapphire.

Vermutlich sind sie generell doch nicht so unzufrieden, abgesehen von der Titan können sie ja auch eigene Lösungen anbieten und sich von ihren Konkurrenten absetzen. Die Verkaufszahlen von Nvidia sehen bei diskreten Grafikkarten auch nicht schlechter aus als bei AMD, von daher können sie von ihrem Exklusiv-Deal wohl ganz gut leben.

Knuddelbearli
2013-10-25, 21:17:15
Der Wechsel von XFX zu AMD kam nicht überraschend, den nachdem XFX neben NVIDIA GeForce Produkten auch ATI/Radeon Grafikkarten in sein Programm aufnahm, begann der Niedergang der Kooperation zwischen XFX und NVIDIA.

So konnte XFX trotz anfänglicher Ankündigung niemals eine eigene Karte auf Basis der neuen Fermi Architektur ausliefern, da man keine Chips von NVIDIA zugeteilt bekam. Dies zog sich über die GeForce GTX 480 und 470 bis hin zu GeForce GTX 460.

...

gnahr
2013-10-25, 21:32:17
eure betrachtung würdigt aber nicht, wie viele unternehmen mit und durch den siegeszug von nvidia nach erfindung der grafikkarte groß gezogen wurde. kein vergleich zur entwicklung von ati.

powercoler, sapphire, und his sind ja nun nicht so wenige. die erfinden halt nicht so viele gadgets wie die nvidia-partner, aber bringen genauso ab und zu brauchbare kühler raus wie auch die 2gleisig fahrenden erfolgreichen. (asus, gigabyte, zotac, msi,...) gadgets im sinne von dummy-bildschirm-adapter, overclocking monitore und steuerungen, furmark-adaptionen, oc-software, voltmod-leerboards, dokumentierte spannungs-messpunkte, ...

Skysnake
2013-10-25, 21:34:29
das Teil wars (http://www.evga.com/articles/00521/)...

Wenn ich mich nicht irre, ist der Funktionsumfang bei der EVGA GTX680 deutlich beschränkter als bei der 580 oder der 285...

Ja genau, das Ding meine ich :up:

Finde ich total lächerlich, das nVidia das verbietet. Das Sie für dadurch kaputte Chips keine Garantie übernehmen wollen ist ja ok, aber es einfach verbieten geht echt nicht klar..


Was ja auch nicht unbedingt schlecht wäre, wenn dann z.B. EVGA ins AMD Lager wechseln würde.
Verstehe aber sowieso nicht, warum so viele nV Exklusivpartner sind und nicht beides machen. Bei AMD würden mir jetzt 2 exklusive Partner einfallen: Powercolor und Sapphire.

His
XFX
Club3D

Das sind die die mir spontan einfallen.


Die nvidia Exclusiven werden grad bei den jetzigen 290X Karten heulen :-) Vielleicht kommen Evga und Co noch zur anderen Seite der Macht:-)

Das wäre schon was, wobei EVGA an sich finde ich auch nachgelassen hat.

Der Wechsel von XFX zu AMD kam nicht überraschend, den nachdem XFX neben NVIDIA GeForce Produkten auch ATI/Radeon Grafikkarten in sein Programm aufnahm, begann der Niedergang der Kooperation zwischen XFX und NVIDIA.

So konnte XFX trotz anfänglicher Ankündigung niemals eine eigene Karte auf Basis der neuen Fermi Architektur ausliefern, da man keine Chips von NVIDIA zugeteilt bekam. Dies zog sich über die GeForce GTX 480 und 470 bis hin zu GeForce GTX 460. ...
Ist nicht gerade die feine englische Art....

Hugo78
2013-10-25, 21:35:22
Ist dir dagegen aufgefallen, mit was die Partner aktiv bei den neuen R9 Karten werben? ;)

- max. 30 Mhz mehr Boost,
- Referenzdesigns so weit das Auge reicht,
- keine ausdrückliche Garantie im Falle eines Kühlerwechsels (eventuell XFX aber dann auch nur US only)
- die Norm ist sowieso nur gesetzliche 6 Monate Garantie + Gewährleistung.
Allein Gigabyte bietet zumindest 2 Jahre Herstellergaratie, ist aber normal bei Gigabyte.

- http://www.computerbase.de/news/2013-10/amd-radeon-r9-290x-preise-und-verfuegbarkeit/
- http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-R9-290X-Boardpartner-Modelle-vorgestellt-1094088/
- http://geizhals.at/de/?cat=gra16_512&xf=132_4096~1440_R9+290X#xf_top

Oder was meintest du?

Effe
2013-10-25, 21:42:49
Ich habe mal eine Frage an die Herren Hardwareexperten:

Wie groß wäre ein Hawaii-Chip in 20nm Fertigung? Wie warscheinlich ist es, daß AMD diesen, wenn TSMC mal ausgekackt hat, für die neue Serie schrumpft und dann bspw. im Performancesegment anbietet?
Da ist ja im Prinzip schon alles drin was AMD die letzten Jahre erfunden hat. Hawaii kommt ja nur in der Form in 28nm, weil 20nm realistisch noch etwa ein Jahr(?) weg ist. So könnte man das Ding shrinken, mit verkleinertem SI(?)und hätte schon was in petto für die 300er Serie.

Wahrscheinliches Szenario?

Skysnake
2013-10-25, 21:43:21
Ich meinte jetzt eher das "Voltage unlocked" Der 280(x).

Denke ich wird bei den 290ern auch kommen.

Hugo78
2013-10-25, 21:51:34
Ich meinte jetzt eher das "Voltage unlocked" Der 280(x).
Ist nicht neu bei Tahiti.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=541245

Skysnake
2013-10-25, 21:54:54
Doch ist es. Denn bisher stand nicht drauf, ob Sie unlocked ist oder nicht.

Am Ende wars nen ziemlicher krampf überhaupt noch welche zu bekommen ohne Vlock.

HarryHirsch
2013-10-25, 21:58:43
Wenn man max 1.3 Volt als unlocked bezeichnet ist das sicher richtig.
Alle ersten 7970 waren es dann... Mit Asus Bios gehen auch über 1.3 Volt...
Bei den 280ern wird es sicher ähnlich ablaufen.

Skysnake
2013-10-25, 22:01:57
Naja, ich hoffe darauf, das man aus der Unzufriedenheit bei der 7k Serie gelernt hat, und eben mit Stickern klar signalisiert ob unlocked oder nicht.

HarryHirsch
2013-10-25, 22:16:11
Wer jetzt erst in diese Leistungsklasse aufsteigt kauft sich am besten eine 7970 non GHz mit ATI Design.
"Unlocked" und "Modbar".

StefanV
2013-10-25, 22:42:27
Naja, der Pukt ist ja auch, dass man die Spannung nicht nur erhöhen kann, sondern auch mal absenken. Und wenn man z.B. der Meinung ist, dass man a) den Takt nicht braucht, b) der Kühler einem auf die Eier geht und c) man daher doch gern die Spannung absenken würde, gibts aktuell nicht so wirklich 'ne Möglichkeit den Takt zu senken.


Bei 'ner 5870 gabs ja noch den Trick mit dem Video im Hintergrund, was dann die Lautstärke stark reduziert hat. Bei der letzten Revision der Gigabyte 7970 ging das ja nicht mehr, da war die Spannung fest. Sowohl nach oben, als auch nach unten...

2phil4u
2013-10-25, 23:05:02
Gibts schon Test mit Wasserkühlung ?

Preis ist ja gut, aber Performance im Vergleich zur Titan und dessen Alter und Energieverbrauch mal wieder nicht so.

AMD hat halt mal wieder ein mittelmässiges Produkt über den Preis attraktiv gemacht, ob AMD so weiter überlebt, who knows ?

HarryHirsch
2013-10-25, 23:26:51
Naja, der Pukt ist ja auch, dass man die Spannung nicht nur erhöhen kann, sondern auch mal absenken. Und wenn man z.B. der Meinung ist, dass man a) den Takt nicht braucht, b) der Kühler einem auf die Eier geht und c) man daher doch gern die Spannung absenken würde, gibts aktuell nicht so wirklich 'ne Möglichkeit den Takt zu senken.


Bei 'ner 5870 gabs ja noch den Trick mit dem Video im Hintergrund, was dann die Lautstärke stark reduziert hat. Bei der letzten Revision der Gigabyte 7970 ging das ja nicht mehr, da war die Spannung fest. Sowohl nach oben, als auch nach unten...

Genau das machen sie mit Mod-Bios auch. Man sollte sie nur vorher ausloten...
Meine 5870 @ 1020 waren btw nie laut. Könnte am Kühler gelegen haben. :biggrin:

grobi
2013-10-25, 23:32:36
Gibts schon Test mit Wasserkühlung ?

Preis ist ja gut, aber Performance im Vergleich zur Titan und dessen Alter und Energieverbrauch mal wieder nicht so.

AMD hat halt mal wieder ein mittelmässiges Produkt über den Preis attraktiv gemacht, ob AMD so weiter überlebt, who knows ?


Mittelmäßiges Produkt? Du überteibst mal ganz schön. :freak:

HarryHirsch
2013-10-25, 23:39:03
Bei einem mittelmäßigen Preis kann ja auch nur ein mittelmäßiges Produkt dahinter stehen. :freak:

Thomas Gräf
2013-10-25, 23:42:45
Gibts schon Test mit Wasserkühlung ?

Preis ist ja gut, aber Performance im Vergleich zur Titan und dessen Alter und Energieverbrauch mal wieder nicht so.

AMD hat halt mal wieder ein mittelmässiges Produkt über den Preis attraktiv gemacht, ob AMD so weiter überlebt, who knows ?

Auch das ist nur die halbe Warheit, oder? Denn die volle Warheit ist das Preisschild auf Deiner neuen nV Karte. Denn das hat AMD wiedermal mit einem mittelmässigen Produkt gemacht....das Preisschild auf der nV ;)

maximus_hertus
2013-10-26, 00:14:10
Gibts schon Test mit Wasserkühlung ?

Preis ist ja gut, aber Performance im Vergleich zur Titan und dessen Alter und Energieverbrauch mal wieder nicht so.

AMD hat halt mal wieder ein mittelmässiges Produkt über den Preis attraktiv gemacht, ob AMD so weiter überlebt, who knows ?

Die 290X "Uber" ist alles in allem die schnellste Single GPU. Punkt. Es interessiert dabei nicht, ob es nur 1% oder 10% sind.

Anders gefragt: Wenn man die schnellste Karte des Konkurrenten schlägt, ist es dennoch nur "mittelmäßig"? Kapiere ich nicht. Und nein, es ist egal, wann ein Produkt herausgekommen ist. Was interessiert mich HEUTE, wann die Titan vorgestellt worden ist. Wenn ich heute bzw. zu XMAS eine Karte kaufen möchte schaue ich mir die IST-Situation an. Bis Mitte November wird die 290X auf dem Benchmarkthron herrschen (wenngleich nur hauchdünn.... Die GTX 780 Ti wird wohl knapp rüber kommen (dafür wird nV schon sorgen)).

Abgesehen davon, "darf" man die 290X gar nicht mit der Titan vergleichen, da völlig verschiedene Produkte: Titan = Enthusiast-Serie, 780 und 290X = High-End.

Am Ende ist es doch schön, wenn die beiden GPU-Hersteller Kopf an Kopf liegen - damit besteht die Chance auf "normale" Preise.

IMO waren die "nur" ca. 200W Verbrauch der 780/Titan für mich ein klarer Minuspunkt. nV hat schlicht die 300W nicht ausgereizt und viel Performance liegen lassen ;) Dazu immer im Hinterkopf, dass es "demnächst" einen "vollen" Titan geben könnte. Nein, Titan war alles, nur nicht toll.

Meine "Bewertung" zu 290X vs Titan:


Titan:

- sehr mäßiger Kühler (nur eine extrem eingebremste Titan wird sehr gut / leise gekühlt)
- miese Performance @ Stock (nur rund 30-35% vor der 7970, die da schon über(!) 1 Jahr auf dem Markt war)
- keine Custom-Designs
- mit 950 Euro @ Start ein richtig schlechtes P/L-Verhältnis
- Ich kaufe keinen Porsche, um damit mit 50 in der Gegend zu "eiern", bitte einmal voll ausfahren bitte!

290X:
- eher schlechter Kühler @ Stock, aber Custom Designs on the way
- ordentliche, aber keine überragende Performance. Custom Designs können und werden imo noch etwas drauf legen
+ mit 499 Euro ein (für High-End) guter Preis @ Launch, potential für 420-450 Euro um / nach XMAS.
+ ich erhalte eine volle Karte, mehr geht nicht bzw. nur durch etwas mehr Takt / besserer Kühler @ Custom-Design. Jedoch keine "Wunder". Geringeres Risiko viel Geld auszugeben und kurze Zeit später von einer Ultra-Karte "überrascht" zu werden


Natürlich etwas sehr polemisch, jedoch alles IMO.

N0Thing
2013-10-26, 00:34:06
nein, es ist egal, wann ein Produkt herausgekommen ist. Was interessiert mich HEUTE, wann die Titan vorgestellt worden ist. Wenn ich heute bzw. zu XMAS eine Karte kaufen möchte schaue ich mir die IST-Situation an

[...]

Meine "Bewertung" zu 290X vs Titan:


Titan:

- miese Performance @ Stock (nur rund 30-35% vor der 7970, die da schon über(!) 1 Jahr auf dem Markt war)

[...]

Natürlich etwas sehr polemisch, jedoch alles IMO.

Gut, wenn überall die gleichen Maßstäbe angelegt werden. :D


Zudem hättest du besser die GTX 780 mit der R290x vergleichen sollen, denn:


"Abgesehen davon, "darf" man die 290X gar nicht mit der Titan vergleichen, da völlig verschiedene Produkte: Titan = Enthusiast-Serie, 780 und 290X = High-End. "

;D

maximus_hertus
2013-10-26, 00:39:25
Da hast du Recht, aber ich habe absichtlich übertrieben / teilweise wiedersprüchliches geschrieben, da mir der ganze nV/AMD-Bash auf den Sack geht.

Ich bin da schmerzfreier (von 8800 GTX auf HD 4870X2 auf GTX 295 auf HD 5870 auf GTX 480 SLI auf 7970 auf.... tja, das ist schwierig geworden..., geplant war sowas wie GK110 SLI, aber 1900 Euro war dann doch zu hart).

dildo4u
2013-10-26, 00:43:38
Die 780 OC mit Custom Kühler sind wesentlich kaufenswerter als die AMD zur Zeit.So lange es keine Custom Kühler gibt erübrigt sich auch der "billige" Preis da man Nachrüsten muss.

Knuddelbearli
2013-10-26, 01:01:32
naja jedes custom modell stinkt gegen wakü / eigenumbau ab ^^

redfirediablo
2013-10-26, 01:26:30
Ist leider wirklich so, an AC sind nicht mal die triple slot von Asus ran gekommen.

Was mich momentan mehr stört sind die Berichte über Spulenfiepen. Da bringt einem ne Wakü oder ein AC natürlich gar nix.

Knuddelbearli
2013-10-26, 02:56:09
? was für berichte? in den Reviews wars doch eher umgekehrt waren deutlich weniger fiepanfällig als die 7970 GHz

Iruwen
2013-10-26, 09:57:43
Die 290X "Uber" ist alles in allem die schnellste Single GPU. Punkt. Es interessiert dabei nicht, ob es nur 1% oder 10% sind.

Anders gefragt: Wenn man die schnellste Karte des Konkurrenten schlägt, ist es dennoch nur "mittelmäßig"? Kapiere ich nicht. Und nein, es ist egal, wann ein Produkt herausgekommen ist. Was interessiert mich HEUTE, wann die Titan vorgestellt worden ist. Wenn ich heute bzw. zu XMAS eine Karte kaufen möchte schaue ich mir die IST-Situation an. Bis Mitte November wird die 290X auf dem Benchmarkthron herrschen (wenngleich nur hauchdünn.... Die GTX 780 Ti wird wohl knapp rüber kommen (dafür wird nV schon sorgen)).

Abgesehen davon, "darf" man die 290X gar nicht mit der Titan vergleichen, da völlig verschiedene Produkte: Titan = Enthusiast-Serie, 780 und 290X = High-End.

Am Ende ist es doch schön, wenn die beiden GPU-Hersteller Kopf an Kopf liegen - damit besteht die Chance auf "normale" Preise.

IMO waren die "nur" ca. 200W Verbrauch der 780/Titan für mich ein klarer Minuspunkt. nV hat schlicht die 300W nicht ausgereizt und viel Performance liegen lassen ;) Dazu immer im Hinterkopf, dass es "demnächst" einen "vollen" Titan geben könnte. Nein, Titan war alles, nur nicht toll.

Meine "Bewertung" zu 290X vs Titan:


Titan:

- sehr mäßiger Kühler (nur eine extrem eingebremste Titan wird sehr gut / leise gekühlt)
- miese Performance @ Stock (nur rund 30-35% vor der 7970, die da schon über(!) 1 Jahr auf dem Markt war)
- keine Custom-Designs
- mit 950 Euro @ Start ein richtig schlechtes P/L-Verhältnis
- Ich kaufe keinen Porsche, um damit mit 50 in der Gegend zu "eiern", bitte einmal voll ausfahren bitte!

290X:
- eher schlechter Kühler @ Stock, aber Custom Designs on the way
- ordentliche, aber keine überragende Performance. Custom Designs können und werden imo noch etwas drauf legen
+ mit 499 Euro ein (für High-End) guter Preis @ Launch, potential für 420-450 Euro um / nach XMAS.
+ ich erhalte eine volle Karte, mehr geht nicht bzw. nur durch etwas mehr Takt / besserer Kühler @ Custom-Design. Jedoch keine "Wunder". Geringeres Risiko viel Geld auszugeben und kurze Zeit später von einer Ultra-Karte "überrascht" zu werden


Natürlich etwas sehr polemisch, jedoch alles IMO.

Nach der Logik war die GTX 480 ja die perfekte Karte :freak:

Schnitzl
2013-10-26, 10:27:51
Nach der Logik war die GTX 480 ja die perfekte Karte :freak:
nein, weilich erhalte eine volle Kartenicht erfüllt ist.

Iruwen
2013-10-26, 16:20:10
Nennt er nur als Pluspunkt für die 290X.

Akkarin
2013-10-27, 00:03:22
Hier im thread wurde über übertaktung der 290X gesprochen, die dann mit voltageedrhöhung auch ne 780 HOF schlägt. Könnte bitte wer dazu linken ?

Gipsel
2013-10-27, 00:20:58
Hier im thread wurde über übertaktung der 290X gesprochen, die dann mit voltageedrhöhung auch ne 780 HOF schlägt. Könnte bitte wer dazu linken ?
Steht bei PCGH bzw. in dem dort verlinktem Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9973329#post9973329) und bezieht sich auf Heaven und zwei verschiedene 3DMarks, soweit ich weiß. Und es war keine normale GTX780HOF, sondern die war schon auf 1,31GHz übertaktet (und die 290 auf 1220/6600 MHz oder so, aber noch luftgekühlt). Die Charts im Eingangspost sind noch ohne Spannungsänderung und entsprechend niedrigerem Takt.

Schnitzl
2013-10-27, 08:59:01
Nennt er nur als Pluspunkt für die 290X.
les den ganzen Post von maximus_hertus :wink:

Skysnake
2013-10-30, 01:39:56
Wie siehts denn jetzt eigentlich aus mit neuen Infos zum GDS und der global Barrier???

Hat AMD jetzt schon neue TechDocs raus gegeben?

Und wie sieht es mit OpenCL 2.0 aus? Weiß jemand, wann das gelaunched werden soll?

yamo
2013-10-30, 17:41:43
Da hast du Recht, aber ich habe absichtlich übertrieben / teilweise wiedersprüchliches geschrieben, da mir der ganze nV/AMD-Bash auf den Sack geht.

Ich bin da schmerzfreier (von 8800 GTX auf HD 4870X2 auf GTX 295 auf HD 5870 auf GTX 480 SLI auf 7970 auf.... tja, das ist schwierig geworden..., geplant war sowas wie GK110 SLI, aber 1900 Euro war dann doch zu hart).

Ooch i fast love yuuuu;D I ähm ähnlich geschtrickt. abe so watt von verry muATSCH

deekey777
2013-10-30, 19:44:33
Launch der R9 290 auf den 05.11.2013 verlegt?

Loeschzwerg
2013-10-31, 07:11:30
Da hat schon jemand eine 290 (ohne X) im Overclockers Forum erhalten.

http://forums.overclockers.co.uk/showthread.php?t=18551717&highlight=r9+290x&page=33 (ab #975)

Max Takt liegt bei 947MHz.

Edit: Wurde zwar schon im Review thread zur 290X gepostet, aber HIER gehört es bis zum Launch eigentlich hin ^^

Tomahawk
2013-10-31, 11:40:40
In der neuen c't gibt es übrigens einen Test der R9 290. Als Preis werden 400 Euro genannt.

Geschwindigkeit im Uber-Modus zwischen 780 und Titan.

M4xw0lf
2013-10-31, 12:06:48
In der neuen c't gibt es übrigens einen Test der R9 290. Als Preis werden 400 Euro genannt.

Geschwindigkeit im Uber-Modus zwischen 780 und Titan.

Ja wie? Da kam die NDA-Verschiebung wohl zu spät um das Heft noch aufzuhalten? ;D

Raff
2013-10-31, 12:13:35
In der neuen c't gibt es übrigens einen Test der R9 290. Als Preis werden 400 Euro genannt.

Geschwindigkeit im Uber-Modus zwischen 780 und Titan.

Die 290 hat 'nen Uber-Modus? :|

MfG,
Raff

Duplex
2013-10-31, 12:30:33
Eine Dual Karte mit 2x Hawaii kann man jetzt auch komplett vergessen, bei 375W schlicht unmöglich.

Tomahawk
2013-10-31, 12:30:45
Steht da schwarz auf weiß ... ebenfalls mit 40%/55%.

M4xw0lf
2013-10-31, 12:32:41
Vielleicht haben sie genau das geändert mit dem neuen Treiber/BIOS von dem gemunkelt wird? :uponder:
Steht da schwarz auf weiß ... ebenfalls mit 40%/55%.
Ein Test von der 290X ist auch drin?

AnarchX
2013-10-31, 12:35:53
Eine Dual Karte mit 2x Hawaii kann man jetzt auch komplett vergessen, bei 375W schlicht unmöglich.
Muss der Takt eben etwas deutlicher gesenkt werden, wie bei NVs Big-Chip-Dual-Karten.
Oder man überlässt es den Hertellern (525W Designs).

Duplex
2013-10-31, 12:38:04
Wird nicht einfach, die 290 soll angeblich bereits 250w verbrauchen.

Und 2x 2816 Shader @750-800MHz ist dann auch nichts mehr besonderes...

StefanV
2013-10-31, 12:43:17
Eine Dual Karte mit 2x Hawaii kann man jetzt auch komplett vergessen, bei 375W schlicht unmöglich.
850MHz maximal, bei 1V. Sollte möglich sein. Hat man bei Tahiti ja auch geschafft.

Tomahawk
2013-10-31, 13:18:07
Jep, die 290 und die 290x werden parallel getestet.

deekey777
2013-10-31, 13:23:30
Die 290 hat 'nen Uber-Modus? :|

MfG,
Raff
Ich würde AMD zutrauen, dass sie an einzelne Tester R9 290 geschickt haben, die mit einem Uber-Ultra-Bios ausgestattet waren. Schließlich sollte man die Tradition, die mit der X800Pro begonnen wurde, weiter pflegen. ;D

Raff
2013-10-31, 13:25:56
Zum Launch wird sich ja zeigen, wer komische Dinge schreibt. ;)

MfG,
Raff

M4xw0lf
2013-10-31, 13:50:09
Zum Launch wird sich ja zeigen, wer komische Dinge schreibt. ;)

MfG,
Raff
Jetzt zieht er uns wieder mit seinem Geheimwissen auf, der feine Herr :tongue:

r-or
2013-10-31, 13:57:58
Zum Launch wird sich ja zeigen, wer komische Dinge schreibt. ;)

MfG,
Raff

z.B. selbstironische Kommentare bzgl. der Zeitverschwendung aufgrund AMD's unsaeglicher NDA-Politik?

Raff
2013-10-31, 14:00:26
Ja, darüber könnten diverse Tester Romane schreiben.

MfG,
Raff

Tomahawk
2013-10-31, 14:01:29
Die 290 bricht im Normal-Mode teilweise extrem ein. Das ist bei einigen Spiele der Fall, bei anderen herrscht wiederum kein Unterschied zwischen normal und über.

BF3 mit 2560x1600
290x norm 57fps
290x über 58fps
290 norm 43fps
290 über 56fps
Titan 59 fps
780 55fps

Knuddelbearli
2013-10-31, 17:11:19
scheint wohl lüfter sehr limitiert zu sein

Tomahawk
2013-10-31, 21:30:09
Die Karte wird in BF3 und Unigine Heaven auf 632 MHz gedrosselt. Die 290 in der getesteten Version scheint schlichtweg nicht mehr so laut zu sein, deswegen wird schneller gedrosselt. In Uber bringt die 290 nur 3,3 Sone, die 290X hingegen 4,9 Sone.

horn 12
2013-11-01, 08:37:02
Man hat wohl den Ueber Modus bei der R9 290 fix eingestellt und lässt somit wohl den Lüfter schneller laufen, wenn dies mit den 3.3 Sone stimmen sollte.
Somit wird diese Karte den MAX. Bosst so gut wie immer halten und mit der GTX 780 gleichziehen, wennnicht gar oftmals leicht übertreffen. (Dafür die GTX T80 Ghz Edition)
Hoffe die Karte wird dabei nicht viel lauter und bleib dennoch kühler als die R9 290X!

@Raff
So ist es doch, kannst dies nicht länger leugnen!

Raff
2013-11-01, 11:15:46
Doch. :D

MfG,
Raff

horn 12
2013-11-01, 11:42:37
Na dann sag schon :-)
Positiv überrascht von der Karte oder weniger?

Raff
2013-11-02, 00:09:24
Frag doch mal ein paar Abonnenten: http://extreme.pcgameshardware.de/pcgh/301829-pcgh-12-2013-mit-vollversion-driver-san-francisco-riesigem-test-der-radeon-r9-290-x-battlefield-4-im-technik-check-steam-os-und-mehr.html ;)

MfG,
Raff

V2.0
2013-11-02, 13:41:02
Na dann sag schon :-)
Positiv überrascht von der Karte oder weniger?

Überrascht ohne Zweifel. :biggrin: So etwas hatte die PCGH imho schon urlange nicht mehr.

Ich kann nur raten die Reviews sehr genau zu lesen und BIOS Versionen und Vorwärmzeiten zu beachten.

LSSJBroly
2013-11-02, 13:43:02
Überrascht ohne Zweifel. :biggrin: So etwas hatte die PCGH imho schon urlange nicht mehr.

Ich kann nur raten die Reviews sehr genau zu lesen und BIOS Versionen und Vorwärmzeiten zu beachten.

Ja, die 290 sieht wirklich übel aus - und das im negativen ...

AnarchX
2013-11-17, 13:26:30
Vesuvius aka Dual-Hawaii ist noch in der Diskussion: http://chinese.vr-zone.com/90794/hawaii-xt-core-the-next-amd-dual-core-graphics-card-like-hd7990-codename-is-vesuvius-11152013/

AnarchX
2013-12-27, 11:37:18
R9 260 und 255: http://www.amd.com/us/products/desktop/graphics/oem-solutions/Pages/amd-radeon-hd-r9-series.aspx#4 ? :|
... hoffentlich nur ein Fehler der Ferienvertrettung bei AMD.

Raff
2013-12-27, 11:58:39
Anscheinend wurden die Bonaire-Chips auf AMD.com "befördert": Einst R7, sind sie nun bei R9 aufgeführt, allerdings hat sich die Spec nur teilweise geändert. Bei der "R9-260" steht immer noch etwas von "up to 1,1 GHz" und "up to 896" (ALUs). Die 260X ist weg. R9-260 = R7-260X? Die R9 255 ist mit "up to 512" ALUs jedoch ein Krüppel, der in der R9-Gruppe zweifellos fehl am Platze ist ...

MfG,
Raff

fondness
2013-12-27, 12:08:13
Befördert wurde da gar nichts. Man beachte das OEM vs. Retail. Die oben aufgeführten Karte sind OEM only, im retail-Markt ändert sich nichts. AMD führt also die unterschiedlichen Bezeichnungen im OEM- im Vergleich zum Retail-Markt (HD8000-Serie) leider fort.

y33H@
2013-12-27, 12:40:53
Das ist alles umbenanntes Zeug, "neu" ist nur die R7 240 mit Oland Pro.

Nakai
2014-01-02, 01:06:09
http://beyond3d.com/showpost.php?p=1817949&postcount=2266

Der verpixelte Screenshot zeigt tatsächlich 48 CUs. Nur hat Dave Baumann kurz darauf gesagt, dass der ein R9 290X "voll" ist. Evtl können nicht alle SPs aktiviert werden(Redundanz, etc.). Das ist laut der verlinkten Seite nur ein Teaser...

reaperrr
2014-01-02, 01:22:22
http://beyond3d.com/showpost.php?p=1817949&postcount=2266

Der verpixelte Screenshot zeigt tatsächlich 48 CUs. Nur hat Dave Baumann kurz darauf gesagt, dass der ein R9 290X "voll" ist. Evtl können nicht alle SPs aktiviert werden(Redundanz, etc.). Das ist laut der verlinkten Seite nur ein Teaser...
Das ist kein Screenshot, sondern etwas aus Pitcairn und Tahiti Shots zusammengebasteltes. Die "Quelle" ist aufgrund von Berechnungen auf Grundlage der Größe der einzelnen Komponenten bei Tahiti und Pitcairn zu dem Schluss gekommen, Hawaii müsse 48 CUs haben. Hat derjenige übrigens auf guru3d auch so geschrieben, aber einige Seiten machen da eben gleich eine News draus.

Hat aber wahrscheinlich die Auswirkungen der verdoppelten Zahl an Shader Engines und ROPs sowie die höhere Zahl an ACEs nicht hoch genug angesetzt, oder Hawaii's CUs sind 1/2-Rate-DP-fähig und deshalb größer. Der "Screenshot" ist jedenfalls ein Eigenwerk zur Veranschaulichung der Berechnung, kein echter Hawaii-Dieshot.

HOT
2014-01-02, 11:07:46
Er wird auf jeden Fall teildeaktiviert sein. Man plant nicht mit so krummen Zahlen. Das 1/2 war ne Ente, der ist 1/4 wie Tahiti auch.

Skysnake
2014-01-02, 11:30:16
Ja, ich halte die krummen Zahlen auch für sehr hässlich.

Aber diesen "Beweis" halte ich für total banane....

Soll doch mal einer nen Hawaii XT zu ChipWorks geben und schlicht nachschauen :ugly:

reaperrr
2014-01-02, 13:27:13
Er wird auf jeden Fall teildeaktiviert sein. Man plant nicht mit so krummen Zahlen.
Warum haben dann z.B. der 6870-Chip (Name vergessen) und Bonaire 14 SIMD/CU (7 pro Shader-Engine) und GK110 15 SMX? :rolleyes:

Vielleicht waren gerade die CUs 41-44 mal als Redundanz für bessere Yields geplant und wurden auf der 290X nur wegen extrem guter Yields letztlich aktiviert?

Schaffe89
2014-01-02, 21:21:52
Aber das passt doch eigentlich recht perfekt ins Bilde. AMD kontert Nvidias MAxwell im Frühjahr noch mit einem Hawai @ 3072 Shadern aus und setzt sich vor eine 780 Ti.

2816 Shader Einheiten klingen AMD typisch wirklich etwas unrund.

AffenJack
2014-01-02, 21:32:12
Na klar, so wie schon seit rv770 bei jedem Amd Chip noch teile nachträglich aktiviert wurden. Wieso kommt die gleiche Geschichte eigentlich jedesmal wieder auf?

Duplex
2014-01-02, 22:03:06
Da wird garnichts mehr aktiviert, lohnt nicht!
Ich erwarte zwischen Herbst & Winter 2014 ein 4096 Shader Chip mit 64 Rops & 512 Bit SI in 20nm.

boxleitnerb
2014-01-02, 22:24:33
Aber das passt doch eigentlich recht perfekt ins Bilde. AMD kontert Nvidias MAxwell im Frühjahr noch mit einem Hawai @ 3072 Shadern aus und setzt sich vor eine 780 Ti.

2816 Shader Einheiten klingen AMD typisch wirklich etwas unrund.

Nein es passt nicht, höchstens in Tagträumereien. Zudem wird der kommende Maxwell sich nicht vor die 780 Ti schieben, sondern ein ganz anderes Segment besetzen.

Botcruscher
2014-01-02, 23:24:23
Na klar, so wie schon seit rv770 bei jedem Amd Chip noch teile nachträglich aktiviert wurden. Wieso kommt die gleiche Geschichte eigentlich jedesmal wieder auf?

Ich warte ja eher auf die zwei verbunden Chips auf einem Träger. :D

Ailuros
2014-01-03, 08:07:34
Na klar, so wie schon seit rv770 bei jedem Amd Chip noch teile nachträglich aktiviert wurden. Wieso kommt die gleiche Geschichte eigentlich jedesmal wieder auf?

Es koennte auch noch weiter zurueck gehen, aber koennte auch sein dass ich mich irre. Wieso? Tradition! Die clusters im Ueberschuss fuer Radeon chips sind so etwas wie Dirndl im Schwarzwald ;D

M4xw0lf
2014-01-03, 09:04:42
Es koennte auch noch weiter zurueck gehen, aber koennte auch sein dass ich mich irre. Wieso? Tradition! Die clusters im Ueberschuss fuer Radeon chips sind so etwas wie Dirndl im Schwarzwald ;D
Aber gibt es sie oder gibt es sie nicht, das ist die Frage. ^^

Gipsel
2014-01-03, 11:41:45
Da gibt es nichts. Oder wie Dave Baumann bereits mehrfach unmißverständlich sagte:
R9 290X is a full chip.Punkt. Aus.

M4xw0lf
2014-01-03, 13:16:34
Da gibt es nichts. Oder wie Dave Baumann bereits mehrfach unmißverständlich sagte:
Punkt. Aus.
Seit wann glauben wir denn alles, was die Unternehmen sagen? :uponder: :wink:

robbitop
2014-01-03, 13:19:10
Als wenn Dave je BS erzählt - geschweige denn lügt. :rolleyes:

Nakai
2014-01-03, 14:06:10
Wenn man als Spokesman eines Unternehmens etwas sagt, dann hat das seinen Grund.;)

robbitop
2014-01-03, 14:33:12
Wenn Public Relations etwas erzählt, bleiben sie vaage. Bewußte, direkte Lügen eher weniger. Wenn Baumann es so sagt, ist es so. Jeder der Wavey kennt, weiß das.

M4xw0lf
2014-01-03, 15:32:13
Als wenn Dave je BS erzählt - geschweige denn lügt. :rolleyes:
Ich halte sowieso nix von dem Gerücht der 3072 SPs, also speziell von der aktuell im Umlauf befindlichen Milchmädchenrechnung bei guru3d. Wollte nur nochmal hören was die Experten hier so darüber denken :)

Dural
2014-01-03, 16:08:08
Seit einer gefülten ewigkeit hat jeder ati chip mehr einheiten als aktiv sind... was daraus wurde wissen wir ja :freak:

Komischerweise ist es bei nv genau anders, da weis man das die chips mehr haben aber alle kaputt sind und es nv nie hinkrigen wird einen vollausbau zu liefern. :freak: aber auch da wissen wir das es bis jetzt immer einen vollausbau gab...

Ailuros
2014-01-03, 16:44:19
Seit wann glauben wir denn alles, was die Unternehmen sagen? :uponder: :wink:

Ich lass Wavey ein Dirndl oeffentlich tragen und photografier ihn falls es nicht stimmen sollte (wir brauchen dann aber schon ein XXXL Dirndl) :freak:;D

http://www.schwarzwaelder-bote.de/media.facebook.4d916995-80e0-4896-905b-030d568c28f8.normalized.jpg

AnarchX
2014-01-27, 22:37:29
Der Toshiba Mantle Treiber ist wohl für eine weitere VI-GPU:
AMD6900.1 = "AMD Radeon Series"
AMD6900.2 = "AMD Radeon Series"
AMD6900.3 = "AMD Radeon Series"
AMD6900.4 = "AMD Radeon Series"
AMD6900.5 = "AMD Radeon Series"
AMD6900.6 = "AMD Radeon Series"
AMD6900.7 = "AMD Radeon Series"
AMD6900.8 = "AMD Radeon Series"
AMD6900.9 = "AMD Radeon Series"
AMD6900.10 = "AMD Radeon Series"
AMD6900.11 = "AMD Radeon Series"
AMD6900.12 = "AMD Radeon Series"
AMD6900.13 = "AMD Radeon Series"
AMD6900.14 = "AMD Radeon Series"
http://forums.guru3d.com/showpost.php?p=4751651&postcount=3

AMD6920.1 = "TONGA (6920)"
http://forums.guru3d.com/showpost.php?p=4618625&postcount=1

Ailuros
2014-01-28, 10:13:01
Ich dachte es gibt nichts von Mantle in dem Toshiba Treiber?

AnarchX
2014-02-11, 16:07:00
Jetzt bekommen auch noch HD 7950 und HD 7850 einen R200 Rebrand - R9 280 / R7 265:
http://chinese.vr-zone.com/101020/amd-radeon-r7-265-pitcairn-pro-ready-to-fight-back-geforce-gtx-750-ti-and-make-radeon-280-stanby-02112014/?utm_source=rss&utm_medium=rss&utm_campaign=amd-radeon-r7-265-pitcairn-pro-ready-to-fight-back-geforce-gtx-750-ti-and-make-radeon-280-stanby-02112014
Da muss man die Hoffnung auf neue GPUs von AMD im H1 14 wohl eher einschränken...

Für Juni soll der Dual Hawaii laut VR-Zone bereitstehen.

mczak
2014-02-11, 18:02:22
Jetzt bekommen auch noch HD 7950 und HD 7850 einen R200 Rebrand - R9 280 / R7 265:
http://chinese.vr-zone.com/101020/amd-radeon-r7-265-pitcairn-pro-ready-to-fight-back-geforce-gtx-750-ti-and-make-radeon-280-stanby-02112014/?utm_source=rss&utm_medium=rss&utm_campaign=amd-radeon-r7-265-pitcairn-pro-ready-to-fight-back-geforce-gtx-750-ti-and-make-radeon-280-stanby-02112014
Da muss man die Hoffnung auf neue GPUs von AMD im H1 14 wohl eher einschränken...

War doch klar dass die kommen denn ansonsten müsste man die 7850/7950 ja ewig weiterverkaufen (gab ja bisher keine teildeaktivierten R9 Karten mit diesen Chips).

deekey777
2014-02-11, 18:02:41
"R200 Rebrand"
Irgendwie musste ich gleich an (meine) selige Radeon 9100 denken, die eben einen R200 hatte (und eigentlich eine Radeon 8500 war).

fondness
2014-03-13, 11:02:08
Am 26. März kommen wohl die Hawaii-FirePRO-Karten:

SUNNYVALE, Calif. — Mar. 12, 2014 — AMD (NYSE: AMD) today announced that Matt Skynner, corporate vice president and general manager, Graphics Business Unit, AMD, will host a special preview news conference in Sunnyvale, Calif. on Mar. 26 at 9:15 a.m. PDT, to showcase powerful new professional graphics innovations from AMD.

Nakai
2014-03-13, 14:46:10
Ich geh mal wieder auf die DP-Rate ein. Ich will 1:2.
;D

fondness
2014-03-13, 21:32:10
Der Vesuv steht wohl kurz vor der Tür - virales Marketing at its best:

http://s2.postimg.org/a2ywsgb61/2_Better_Than1_2.jpg (http://postimage.org/)

http://s4.postimg.org/5tdqu03il/2_Better_Than1_1.jpg (http://postimage.org/)

http://www.brightsideofnews.com/news/2014/3/13/amd-teases-new-dual-gpu-card-with-2betterthan1-viral-ad.aspx

http://s12.postimg.org/gfmxesa6l/twobetter_850x478.jpg (http://postimage.org/)

http://www.pcper.com/news/Graphics-Cards/AMD-Teasing-Dual-GPU-Graphics-Card-Punks-Me-Same-Time

http://s11.postimg.org/vi2f4qs3n/double.jpg (http://postimage.org/)


http://s3.postimg.org/747y0w1n7/hashtag.jpg (http://postimage.org/)

http://techreport.com/news/26159/somehow-this-translates-into-a-dual-hawaii-card-right

fondness
2014-03-14, 18:48:41
Mit VR-Zone und Bouweenpc berichten zwei Webseiten unabhängig voneinander, dass die erwartete Dual-GPU-Grafikkarte als „Radeon R9 295 x2“ respektive „Radeon R9 295X2“ erscheinen wird. Von einem GPU-Takt von 1 GHz für die „Hawaii“-GPUs, einem Hybrid-Kühler ähnlich dem der Asus Ares II sowie zwei 8-Pin-Stromanschlüssen ist die Rede. Die Markteinführung soll voraussichtlich im April erfolgen, heißt es weiter. Eine Bestätigung der Angaben gibt es nicht.

http://www.computerbase.de/news/2014-03/amd-radeon-r9-295-x2-kuendigt-sich-an/

Thunder99
2014-03-16, 12:47:56
Ein Schmelm der böses denkt :ugly:

Im ersten Bild trägt/tragen die Gehörschutz :ulol:

Blediator16
2014-03-16, 13:00:57
Bei welcher Dualkarte brauchte man das nicht.

Mancko
2014-03-16, 13:20:25
Bei welcher Dualkarte brauchte man das nicht.

GTX 690

AnarchX
2014-03-16, 13:22:25
Sind wohl eher Kopfhörer.
Aber 375W TDP und 2x up to 1GHz klingen schon interessant. Vielleicht hat AMD auch noch einen GK110B-ähnlichen Respin vorgenommen?

M4xw0lf
2014-03-16, 13:26:20
Oder "up to".

fondness
2014-03-17, 12:57:09
Bestätigung:

http://s30.postimg.org/dr2bhy0b5/AMD_Hawaii_Fire_PRO_765x620.png (http://postimage.org/)

Da hat sich wohl jemand vertan, inzwischen heißt der Link nur noch "Professional Graphics Showcase".

Es gibt im übrigen sogar einen Livestream, was relativ ungewöhnlich ist. Das letzte mal war dies beim Hawaii-Launch im September der Fall, wo man doch einige interessante Dinge vorzustellen hatte^^
Womöglich gibt es also die eine oder andere Überraschung, Termin ist Wednesday, March 26, 2014 9:15 a.m. PT

http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-EventDetails&EventId=5117415

Nakai
2014-03-17, 22:51:55
http://www.computerbase.de/news/2014-03/amds-firepro-grafikkarte-mit-hawaii-gpu-indirekt-bestaetigt/

Ich bin gespannt.

W9100 könnte eine Hawaii-basierte Lösung mit 384Bit SI sein.

€: Ein voller Hawaii wäre auch nett zu sehen, bzw. erwarte ich.

Schaffe89
2014-03-18, 05:09:58
Daraus könnte man auch deuten dass bald eine schnellere Single GPU Karte kommt.
Für mich sieht es jedenfalls so aus, als ob AMD bei der geringen TDP nochmal nen Respin gemacht hat.
Dann würde auch einer hypotetischen R9 295x nichts im Wege stehen.

Vielleicht ja mit 3072 Shader und 1050 mhz Takt :D

HOT
2014-03-18, 14:00:21
nicht R9 295X sondern R9 390X. Die R9 390 bekommt dann das 384Bit Interface und die Karten kommen sicherlich erheblich später als die professionellen Pendants. Solange lässt sich die neue Rev. ja auch auf den 290er Karten einsetzen.

R9 390X = 3072 Shader bei >1GHz mit 8GB @512Bit (Hawaii Rev.B 28nm HPM)
R9 390 = 2688 Shader bei <1GHz mit 6GB @384Bit (Hawaii Rev.B 28nm HPM)
R9 380X = 1920 Shader bei >1,2GHz mit 4GB @256Bit (Bermuda Rev.A 20 28nm HPM/SHP)
R9 380 = 1440 Shader bei >1GHz mit 2GB@256Bit (Bermuda Rev.A 20 28nm HPM/SHP)

wäre ein durchaus denkbares Scenario für Pirate Islands mit Hawaii Rev.B an der Spitze.

fondness
2014-03-19, 23:38:11
AMD Teases Dual-GPU Video Card Once Again
http://www.anandtech.com/show/7881/amd-teases-dualgpu-video-card-once-more

fondness
2014-03-28, 15:50:11
AMD Radeon R9 295 X2 kommt am 8. April: Zweimal „Hawaii“ und 5.120 ALUs unter Wasser
http://www.computerbase.de/2014-03/amd-radeon-r9-295-x2-kommt-am-8.-april/

Nightspider
2014-03-28, 15:54:51
Das Teil wäre imo deutlich interessanter wenn es mit richtigem Wasserkühler kommen würde, für Selbstbau-Wasserkühlungen.

Raff
2014-03-28, 16:00:57
2x R9 290 nur? :|

MfG,
Raff

horn 12
2014-03-28, 17:32:40
Sind wohl selekierte Chips mit recht niedriger Spannung und trotzdem hohem GPU-Takt
Rechne zwischen 1,0 und 1,050 Volt, wenngar nicht darunter für die beiden R9 290
Dafür 1 Ghz Basistakt, falls man diesen noch so nennen darf :-)

Blediator16
2014-03-28, 18:18:55
2x R9 290 nur? :|

MfG,
Raff

Sind doch von der Leistung her kaum voneinander entfernt.

N0Thing
2014-03-28, 18:53:02
Ist trotzdem seltsam, ein voller Hawai mit niedrigerem Takt sollte immer effizienter sein.

fondness
2014-03-30, 22:06:08
Radeon R9 295 is a 500W card
http://www.fudzilla.com/home/item/34347-radeon-r9-295-is-a-500w-card

Unicous
2014-03-30, 22:11:35
By the Might of might, it might be true.:rolleyes:


FUDOFUAD at its best.

M4xw0lf
2014-03-30, 22:18:03
Wie soll die TDP denn schon ausfallen? Viel weniger als 500W wird das Ding im normalen Gebrauch nicht schlucken.

fondness
2014-03-30, 22:25:26
Stimmt schon bei 2x1Ghz Takt sollte man nicht viel weniger erwarten. Andererseits IMO immernoch besser als den Takt soweit zu senken bis man "nur" noch 375W verbraucht und dafür dann wenn AFR nicht funktioniert abgeschlagen zurück liegt.

Unicous
2014-03-30, 23:54:02
Oftmals ist aber Fuad seine eigene Quelle (jedenfalls ist das meine Vermutung). Und die Sachen die er uns verklickert entspringen dann seiner eigenen Gedankenwelt. Er hat es einfach nicht drauf, wichtige Informationen mit Know How zu verbinden. Er hat sicherlich seine Quellen (wobei ich mich manchmal frage ob er nicht einfach nur aus chinesischen Foren abschreibt), aber die Aussagen dann zu einem kohärenten Etwas zu verknüpfen, dazu fehlt ihm leider eine ganze Menge.

Ich denke es ist mal wieder Folgendes passiert: Fuad hat Etwas über Wasserkühlung aufgeschnappt, das Gerücht geistert ja herum. Dann hat er 375 Watt plus LQS gerechnet, ein bißchen Sicherheitsmarge für die Takterhöhung und schon ist er bei 500 Watt gelandet.

Da ist für meinen Geschmack viel zu viel might und zu viel "no source told me" drin, als das ich das für voll nehmen würde.

Knuddelbearli
2014-03-31, 05:29:36
Stimmt schon bei 2x1Ghz Takt sollte man nicht viel weniger erwarten. Andererseits IMO immernoch besser als den Takt soweit zu senken bis man "nur" noch 375W verbraucht und dafür dann wenn AFR nicht funktioniert abgeschlagen zurück liegt.

Das muss doch nicht sein

einfach up to 1,2 GHz und TDP bei 275W. Wenn AFR nicht funktioniert ist nur eine GPU ausgelastet und taktet mit 1,2 GHz. Wenn CF funktioniert takten beide mit 850-900 MHz.
Da ist Boost ausnahmsweise mal von Vorteil.

Knuddelbearli
2014-03-31, 05:30:29
mehrfach Post dank Forumlag

Dawn on Titan
2014-03-31, 06:56:39
Wenn juckt die TDP. Das Ding ist so geil fürs Mining da kauft man sofort 3 und ab gehts.

Knuddelbearli
2014-03-31, 06:59:17
klar es gibt ja nichts außer Mining:rolleyes:
Vor allem in 3-4 Monaten wenn die ersten FPGAS für LC rauskommen.

AUßer natürlich man wohnt noch zuhause und Papi zahlt die Stromkosten. Dann muss sich aber imemr noch die Hardware amortiesieren. und das tut sie leichter wenns auch ne gei8le Spieledirne ist ^^

Loeschzwerg
2014-03-31, 07:13:58
Also hier in DE kannst das Mining doch vergessen, außer man sitzt am Fluss inkl. Wasserkraftwerk :D

Oftmals ist aber Fuad seine eigene Quelle (jedenfalls ist das meine Vermutung). Und die Sachen die er uns verklickert entspringen dann seiner eigenen Gedankenwelt. Er hat es einfach nicht drauf, wichtige Informationen mit Know How zu verbinden. Er hat sicherlich seine Quellen (wobei ich mich manchmal frage ob er nicht einfach nur aus chinesischen Foren abschreibt), aber die Aussagen dann zu einem kohärenten Etwas zu verknüpfen, dazu fehlt ihm leider eine ganze Menge.

Ich denke es ist mal wieder Folgendes passiert: Fuad hat Etwas über Wasserkühlung aufgeschnappt, das Gerücht geistert ja herum. Dann hat er 375 Watt plus LQS gerechnet, ein bißchen Sicherheitsmarge für die Takterhöhung und schon ist er bei 500 Watt gelandet.

Da ist für meinen Geschmack viel zu viel might und zu viel "no source told me" drin, als das ich das für voll nehmen würde.

Sehe hier nur einen geringfügigen Unterschied zu Charlie, einfach mit Vorsicht geniesen oder ignorieren.

500Watt klingen aber nicht unrealistisch, gerade wenn man bedenkt, dass AMD ja auf den Trichter mit dem Bios Switch gekommen ist. Mir fällt hier ein Stichwort ein "AUSUM" ;) AMD hatte die 500Watt TDP damals unter gewissen Lastszenarien schon angegeben.

Damit wären wir bei 375Watt im normalen Zustand und für extreme Nutzung 450Watt (bzw. 500Watt in Ausnahmefällen).

horn 12
2014-03-31, 07:46:41
Schauen ob es zum R9 295X2 Launch auch endlich den WHQL Treiber gibt,- und jene Karte sollte das Maximum darstellen bis die Ablöse der R9 290X kommt, womöglich schon im Frühherbst.
Es wird spannend bleiben!

fondness
2014-03-31, 09:26:41
AUßer natürlich man wohnt noch zuhause und Papi zahlt die Stromkosten. Dann muss sich aber imemr noch die Hardware amortiesieren. und das tut sie leichter wenns auch ne gei8le Spieledirne ist ^^

Die Stromkosten waren schon immer ein schlechter Argument. Im idle wird das Ding nicht mehr benötigen als ein einzelner Hawaii, da der zweite bei üblich AMD abgedreht wird. Die verhältnismäßig kurze Zeit unter Volllast spielt es kaum eine Rolle ob man jetzt 100W mehr oder weniger verbraucht. Bis man da auch nur annähernd wirklich etwas gespart hat ist die Karte längst veraltet. Entscheidend wird sein ob man das Ding leise kühlen kann.

Dawn on Titan
2014-03-31, 09:31:34
Leise ist egal, wenn man zockt nimmt man sowieso Kopfhörer. Hauptsache radikal schnell.

Knuddelbearli
2014-03-31, 09:35:23
Die Stromkosten waren schon immer ein schlechter Argument. Im idle wird das Ding nicht mehr benötigen als ein einzelner Hawaii, da der zweite bei üblich AMD abgedreht wird. Die verhältnismäßig kurze Zeit unter Volllast spielt es kaum eine Rolle ob man jetzt 100W mehr oder weniger verbraucht. Bis man da auch nur annähernd wirklich etwas gespart hat ist die Karte längst veraltet. Entscheidend wird sein ob man das Ding leise kühlen kann.

dir ist schon klar das ich mich damit auf den mining Post bezog? Und da besonders im Bezug auf Stromverbrauch gegenüber den bald erscheinenden FPGAs ...
Und da würde das Teil dann auch 24/7 rennen

Schaffe89
2014-03-31, 09:39:57
Die Karte wirkt auf jeden Fall recht unsexy.
375 Watt TDp wird die Karte nie haben. Eine 290@ 1ghz verbrät ihre 250 Watt.
Da warte ich dann doch lieber auf Maxwell oder Pirate Islands.

OBrian
2014-03-31, 09:41:03
naja, es ging ja bei der zitierte Aussage ums Mining, und da ist es wohl keine "verhältnismäßig kurze Zeit", da wird die Karte rund um die Uhr auf Vollast laufen.

Mining ist auch gar nicht so unerheblich als Markt, offensichtlich kaufen eine Menge Leute deswegen die fetten Karten. Möglicherweise nicht so drastisch in Deutschland wegen der relativ hohen Stromkosten im Weltvergleich. Es sei denn, man kauft richtig viele und kann sich dann als "energieintensiver Betrieb" eintragen lassen...

Aber trotzdem bleibt dann immer noch die Frage, ob so eine fette Dualkarte kosteneffektiv ist. Die Chips sind ja wohl etwas niedriger getaktet als die Einzelkarten. Klar bekäme man mehr in ein Board (es gibt ja Bretter mit einem halben dutzend PCIe, und man kann ja 1-Slot-Kühler nutzen, wenn man auf Wasser setzt), aber das werden die Leute sich schon genau ausrechnen.

Loeschzwerg
2014-03-31, 10:15:34
Die Karte wirkt auf jeden Fall recht unsexy.
375 Watt TDp wird die Karte nie haben. Eine 290@ 1ghz verbrät ihre 250 Watt.
Da warte ich dann doch lieber auf Maxwell oder Pirate Islands.

Die Aussage ist doch mit PT2.0 wie immer nur "up to 1GHz" :D Da ist das dann schon drin bei 375Watt :freak:

Naja, aber ich gehe definitiv von zwei Bios Modi aus, mit unterschiedlichen PT Settings.

Knuddelbearli
2014-03-31, 10:20:03
also meine Idee finde ich immer noch am besten. damit holt man sich auch einiges in Benchmarks raus aber ebenso in Echt. Gibt ja in fast jedem Review immer 1-2 Spiele die rumzicken mit SLI / CF

StefanV
2014-03-31, 11:14:27
Leise ist egal, wenn man zockt nimmt man sowieso Kopfhörer. Hauptsache radikal schnell.
Du vielleicht, ich nicht. Ich spiele z.T. auch mal ohne Ton (eben weils nervt). Also nicht immer alle über einen Kamm scheren ;)
Gibt auch einige, denen die Lautstärke unter Last wichtig ist.

Gut, da kann man dann aber auch 'nen bisserl an Takt und Spannung drehen, wenns die Karte erlaubt...

PS: bei meiner Gigabyte 7970 gehen unter 700MHz bei 0,95V...

Dawn on Titan
2014-03-31, 11:45:40
Man kauft doch keine Dual-GPU-High-End-Karte wenn es leise sein soll. Aber natürlich wird man auch diese undervolten können und leise bekommen, aber primär muss Leistung das Ziel sein, Lautstärke kann der Anwender selber einstellen.

Raff
2014-03-31, 11:49:38
Schauen ob es zum R9 295X2 Launch auch endlich den WHQL Treiber gibt [...]

AMD hat aber eine Menge zu tun, bisher waren alle 14er-Betas ziemlich buggy. Damit ist jetzt nicht Mantle gemeint, sondern das kaputte Drumherum (Lüftersteuerung spinnt, Takt wird nicht abgesenkt). Der 13.12 WHQL ist im Vergleich bombenstabil und ausgereift.

MfG,
Raff

Unicous
2014-03-31, 13:15:50
Sehe hier nur einen geringfügigen Unterschied zu Charlie, einfach mit Vorsicht geniesen oder ignorieren.

500Watt klingen aber nicht unrealistisch, gerade wenn man bedenkt, dass AMD ja auf den Trichter mit dem Bios Switch gekommen ist. Mir fällt hier ein Stichwort ein "AUSUM" ;) AMD hatte die 500Watt TDP damals unter gewissen Lastszenarien schon angegeben.

Damit wären wir bei 375Watt im normalen Zustand und für extreme Nutzung 450Watt (bzw. 500Watt in Ausnahmefällen).

Es gibt einen großen Unterschied zwischen Charlie und Fuad. Charlie hat (die deutlich besseren) Quellen und hat auch deutlich mehr Ahnung. Wenn es fuckups in seinen Artikeln gibt, dann sind sie meist nicht technischer Natur sondern eher seiner eigenen "Interpretation" geschuldet. Und er korrigiert sich transparent wenn er Fehler macht. Bei FUDzilla verschwindet der Artikel dann einfach mal (oder bleibt stehen obwohl alle Welt weiß dass es Blödsinn ist).
Fuad scheint ein paar äußerst unzuverlässige Quellen zu haben, denn vieles ist einfach nur Gossip und olle Nick Farrell ist ja eh nur ne Gossip Queen.


Zu Vesuvius:


http://techreport.com/r.x/2014_3_30_AMD_shows_teaser_pic_of_likely_dualHawaii_Radeon/2betterthan1-il.png
http://techreport.com/news/26248/amd-shows-teaser-pic-of-likely-dual-hawaii-radeon

Was ein lamer Teaser, aber vllt. sieht sie ja doch etwas schicker aus als die S.I./V.I. Plastikbomber, scheint ein fetter Lüfter mittig zu sein. Und stylische Nieten rechts. Metallgehäuse?

Loeschzwerg
2014-03-31, 17:22:03
Es gibt einen großen Unterschied zwischen Charlie und Fuad. Charlie hat (die deutlich besseren) Quellen und hat auch deutlich mehr Ahnung. Wenn es fuckups in seinen Artikeln gibt, dann sind sie meist nicht technischer Natur sondern eher seiner eigenen "Interpretation" geschuldet. Und er korrigiert sich transparent wenn er Fehler macht. Bei FUDzilla verschwindet der Artikel dann einfach mal (oder bleibt stehen obwohl alle Welt weiß dass es Blödsinn ist).
Fuad scheint ein paar äußerst unzuverlässige Quellen zu haben, denn vieles ist einfach nur Gossip und olle Nick Farrell ist ja eh nur ne Gossip Queen.


Wäre mir neu, aber ich zahle auch nicht für seine Paywall. Charlie dichtete mir zu viele reißerische Geschichten (mit vielleicht minimalen Wahrheitsgrad) zusammen um eben genau diese (Paywall) zu rechtfertigen, da sind mir dann persönlich die, sofort erkennbaren, Bullshit-Beiträge von Fuad fast lieber ;)
Aber ich hab ja schon nix gegen deinen lieben Charlie gesagt :tongue:

Ein fetter Lüfter ist sicher möglich, dann aber nur als Hybrid-Variante oder mit ordentlichen beschnittenen/gedrosselten Hawaii Chip. Option Nr. 3 wäre eine extrem laute Kühllösung wie bei der HD 6990, was AMD sicher nicht noch einmal bringen will. Etwas mehr Stil könnte bei einem Premium Produkt sicher nicht schaden und mit dem hohen Preis der Titan Z hätte man Luft nach oben.

Unicous
2014-03-31, 18:00:51
Wäre mir neu, aber ich zahle auch nicht für seine Paywall. Charlie dichtete mir zu viele reißerische Geschichten (mit vielleicht minimalen Wahrheitsgrad) zusammen um eben genau diese (Paywall) zu rechtfertigen, da sind mir dann persönlich die, sofort erkennbaren, Bullshit-Beiträge von Fuad fast lieber ;)
Aber ich hab ja schon nix gegen deinen lieben Charlie gesagt :tongue:

Ein fetter Lüfter ist sicher möglich, dann aber nur als Hybrid-Variante oder mit ordentlichen beschnittenen/gedrosselten Hawaii Chip. Option Nr. 3 wäre eine extrem laute Kühllösung wie bei der HD 6990, was AMD sicher nicht noch einmal bringen will. Etwas mehr Stil könnte bei einem Premium Produkt sicher nicht schaden und mit dem hohen Preis der Titan Z hätte man Luft nach oben.

Es geht nicht um "meinen lieben Charlie". Es geht darum, dass er einer der transparentesten Gerüchteschreiber ist den ich kenne. Sein Sprachstil, das ewige Rumgelabere sind auch nicht mein Ding, aber seine Quellen sind gut. Ich wiederhole mich da auch immer wieder gerne, denn ich kann dieses "Ach Charlie Demerjian, was weiß der schon" nicht mehr hören. Seine "halbgenaue" Trefferrate ist so Typen wie Fuad und Theo Valich meilenweit vorraus, weil er es auch versteht das in einen Zusammenhang zu bringen und nicht nur drauf losplappert. Das Fazit, das er dann manchmal zieht mag banal und weit hergeholt sein. Aber darum geht es doch gar nicht. Es geht nicht um seine Meinung. Er hat einfach Quellen die zuverlässig sind. Punkt. Fuad hat die nicht. Ich will nicht wissen wie oft Fuad und Konsorten von Leuten wie dem OBR-Idioten verarscht wurden, weil sie vorher mit halbwegs akkuraten Gerüchten angefüttert wurde. Das ist Charlie bis jetzt noch nicht passiert, bzw. hat die Öffentlichkeit davon nichts mitbekommen.

Generell kann man doch sagen, dass die Gerüchteküche im Moment sehr, sehr still geworden ist. Da sickert kaum noch etwas durch und wenn dann nur eher unwichtige Details.


Zu Vesuvius.

Es wird ja gemunkelt, dass AMD sich ein Beispiel an den Asus Ares Modellen nimmt. Lüfter und Wasserkühlung zusammen als bundle.

Und bis jetzt wird ja von zwei Pro (nicht XT) ausgegangen. Über den Takt weiß man ja nichts, ich kann mir das mit den 1GHz nicht so wirklich vorstellen, AMD hats ja in letzter Zeit mit ihren GHz Modellen. Aber daran sieht man, die großen Löcher wurden bei AMD gestopft. Noch nicht mal den Namen weiß man sicher. 295? Oder 295X2? 290X2?

M4xw0lf
2014-03-31, 20:43:52
Ich glaub noch nicht an die 2 Hawaii Pro - dazu waren die Leute, auf deren Mist das gewachsen ist, etwas zu verwirrt. Denn es hieß da ja: 2x Hawaii im Vollausbau, also 2560 SPs. Eines von beiden ist eindeutig unzutreffend ^^

fondness
2014-03-31, 21:01:09
Die Karte wird von AMD in einem 5kg schweren Koffer ausgeliefert:

http://s29.postimg.org/f0vq5mg5z/AMD_Radeon_R9_295_X2_briefcase.jpg (http://postimage.org/)

Außerdem: finaler Name ist AMD Radeon R9 295X2, die Karte hat insgesamt 8GB VRAM, die Karte hat mindestens 5 Display Outputs, NDA fällt am 8. April:
http://videocardz.com/50094/new-facts-amd-radeon-r9-295x2

AnarchX
2014-04-01, 09:54:23
http://i.imgur.com/GqN16KS.jpg
http://i.imgur.com/ayrhswo.jpg

http://www.chiphell.com/thread-1002731-1-1.html

2x 8 Pin -> also wohl eher ~400W maximal mit OC. Bei der PCB-Länge ist der Speicher vielleicht nur einseitig, was die Möglichkeiten für eine 2x 16GiB Version lassen würde. :D

fondness
2014-04-01, 10:50:35
Damit sind eigentlich nur 375W möglich genau wie bei der Titan Z.

AnarchX
2014-04-01, 10:55:39
Eventuell geht man mit Uber/Ausum über die 400W: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden-814660/2/

Aber im Auslieferungszustand sind es wahrscheinlich wirklich nur 375W. Da wird die Wasserkühlung oder einen neue Chip-Revision entscheidend sein um aus 2x187W genügend Leistung zu holen.

M4xw0lf
2014-04-01, 11:00:23
Huh, der Radi ist aber klein... leise wird das trotz Wakü nicht. ;)
Und kann es sein, dass das Ding ein gutes Stück über 30cm lang ist?

Rente
2014-04-01, 11:04:34
Das dürfte ein 140mm-Radi mit 45mm Stärke sein, damit kühlt man halbwegs leise 140-150 Watt weg, aber keine 300 bis 375 Watt, das wird so sau laut.

Für eine "normale" 290X nimmt man im Wakü-Bereich schon mindestens einen 240er, eher 280er oder 180/200er-Radi, damit ist es dann leise...

Loeschzwerg
2014-04-01, 11:25:07
Eventuell geht man mit Uber/Ausum über die 400W: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden-814660/2/

Aber im Auslieferungszustand sind es wahrscheinlich wirklich nur 375W. Da wird die Wasserkühlung oder einen neue Chip-Revision entscheidend sein um aus 2x187W genügend Leistung zu holen.

Jup, habe ich ja letzte Seite schon geschrieben bezüglich AUSUM :) Man sieht auch, wenn man das zweite Bild von Chiphell genau anguckt, einen Bios Switch, da kommt 100%ig ein UBER Mode.

Schon die HD 6990 hat teilweise 500Watt geknackt. Um Netzteil und Stecker mache ich mir da wenig Gedanken, das PCB muss hier stimmen und das sollte AMD auch hinbekommen.

dildo4u
2014-04-01, 11:36:39
Das dürfte ein 140mm-Radi mit 45mm Stärke sein, damit kühlt man halbwegs leise 140-150 Watt weg, aber keine 300 bis 375 Watt, das wird so sau laut.

Für eine "normale" 290X nimmt man im Wakü-Bereich schon mindestens einen 240er, eher 280er oder 180/200er-Radi, damit ist es dann leise...
Sie mussten halt drauf achten das der Radi überall passt ist der Nachteil einer solchen Lösung,wobei sie ja wussten das es nicht reicht daher der Lüfter auf der Karte.

StefanV
2014-04-01, 11:41:26
Erst mal abwarten und Tee rauchen, wie die Kühllösung denn letztendlich wirklich ausschaut.

Ev. ists ja eine Hybridlösung, bei der der WaKü nur unterstützt und auf dem PCB selbst auch richtige Kühler drauf sind, nicht nur mit Wasser gekühltz wird.

Genau werden wirs aber erst wissen, wenn man die Karte zerlegt...

Loeschzwerg
2014-04-01, 11:45:25
Kommt halt jetzt alles darauf an was man über die weiteren Kühlelemente noch wegbekommt. Da kann noch einiges gehen.

Edit: @Stefan: Ich denke davon können wir stark ausgehen, würde sonst recht wenig Sinn ergeben bei einem Prestige Objekt :)

dildo4u
2014-04-01, 11:49:45
Erst mal abwarten und Tee rauchen, wie die Kühllösung denn letztendlich wirklich ausschaut.

Ev. ists ja eine Hybridlösung, bei der der WaKü nur unterstützt und auf dem PCB selbst auch richtige Kühler drauf sind, nicht nur mit Wasser gekühltz wird.

Genau werden wirs aber erst wissen, wenn man die Karte zerlegt...
Es wird anders herrum sein Chip ist Wakü Spannungswandler/Speicher über den Lüfter.

StefanV
2014-04-01, 11:52:10
Es wird anders herrum sein Chip ist Wakü Spannungswandler/Speicher über den Lüfter.
Ahjo und das weißt du woher? Hast du die Karte schon mal zerlegt? Hast du Fotos von einer zerlegten gesehen?


Vorher sind das alles nur Vermutungen und da sollten wir noch die Woche warten, bis die Karte vorgestellt wurde und nicht anhand irgendwelcher Vermutungen das ganze beurteilen!!

dildo4u
2014-04-01, 11:57:54
Weil es nur so Sinn macht und genau sowas schon öfter verbaut wird,es sei denn AMD will wieder ein Abfall Kühler bauen wäre ja Tradition.

Loeschzwerg
2014-04-01, 12:02:37
Es wird anders herrum sein Chip ist Wakü Spannungswandler/Speicher über den Lüfter.

Also das ARES II Konzept... leise war das leider nicht und ein UBER Mode wir damit auch nicht unbedingt wahrscheinlicher.

dildo4u
2014-04-01, 12:07:18
Also das ARES II Konzept... leise war das leider nicht und ein UBER Mode wir damit auch nicht unbedingt wahrscheinlicher.
Leise ginge mit dem Konzept selber aber dazu muss der Radi größer sein was wie gesagt nich geht da man eine hohe Gehäuse Kompatibilität erreichen will.

Loeschzwerg
2014-04-01, 12:10:53
Ich hoffe die PCB plate gibt noch ein bisschen mehr her als nur eine flache Alu Schicht, evtl. in so eine Richtung:
http://wccftech.com/images/news/Swiftech-Hybrid-Solutions-For-GF100/118a.jpg

Das wäre in meine Augen zumindest richtiges "Hybrid".

Unicous
2014-04-01, 12:28:26
Keiner regt sich darüber auf, dass das Teil aussieht wie die Billigerversion einer 670/680? Also ich bin mal wieder enttäuscht über das Designteam. Sieht aus wie im Hobbykeller zusammengebastelt.

Wenigstens sind die "TDP-Angaben" von Fuad wohl nur FUD.

M4xw0lf
2014-04-01, 12:32:00
Keiner regt sich darüber auf, dass das Teil aussieht wie die Billigerversion einer 670/680? Also ich bin mal wieder enttäuscht über das Designteam. Sieht aus wie im Hobbykeller zusammengebastelt.

Vielmehr doch 690/Titan. 670 und 680-Referenzdesigns haben ca null Ähnlichkeit mit dem hier.

Unicous
2014-04-01, 12:36:00
Es geht mit jetzt nicht um die Lüfterposition. Bei Titan ist ja viel mehr Metall dran. Ich meinte eher die Metallleiste die das Plastik umrahmt.


Preis könnte laut Chiphell-Tabelle $1499 sein. Das wäre die Hälfte von Titan Z.;D

dildo4u
2014-04-01, 12:37:35
Es geht mit jetzt nicht um die Lüfterpoisition. Bei Titan ist ja viel mehr Metall dran. Ich meinte eher die Metallleiste die das Plastik umrahmt.


Preis könnte laut Chiphell-Tabelle $1499 sein. Das wäre die Hälfte von Titan Z.;D
Viel zu teuer 500$ für den Kühler,ich tippe max auf 1000 also ca 800€.Und wegen Titan z einfach warten es gab nach Titan auch ne 780TI,als wird's nach Titan z auch ne 790 geben.

Loeschzwerg
2014-04-01, 12:40:37
Ich erwarte von AMD Karten schon kein schickes Design mehr, daher bin ich auch nicht enttäuscht :D

Falls über den GPUs wirklich nur normale Kompakt-Wasserkühler sitzen, dann wird das mit den 500Watt TDP sicher nichts.

Edit: Wo und Wie verläuft eigentlich die Verbindung der beiden Wasserkühler? Ein simpler Schlauch ist hier fast zu dick um am Lüfter vorbei zu kommen.

StefanV
2014-04-01, 12:41:59
Weil es nur so Sinn macht und genau sowas schon öfter verbaut wird,es sei denn AMD will wieder ein Abfall Kühler bauen wäre ja Tradition.
Nein, macht es nicht. Es gibt noch viele andere Möglichkeiten das zu realisieren. Zum Beispiel könnte man zwischen WaKü und GPU ein paar Heatpipes packen, die dann die Wärme auf einen Kühler transportieren. Oder das Wasser halt machts...

Es ist eben NICHT zu sehen, wie der Kühler ausschaut. Es ist eben NICHT zu sehen, dass dort kein Kühler vorhanden ist. Das kannst du aus den Bildern nicht ableiten!

Und nur weil ewas gemacht wurde, heißt das nicht, dass man das auch so machen wird. Man kanns ja auch mal anders machen, zur Abwechslung.

Und vorallen: WARUM ist da so ein dicker, fetter Lüfter in der Mitte, wenn der nur die VRMs kühlen soll? Macht auch nicht unbedingt Sinn, oder?

Entsprechend bleibt nur zu sagen: Abwarten und Tee rauchen, bis das Teil zerlegt wurde und man die Kühler mal gesehen hat. ALLE. Am jetzigen Zustand kann man echt keine Aussage treffen.

Nightspider
2014-04-01, 12:45:29
Es geht mit jetzt nicht um die Lüfterpoisition. Bei Titan ist ja viel mehr Metall dran. Ich meinte eher die Metallleiste die das Plastik umrahmt.


Preis könnte laut Chiphell-Tabelle $1499 sein. Das wäre die Hälfte von Titan Z.;D


Wieso sollte das Teil so teuer sein?

1000 Dollar wäre immer noch gewinnbringender als zwei 290X und man würde deutlich mehr Einheiten absetzen.

M4xw0lf
2014-04-01, 12:46:53
Es geht mit jetzt nicht um die Lüfterpoisition. Bei Titan ist ja viel mehr Metall dran. Ich meinte eher die Metallleiste die das Plastik umrahmt.
Ja, ich ebenso. Lasst Bilder sprechen (:freak:):

GTX 680

http://www.chip.de/ii/1/4/8/4/5/3/3/8/gtx1-47605a26f4b142a7.jpg

GTX Titan

http://www.hardwareheaven.com/reviewimages/zotac-nvidia-gtx-titan/GeForceGTX_Titan_3Qtr1a.jpg

GTX 690

http://media.bestofmicro.com/GTX-690-Launch,4-O-335832-22.jpg

vs.: R9 295X

http://i.imgur.com/GqN16KS.jpg

Wenn du da jetzt immer noch Ähnlichkeit zur 680 siehst, dann kann ich dir nicht folgen ^^

Unicous
2014-04-01, 12:59:09
Ich will jetzt hier keinen Spuckwettbewerb ausrufen, aber wo du die Ähnlichkeit zu Titan und 690 siehst kann ich auch nicht verstehen.:P

Ich hatte ja 670/680 gesagt. Daraus ein Hybrid (leider kein Zerg/Protoss Hybrid sondern einfach nur hässlich:biggrin:) ergibt deutlich mehr Sinn als die Kühlergrills von Titan/690 die ja auch aus Metall sind.:tongue:

M4xw0lf
2014-04-01, 13:00:03
Dann... seh ichs nicht :tongue:

horn 12
2014-04-01, 13:12:33
Nun, da werden wohl NEUE Features im Control Center kommen,- oder zumimdest offiziell angeboten werden,- Ansonsten nutzt so ein Monster kaum etwas!
Mann darf wohl treiberseitig auf was Neues gespannt bleiben ....

Downsampling - 4K - Weitere AA Modi

Gaestle
2014-04-01, 13:14:54
Hast Du das gesteckt bekommen, oder selbst frei von der Leber weg spekuliert?

horn 12
2014-04-01, 13:30:34
1.ter April !
Aber könnte schon hinkommen, schliesslich releast AMD nicht umsonst so ein Monstrum an Grafikkarte.

Iruwen
2014-04-01, 13:34:19
Nein, "umsonst" bestimmt nicht :D

Unicous
2014-04-01, 13:36:35
Habt ihr Beiden einen Clown gefrühstückt... und jetzt Blähungen?:eek:

Akkarin
2014-04-01, 14:19:02
Ich sehe bei der Karte auch 0 Ähnlichkeiten mit einer 680, und selbst den Titanen sieht sie nur in der Farbgestaltung etwas ähnlich. Auf den Fotos sieht die Karte auch extrem wertig aus, ka was ihr da habt.

Unicous
2014-04-01, 14:32:15
Es sieht auch nicht aus wie eine haargenau Kopie. Sondern AMDs Designteam oder diejenigen die dafür beauftragt wurden wurden von Nvidias Design inspiriert und haben dem Plastikkitsch eine metallene Zierleiste spendiert und noch ein paar Nieten/Schrauben "draufgeklebt".

Wertig sieht für mich anders aus. Wobei das Foto jetzt nicht gerade gut gelungen ist, wenn man ehrlich ist.

fondness
2014-04-01, 14:46:18
Das dürfte ein 140mm-Radi mit 45mm Stärke sein, damit kühlt man halbwegs leise 140-150 Watt weg, aber keine 300 bis 375 Watt, das wird so sau laut.

Für eine "normale" 290X nimmt man im Wakü-Bereich schon mindestens einen 240er, eher 280er oder 180/200er-Radi, damit ist es dann leise...

Ist ja auch noch ein Lüfter und Kühlkörper auf der Platine vorhanden.
Nvidia will bei der Titan Z die 375W ganz ohne Radi wegkühlen, von daher sehe ich keinen Grund warum das nicht halbwegs leise sein sollte.
Die Frage ist eher ob das ordentlich umgesetzt wurde oder eben nicht.

HarryHirsch
2014-04-01, 15:27:03
Uii nur 2x 8 Pin. Wenn man den Kühler durch nen Ordentlichen ersetzt ist das Ding sogar brauchbar.

Akkarin
2014-04-01, 15:36:45
Sorry, aber ich seh wirklich gar keine Ähnlichkeit zu vorherigen Designs, vor allem nicht zu 680. Welche Designelemente meinst du denn genau ?

Die 295X sieht ähnlich aus wie full cover Wasserkühllungen (z.b. so was: http://www.aquatuning.de/images/product_images/600x400/16522_0.jpg ), eine Anlehnung an die 680 sehe ich nur insofern als dass beide schwarze Oberflächen haben. MMn sieht das schwarz bei der 295X auch eher nach Metall als nach Plastik aus.

Der Lüfter sieht mMn auch stark anders aus als auf allen andren karten. Dieses gitter über ihm Gabs afaik noch nie bei GraKas, und die rote Farbakzente plus dem noch sichtbaren Kupfer ist auch sehr gelungen.

Sorry für das OT, aber mMn ist das eine der schönsten und kreativsten Kartendesigns die es bisher gab, sogar noch besser als die eh schon sehr edlen Titanen.

edit: da wir bisher kaum Fotos haben kann man natürlich kein abschließendes Urteil über das Design fällen und ich spreche hier natürlich Ausschließlich über das Aussehen, und nicht über die Temperaturen/Lautstärke, welche als technische Aspekte der Designs natürlich noch wichtiger sind.

AnarchX
2014-04-01, 16:49:44
Bei TPU meint man wohl 2x2816SPs @ bis zu 1018MHz: http://www.techpowerup.com/gpudb/2523/radeon-r9-295-x2.html

dildo4u
2014-04-01, 16:52:42
Dann geht sie weit über 375.

fondness
2014-04-01, 16:57:06
Oder das bis zu wird nur erreicht wenn Crossfire nicht funkt und wenn beide GPUs arbeiten geht der Takt eben deutlich runter.

Unicous
2014-04-01, 16:59:58
Warum werden eigentlich andauernd diese vorläufigen Datenbankeinträge von TPU für voll genommen. Du müsstest es doch besser wissen AnarchX.

Meist sind das doch eh nur Fülleinträge für GPU-Z.

AnarchX
2014-04-01, 17:02:25
Die 1018MHz wirken aber alles andere als willkürlich.

Unicous
2014-04-01, 18:59:33
Pff.

Na und. Wie oft wurden da irgendwelche Fantasiezahlen bei den Nvidia-Turbotaktraten angegeben und bei Release wurde dann die offizielle Zahl eingetragen.

Wie gesagt, es wird erst meist nur etwas Halbplausibles eingetragen um die GPU-Z Datenbank zu füttern.

(Das heißt nicht, dass der Takt nicht hinkommen kann, aber die TPU-DB ist in der Hinsicht nicht sehr zuverlässig)

Knuddelbearli
2014-04-01, 19:15:15
1018 wären extrem gering.

wenn CF nicht funktioniert solls / darf es die 375W ja trotzdem ausnutzen, und AMD könnte dann mit 1250 werben ^^

Unicous
2014-04-01, 23:05:17
Was ich vermutet habe, wird wohl Wirklichkeit, außer AMD hat eine sehr komische Vorstellung was GPUs sind:

These purchases contemplate AMD's current PC market expectations and the manufacturing of certain Graphics Processor Units (GPUs) and semi-custom game console products at GLOBALFOUNDRIES in 2014.
http://finance.yahoo.com/news/amd-amends-wafer-supply-agreement-201500856.html

Nun stellt sich die Frage: Was für GPUs? Welcher Node (wahrscheinlich nur Second Source für 28nm GPUs aber vllt. auch 20nm/14XM next Gen:wink:)?

Schaffe89
2014-04-02, 01:39:47
Hm wenn damit nicht die APU´s gemeint sind, dann wäre das ungefähr so wie wenn Weihnachten und Ostern auf einen Tag fallen.
Globalfoundries hatte bisher keine Kompetenzen, wenn es um die Fertigung von Grafikchips geht.
Man hat ja schon immer spekuliert dass Grafikchips auch mal bei GF gefertigt werden können.

Allerdings wäre der 28nm Bulk Prozess auch nicht der falsche dafür.

Akkarin
2014-04-02, 01:45:00
Wobei 28nm SHP doch wegen Kaveri, Kabini, PS4, XBO & Co doch eh schon stärker auf GPUs ausgelegt ist, oder ? Afaik taktet Kaveri deswegen doch so schlecht auf der CPU seite.

Unicous
2014-04-02, 02:11:58
Ich habe es schon woanders gesagt. GF hat seit Jahren Kompetenz aufgebaut in Sachen GPU.

Sie haben es nämlich geschafft eine relativ große Einstiegs-GPU mit einer CPU, Uncore und I/O zu verbinden, in Form von Llano, Trinity und jetzt Kaveri.

Das ist deutlich schwieriger als CPU oder GPU allein zu fertigen. Und wenn der Prozess gut ist, ist es auch egal was mit ihm gefertigt wird, solange das Chip-Design in Ordnung ist.

Zu Kaveri bzw. 28nm Bulk.

Ich denke AMD hat da auch mal wieder ein wenig rumgelabert. Sicherlich hat GF da einiges am Fertigungsprozess für Kaveri optimiert, aber da es ja ein Standardprozess ohne große Neuerungen ist (im Gegensatz zu 32nm SOI der definitiv auf AMDs Chips ausgerichtet ist/war), haben sie wahrscheinlich einfach nur die einzelnen Parameter für Kaveri angepasst. Ich glaube nicht, dass 28nm Bulk bei GF nur auf AMD bzw. Kaveri "geeicht" ist, zumal sie ja gerüchteweise für Qualcomm, Allwinner und Mediatek fertigen sollen und letztes Jahr offiziell von mehreren "design wins" gesprochen haben.

Und soviel schlechter taktet Kaveri ja dafür nicht, muss man ja mal sagen. Die 10% weniger Takt werden ja gut wieder von Architekturverbesserungen ausgeglichen. Und vor allem ging es ja darum, dass sie die Taktbarkeit in hohen TDP-Stufen verlieren, d.h. 95 Watt.
In den niedrigeren Stufen taktet Kaveri ja deutlich höher als Trinity/Richland.
Leider sieht man das ja nicht, weil es bis jetzt ja nur zwei Modell gibt und die Mobil-Varianten ja auf sich warten lassen.

...

Hab noch mal schnell die Folie gesucht, da steht es ja auch drin mit den hohen TDPs.

http://www.brightsideofnews.com/Data/2014_1_14/AMD-Launches-Kaveri-APU-with-HSA2c-Propelling-AMDe28099s-APU-Vision-Forward/AMD%20Tech%20Day%20%20-%20January%2014%20NDA-5.jpg

horn 12
2014-04-02, 17:01:55
R9 295X2 Koffer zusammen mit der besagten Grafikkarte ist bei ComputerBase gerade eben eingetroffen.
Hoffe es verlinkt einer die komplette Karte noch vor NDA und auch die Specs...
sowie die 2x /3x 8 Pin Anschlüsse.

Videocardz hat neue Fotos vom Koffer...
http://videocardz.com/50114/amd-radeon-r9-295x2-briefcase-day

Loeschzwerg
2014-04-02, 18:55:11
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Teaser-zur-R9-295-X2-1115428/

R9 295 X2 schneller als zwei 290X? Das riecht aber nach mehr als 375Watt, sofern dieser erste Benchmark-Wert stimmt.

fondness
2014-04-02, 18:58:10
So würde eine Dual-Karte wenigstens halbwegs Sinn machen. Eine Titan Z die vielleicht 50% mehr fps liefert wie eine 780Ti plus die ganzen AFR-Nachteile ist lächerlich.

dildo4u
2014-04-02, 19:02:22
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Teaser-zur-R9-295-X2-1115428/

R9 295 X2 schneller als zwei 290X? Das riecht aber nach mehr als 375Watt, sofern dieser erste Benchmark-Wert stimmt.
Vermutlich alter Treiber beim Crossfire hat auch ein mieses Scaling zu 290X.Und man sollte nicht unterschätzen,wie kacke der AMD Kühler ist,es ist also gut möglich,das das Crossfire den Takt weiter absenkt weil die Karten sich gegenseitig aufheizen.

reaperrr
2014-04-03, 13:15:55
Vermutlich alter Treiber beim Crossfire hat auch ein mieses Scaling zu 290X.Und man sollte nicht unterschätzen,wie kacke der AMD Kühler ist,es ist also gut möglich,das das Crossfire den Takt weiter absenkt weil die Karten sich gegenseitig aufheizen.
Vielleicht bringt XDMA auch einfach noch mehr, wenn die GPUs auf einem PCB sitzen mit einem PLX-PCIe-Chip dazwischen, anstatt über die PCIe-Leitungen eines Mainboards kommunizieren zu müssen.

M4xw0lf
2014-04-03, 13:19:05
Vermutlich alter Treiber beim Crossfire hat auch ein mieses Scaling zu 290X.Und man sollte nicht unterschätzen,wie kacke der AMD Kühler ist,es ist also gut möglich,das das Crossfire den Takt weiter absenkt weil die Karten sich gegenseitig aufheizen.
Das miese Scaling bei 2x 290X ist tatsächlich besser als das Scaling der 2x 780Ti ;)

AnarchX
2014-04-16, 13:00:55
Diese Seite mit den Warenbewegungen in Asien ist ja wirklich interessant:
(FOC) GRAPHICS CARD AMD ICELAND PEG GFX CARD
(FOC) ADD-IN CARD, OTHER FOR COMPUTER NO ENC ICELAND PEG (MB) GRAPHICS CARDS
https://www.zauba.com/import-iceland-peg-hs-code.html

Nakai
2014-04-16, 13:39:25
Doch noch ein Lebenszeichen, ich habe fast schon gedacht, dass die das gesamte VI-Lineup gecancelt haben und direkt auf PI gehen...wobei ich der Seite kein Vertrauen schenke. :freak:

AnarchX
2014-04-16, 14:50:49
Doch noch ein Lebenszeichen, ich habe fast schon gedacht, dass die das gesamte VI-Lineup gecancelt haben und direkt auf PI gehen...wobei ich der Seite kein Vertrauen schenke. :freak:
Offenbar sind die Frachtbriefe dort offen zu legen.

Opal ist wohl der Codenamen eine entsprechenden Mobile GPU der Crystal Familie:
https://www.zauba.com/import-opal-amd-hs-code.html
edit: bzw. ein Mars/Oland Rename: http://pciids.sourceforge.net/v2.2/pci.ids

M4xw0lf
2014-04-16, 15:06:51
Diese Seite mit den Warenbewegungen in Asien ist ja wirklich interessant:

https://www.zauba.com/import-iceland-peg-hs-code.html
Die reinste Goldgrube, wenn ich deine letzten Posts in den Speku-Threads mal zusammenfasse ^^

fondness
2014-04-18, 10:00:53
Das passt vielleicht hier besser:


"Already started shipping Graphics from Globalfoundries."


Das können fast nur die kleinen VI-Chips in 28nm GF28A sein. 20nm scheint bei GF noch länger nicht verfügbar und nach dem Smasung-Deal würde es mich nicht wundern wenn man bei GF direkt auf 14nm FF geht.

AnarchX
2014-04-18, 10:33:30
Ein Chipshot mit Herkunfsbezeichnung von Hainan/Sun/Jet wäre wohl mal interessant. Das ist vielleicht der GF-Testchip.

HOT
2014-04-23, 12:25:29
Es steht neben Iceland ja auch Tonga noch aus. Leider ist vollkommen unklar, ob diese auch von GloFo kommen oder noch bei TSMC gefertigt werden. Ich vermute weiterhin zweiteres, vielleicht sind es auch Renames wie bei Curacao. Ich könnt mir aber auch einen Oland-Nachfolger mit 512 GCN 1.1 oder 2.0 Shadern vorstellen als Gegenpart zu Kaveri. Wenn was von GloFo kommt, dann sicherlich Pirate-Islands-Chips.


Mit dem Samsung-Deal würde ich Grafikchipfertigung nicht zusammenbringen. Die Samsungprozesse, die GloFo nutzt, sind offenbar nicht Grafikchip-tauglich... konkret geht es wohl "nur" um zwei Samsung LP-Prozesse für SoCs. Eine HP-Variante muss mMn bei GloFo-Dresden unabhängig davon in Entwicklung sein, Kunden wie AMD wollen ja auch 14nm nutzen.

Ich habe es schon woanders gesagt. GF hat seit Jahren Kompetenz aufgebaut in Sachen GPU.

Sie haben es nämlich geschafft eine relativ große Einstiegs-GPU mit einer CPU, Uncore und I/O zu verbinden, in Form von Llano, Trinity und jetzt Kaveri.

Das ist deutlich schwieriger als CPU oder GPU allein zu fertigen. Und wenn der Prozess gut ist, ist es auch egal was mit ihm gefertigt wird, solange das Chip-Design in Ordnung ist.

Zu Kaveri bzw. 28nm Bulk.

Ich denke AMD hat da auch mal wieder ein wenig rumgelabert. Sicherlich hat GF da einiges am Fertigungsprozess für Kaveri optimiert, aber da es ja ein Standardprozess ohne große Neuerungen ist (im Gegensatz zu 32nm SOI der definitiv auf AMDs Chips ausgerichtet ist/war), haben sie wahrscheinlich einfach nur die einzelnen Parameter für Kaveri angepasst. Ich glaube nicht, dass 28nm Bulk bei GF nur auf AMD bzw. Kaveri "geeicht" ist, zumal sie ja gerüchteweise für Qualcomm, Allwinner und Mediatek fertigen sollen und letztes Jahr offiziell von mehreren "design wins" gesprochen haben.

Würde ich jetzt aus dem Bauch heraus so zustimmen. AMD wird sicherlich die Wünsche weitergegeben haben und evtl. auch geholfen/finanziert haben, mehr aber wahrscheinlich nicht.

Und soviel schlechter taktet Kaveri ja dafür nicht, muss man ja mal sagen. Die 10% weniger Takt werden ja gut wieder von Architekturverbesserungen ausgeglichen. Und vor allem ging es ja darum, dass sie die Taktbarkeit in hohen TDP-Stufen verlieren, d.h. 95 Watt.
In den niedrigeren Stufen taktet Kaveri ja deutlich höher als Trinity/Richland.
Leider sieht man das ja nicht, weil es bis jetzt ja nur zwei Modell gibt und die Mobil-Varianten ja auf sich warten lassen.

...

Hab noch mal schnell die Folie gesucht, da steht es ja auch drin mit den hohen TDPs.

http://www.brightsideofnews.com/Data/2014_1_14/AMD-Launches-Kaveri-APU-with-HSA2c-Propelling-AMDe28099s-APU-Vision-Forward/AMD%20Tech%20Day%20%20-%20January%2014%20NDA-5.jpg
Kaveri ist von Anfang an hoch getaktet auf einem Prozess ohne Fertigungspraxis. MMn also kein Wunder, dass man erst mal Abstriche beim Takt gemacht hat, das wird sich sicherlich später ändern. Wenn AMD jetzt alles mögliche auch nach GloFo holt, also Grafikchips, Klein-APUs, die Server-ARMs auch nicht zu vergessen, erklärt sich die Verpätung der kleineren Kaveri-Produkte recht gut. Da muss erst mal die richtige Kapazität aufgebaut werden, damit auch alles "vom Band" laufen kann.

AnarchX
2014-05-05, 19:43:25
Gibt noch eine dGPU Attach Folie mit den Codenamen Topaz, Jet und Opal. Also wahrscheinlich nur Rebrands.

http://s14.directupload.net/images/140505/u9svts5k.png

Topaz mit der 690x Device-ID könnte eine neue GPU sein. Tonga lag auch in dem Bereich. Opal = Oland/Mars. Jet = Hainan/Sun. Und dann gibt es noch einen Emerald (R9 M280) = Bonaire/Saturn.
Aber Topaz ist wohl eher eine Low-End-GPU, wenn man sich unterhalb von Oland (384SPs, 128-Bit) einordnet.

Thunder99
2014-05-13, 10:25:22
Was ist den aus den Maui, Iceland, Tonga geworden?

Laut http://videocardz.com/50472/amd-launch-new-flagship-radeon-graphics-card-summer soll was schnelleres kommen. 1,2GHz schneller Hawaii? :D

Thunder99
2014-05-16, 10:44:26
Tonga lebt? http://videocardz.com/50506/exclusive-amd-working-tonga-gpu

AnarchX
2014-05-17, 09:34:41
Da wohl Tonga die 6920 und höhere Device-IDs belegt, leben wohl mindestens zwei weitere V.I. GPUs. Topaz (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10202009#post10202009)ist wohl wie schon langem berichtet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9868760#post9868760) die Crystal System Entsprechung von Iceland.

Wenn Iceland wie die Mobile Platzierung vermuten lässt eher schwach ist (384PS+ 64 bzw. 128-Bit), dann könnte Maui vielleicht gar noch eine Lösung zwischen Tonga und Iceland sein.

AnarchX
2014-05-17, 14:26:35
Diverse Tonga und Iceland SKUs mit ihren Device IDs und offenbar ist Hawaii von der Architektur eine Sea Islands GPU:

http://s12.postimg.org/qthdc6h3h/Screen_Shot258.png

http://i.imgur.com/8LjI06P.jpg

http://forum.beyond3d.com/showthread.php?p=1847969#post1847969

Unicous
2014-05-17, 14:56:29
Du meinst eine Sea Islands SKU.:wink:

Locuza
2014-05-17, 15:01:02
1. Das könnte dann bedeuten das Carrizo wohl doch ein GPU-Upgrade bekommt, wo auch die Architektur etwas anders ist/deutlich effizienter.
(Ich liebe es das AMD Islands Namen als konkrete ISA führt und gleichzeitig als Marketing Name, wo alles mögliche enthalten sein könnte.)

2. Scheint Tonga dann wirklich ein Ersatz für Pitcairn zu sein.

Pitcairn: Radeon R9 M290X: 1280 ALUs @ 850 - 900MHz / 256 Bit @ 4800MHz
Tonga: Radeon R9 M295X : ???


AMD FirePro W8000 (Tahiti LE, 1792 ALUs @ 900 MHz, 256-Bit , 4 GB ECC-GDDR5 @ 5500 MHz, 4 DisplayPort)
AMD FirePro W8100 (Tonga, ???)

AnarchX
2014-05-17, 15:02:20
Du meinst eine Sea Islands SKU.:wink:

Da es Code XL ist, dürfte hier eher die Architektur ausschlaggebend sein.
Die Marketing Einordnung ist dann wohl wieder eine andere Sache, wie man an denn Southern Islands GPUs sieht, die teilweise als Sea Islands-Familie verkauft wurden.

Also ist Hawaii eine C.I. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9657001#post9657001)-GPU, innerhalb der V.I.-Marketing-Familie. :ugly:


Interessant ist auch die eventuelle Architekturveränderung der V.I.-GPUs, die im B3D-Thread diskutiert wird. Die CUs sollen wohl zusätzlich zu 4 SIMD16 nun auch 16 SIMD4 Threads berechnen können.

M4xw0lf
2014-05-17, 15:16:24
Interessant ist auch die eventuelle Architekturveränderung der V.I.-GPUs, die im B3D-Thread diskutiert wird. Die CUs sollen wohl zusätzlich zu 4 SIMD16 nun auch 16 SIMD4 Threads berechnen können.
Und was bedeutet das, für Doofe? ^^

AffenJack
2014-05-17, 15:18:03
Also sehen wir mit Iceland/Tonga in V.I. nun endlich GCN 2.0, wenn es da größere Änderungen gab. Da bin ich mal gespannt.