PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36

M4xw0lf
2013-10-21, 18:15:43
Kommt die 290 eigentlich gleich zum Start mit? Weil man liest immer nur 290X...
Ich meine schonmal gelesen zu haben, dass die später kommt.

fondness
2013-10-21, 20:16:07
Sind die ganzen Benchmarks schon bekannt?
http://videocardz.com/47106/amd-radeon-r9-290x-review-charts-leak

StefanV
2013-10-21, 21:04:36
Macht irgendwie keinen Sinn, wenn die ganzen Tester schon exemplare haben und testen;)
http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/Marcos-Gesundheitstipps-beeindruckender-Gehaeusestapel-Hauptplatine-fuer-BVB-Fans-1093298/
Ich denke, dass man den (meisten) Testern durchaus zutrauen könnte, ein neues BIOS aufzuspielen...

boxleitnerb
2013-10-21, 21:07:03
Man kann ihnen aber nicht zumuten, die ganze Arbeit umsonst gemacht zu haben. Das wäre ziemlich asozial.

P@trick
2013-10-21, 21:12:39
So ausführlich mir zumindest nicht,sind jedenfalls schöne Einblicke ,Auflösungen,Kartenvielfalt u.ä..
Bin noch nicht fertig,finde aber auf die Schnelle hält sich die Titan ganz gut,die Tripple Benches zeigen auch ganz gut die Leistung bei hoher Pixellast und ob von 5760X1080 auf UHD(8294400Mill.Pixel ,mehr als 2Millionen Pixel mehr als 5760.......) sich im Verhälntnis sich noch gross etwas ändert muss man dann sehen.Denke(vielleicht falsch)bleibt es in etwa gleich mit den minder Frames.Grösstenteils ist UHDist in den meisten Fällen sowieso nur was für 2 Topkarten,wenn überhaupt.

Borderlands 2 ohne Outlines +dem veränderten Kontrast ist bei 1440p mit 2x SGSSAA bei 72 FpS gelockt(und mehr) mit einer Titan um 1137/1120MHz
gut spielbar

horn 12
2013-10-21, 21:18:46
http://forums.anandtech.com/showpost.php?p=35631048&postcount=42

r3ptil3
2013-10-21, 21:28:15
Weiss man jetzt wann das NDA fällt?

Schaffe89
2013-10-21, 22:25:57
Und du erwartest doch wohl nicht, dass die Karte 35% schneller ist als die 7970 GE, aber weniger verbraucht?

Die Messwerte sind in dem Test völlig für den Poppes, eine 290x mit Uber Modus zieht auch nicht mehr wie ne Gigahertz Edition.
Im Quiet Mode wird sie ähnlich sparsam sein wie ne Titan/GTX 780 bei vergleichbarer Performance und das mit 438mm² Chipfläche vs. 551mm².

Den Übermode kann man mit 106% PT und 90 Grad TempTarget bei der Titan vergleichen, ich lege mich da mal fest.

M4xw0lf
2013-10-21, 22:28:50
Die Messwerte sind in dem Test völlig für den Poppes, eine 290x mit Uber Modus zieht auch nicht mehr wie ne Gigahertz Edition.
Im Quiet Mode wird sie ähnlich sparsam sein wie ne Titan/GTX 780 bei vergleichbarer Performance und das mit 438mm² Chipfläche vs. 551mm².

Den Übermode kann man mit 106% PT und 90 Grad TempTarget bei der Titan vergleichen, ich lege mich da mal fest.

Der große Scheffe, ach nee, Schaffe, hat gesprochen! :freak:

boxleitnerb
2013-10-21, 22:29:53
Die Messwerte sind in dem Test völlig für den Poppes, eine 290x mit Uber Modus zieht auch nicht mehr wie ne Gigahertz Edition.


Ist das jetzt deine Glaskugel? Erst zweifelst du die Furmarkwerte an und verlangst Messungen in Spielen. Dann zweifelst du diese Messungen an. Muss man nicht verstehen...
4.3 Mrd Transistoren, 1 GHz, hohe Spannung - x Watt
6.5 Mrd Transistoren, 1 Ghz, hohe Spannung - x Watt
Und das soll funktionieren? Physik? Logik?

Zum Vergleich:
GK104, 3.6 Mrd, 1.1 GHz, 1.17V - 170-190W
GK110 teildeaktiviert, 7.1 Mrd, 1.0 GHz, 1.16V - 250-265W


Im Quiet Mode wird sie ähnlich sparsam sein wie ne Titan/GTX 780 bei vergleichbarer Performance und das mit 438mm² Chipfläche vs. 551mm².

Den Übermode kann man mit 106% PT und 90 Grad TempTarget bei der Titan vergleichen, ich lege mich da mal fest.

Was willst du mit der Chipfläche? Irrelevant für den Verbrauch, wichtig sind Takt und Spannung. Was die einzelnen Transistoren überhaupt machen und ob sie beim Gaming überhaupt Strom führen, weißt du doch gar nicht. Die dedizierten DP-Einheiten bei GK110 z.B. brauchen laut Schätzungen hier im Forum 50-60mm2 Fläche, dürften aber bei Nichtbenutzung nichts/kaum etwas brauchen. Dazu sind Titan/780 teilaktiviert und auch nicht grad die neuesten GPUs. Das Thema hatten wir ja schonmal neulich, dass man mit der Zeit die Transistoren etwas dichter packen kann. Ich sehe hier nur unüberlegtes Aufzählen von irrelevanten bzw. fehlinterpretierten Daten, um Hawaii besonders gut dastehen zu lassen.

Bei letzterem musst du dich nicht festlegen, das ist selbstverständlich so. Schon der Quiet Mode ist was die Temperatur angeht ja sehr "offen".

Raff
2013-10-21, 22:31:24
Wenn jemand ein Custom-Design mit mutmaßlich dicker Kühlung sieht, bitte rufen. :D

MfG,
Raff

Duplex
2013-10-21, 23:41:42
Wenn jemand ein Custom-Design mit mutmaßlich dicker Kühlung sieht, bitte rufen. :D
Großes OC Potential und ein sehr heißer Chip? :D:D

Schaffe89
2013-10-21, 23:44:02
Erst zweifelst du die Furmarkwerte an und verlangst Messungen in Spielen. Dann zweifelst du diese Messungen an. Muss man nicht verstehen...

Ich habe die Furmarkwerte nicht angezweifelt, sondern gesagt, dass die zu einem großen Teil irrelevant sind, besonders auch hinsichtlich der Temperatur, also bitte bei der Wahrheit bleiben.

Und was die Verbrauchswerte des Tests da betrifft. HD 7970ghz weniger Verbrauch als Titan/GTX 780 , klingt nicht besonders glaubwürdig, aber das ist ja wurscht. Die Performancewerte zweifelst du ja auch an, aber der Verbrauch wird dann sicher stimmen, ja ne is klar.

Der große Scheffe, ach nee, Schaffe, hat gesprochen!

Es dürfen auch andere Leute über Dinge bescheid wissen, bevor die Infos kommen, wie boxleitnerb, du kannst mich ja dann nachher mit den Werten aufziehen, falls sie nicht stimmen sollten.

4.3 Mrd Transistoren, 1 GHz, hohe Spannung - x Watt
6.5 Mrd Transistoren, 1 Ghz, hohe Spannung - x Watt
Und das soll funktionieren? Physik? Logik?

Du kennst doch gar keine Spannung, die Qualität der Fertigung, das Binning... etc.. etc.., ja klar kann das funktionieren, vielleicht nicht im Übermodus, im Quiet der ja kaum langsamer ist, aber wohl schon, da liegt der Verbrauch unterhalb einer GHZ Edition. ;)

Was willst du mit der Chipfläche?

Was willst du mit deinem Getrolle? Wo habe ich denn gesagt, dass die Chipfläche relevant zum Stromverbrauch sei, wo ist der Bezugspunkt?

Was die einzelnen Transistoren überhaupt machen und ob sie beim Gaming überhaupt Strom führen, weißt du doch gar nicht.

Du doch auch nicht. Ich kenne eben den Verbrauch bereits, du scheinbar nicht.

Schon der Quiet Mode ist was die Temperatur angeht ja sehr "offen".

Die Temps sind im Quiet modus nicht bei 94 Grad, wenn du den Quatsch schon wieder meinst, oder soll ich das Quelle für die 70 Grad nochmal posten, steht ein paar Seiten davor, interessieren tuts dich nicht, könnte ja den Blödsinn mit den 94 Grad vielleicht im Sande verlaufen lassen.

horn 12
2013-10-21, 23:58:09
http://videocardz.com/47148/club3d-radeon-r9-290-pictured

http://videocardz.com/47145/amd-radeon-r9-290x-makes-first-appearance-store

boxleitnerb
2013-10-22, 07:32:34
Ich habe die Furmarkwerte nicht angezweifelt, sondern gesagt, dass die zu einem großen Teil irrelevant sind, besonders auch hinsichtlich der Temperatur, also bitte bei der Wahrheit bleiben.

Und was die Verbrauchswerte des Tests da betrifft. HD 7970ghz weniger Verbrauch als Titan/GTX 780 , klingt nicht besonders glaubwürdig, aber das ist ja wurscht. Die Performancewerte zweifelst du ja auch an, aber der Verbrauch wird dann sicher stimmen, ja ne is klar.


Bei einem Temperaturtarget von 94°C ist durchaus zu erwarten, dass die Temperatur hoch ist, auch in Spielen. Was meinst du, was mit Titan passiert, wenn man das Temperaturtarget auch auf 94°C setzt? Trotz gutem Kühler wird die Karte an die 90°C warm. Bei besonders fordernden Spielen evtl. auch einen Tick mehr.
Es ging um die Leistungsaufnahme, und da zweifelste du die 60W mehr an und verlangtest nach Werten aus Spielen. Nun hast du sie und es passt dir wieder nicht. Das ist Fakt. Und natürlich braucht die 7970 GE einen Tick weniger als Titan, das ist nunmal so, wenn Titan seinen Boost voll ausfährt, wie es bei kurzen Benchmarks der Fall ist. Nur die Deutschen und die Franzosen heizen vor. Mit vollem Boost braucht Titan 10-20W mehr als die 7970 GE.
Die Performancewerte zweifle ich doch gar nicht an, lüg nicht! Es gibt nur Unstimmigkeiten, die auch Maxwolf festgestellt hat, die du ja wohl kaum verneinen kannst. Im Großen und Ganzen sollte es aber passen.


Du kennst doch gar keine Spannung, die Qualität der Fertigung, das Binning... etc.. etc.., ja klar kann das funktionieren, vielleicht nicht im Übermodus, im Quiet der ja kaum langsamer ist, aber wohl schon, da liegt der Verbrauch unterhalb einer GHZ Edition. ;)


Ich kenne keinen Absolutwert, aber mir wurde gesagt, die Spannung ist im Übermodus sehr hoch, damit auch schlechte Chips gut boosten können. Klingt nicht grad nach deutlich weniger als 7970 GE. Beim Binning wird man wohl kaum besonders wählerisch sein können bei dem hohen Takt und wenn man alle Chips braucht. Erinnere dich daran, dass ich sagte, AMD hatte nichtmal selbst Referenzkarten für die Tester und musste bei Asus ordern. Es gab/gibt Probleme mit der Verfügbarkeit. Im geleakten Test wurde nunmal der Übermodus getestet, da kann man nix machen. Dass die Karte im Quiet Modus effizienter ist als im Übermodus, halte ich aber für möglich, ist ja bei GK110 genauso.


Was willst du mit deinem Getrolle? Wo habe ich denn gesagt, dass die Chipfläche relevant zum Stromverbrauch sei, wo ist der Bezugspunkt?


Nun im selben Satz hast du den Verbrauch erwähnt. Das hättest du vielleicht besser auseinanderklamüsern sollen. Selbst wenn du nur die Performance meinst, passt dein Vergleich aus den genannten Gründen dennoch nicht.


Du doch auch nicht. Ich kenne eben den Verbrauch bereits, du scheinbar nicht.


Hab ich auch nie behauptet, dass ich das weiß. Es ging schlicht darum, dass du die Chipgröße (und damit aus der Transistorenzahl) nicht mit der Performance in Verbindung bringen kannst, ohne auf die angesprochenen Besonderheiten zu achten, wie du es getan hast.
In beiden Modi? In mehreren Anwendungen? Na dann lass mal hören.


Die Temps sind im Quiet modus nicht bei 94 Grad, wenn du den Quatsch schon wieder meinst, oder soll ich das Quelle für die 70 Grad nochmal posten, steht ein paar Seiten davor, interessieren tuts dich nicht, könnte ja den Blödsinn mit den 94 Grad vielleicht im Sande verlaufen lassen.

Metro liegt bei 70°C, allerdings sind da einige Fragen offen (GPU-Last, Speichertakt, Speicherbelegung). 20% Lüfter und 70°C ist unmöglich bei langer Last mit einem Referenzkühler, das sollte dir klar sein. Derselbe Kühler schafft beim 3DMark bei 43% dann nur 93°C (oder ist das eine 5 vorne? Sieht aber der 9 vom Furmark ähnlicher als der 5 vom 3DMark später und die Skala ist auch höher)? Und das passt natürlich nicht zusammen. 20% ist idle Lüfterspeed wie bei den meisten AMD-Karten. Das hast du niemals unter Last. Ich hatte die letzten Tage die Gelegenheit, mit einigen Custom-Kühlern zu spielen, und selbst die besten gingen immer in Richtung 30% Drehzahl, mindestens. Das, was bei Metro da gezeigt ist, ist ganz sicher idle. Was genau der Kerl da gemacht hat, kann ich nicht mit Sicherheit sagen, aber das ist keine Spielelast!

Ich hab nirgendwo behauptet, dass die Temperatur immer so hoch ist. Aber AMD hat das Temperaturtarget nicht zum Spass so hoch gesetzt, das sollte auch dir einleuchten. Ob da Reserve dabei ist und wieviel, werden wir sehen.

Edit:
http://abload.de/thumb/1382008_1688581433218arjtr.png (http://abload.de/image.php?img=1382008_1688581433218arjtr.png)
https://www.facebook.com/dark.lord.Reviews

Mehr Verbrauch (die 780 hat eine TDP von 250W, der hat sicher seine Verbrauchsmessung fälschlicherweise TDP genannt) und 94°C unter Last. Hab mal nachgefragt, was für eine Last.

Pirx
2013-10-22, 08:20:37
Wartet doch mal echte Tests ab, bevor ihr hier mal wieder dermaßen Stress aufgrund von Halb- und Nichtwissen macht, mein Gott.

M4xw0lf
2013-10-22, 08:22:46
Edit:
http://abload.de/thumb/1382008_1688581433218arjtr.png (http://abload.de/image.php?img=1382008_1688581433218arjtr.png)
https://www.facebook.com/dark.lord.Reviews

Mehr Verbrauch (die 780 hat eine TDP von 250W, der hat sicher seine Verbrauchsmessung fälschlicherweise TDP genannt) und 94°C unter Last. Hab mal nachgefragt, was für eine Last.
Bäh, ich hoffe doch nicht...

boxleitnerb
2013-10-22, 08:32:48
Andererseits haben die wenigsten die Möglichkeit, die Karte isoliert zu vermessen. Das Gesamtsystem ist das ja sicher nicht. Schwierig zu beurteilen. Die 231W sind halt falsch, und die 251W eigentlich auch, wenn wir pingelig sind. Wenn er die offizielle TDP angeben wollte, müsste er 250W für Titan und 780 angeben. Die 286W sind auch ein recht "krummer" Wert für eine TDP, jedenfalls für AMD-Verhältnisse, wenn ich mich recht erinnere.

Die Leistungsaufnahme könnte unter Furmark vermessen worden sein...aber da passt es mit der 780 wieder nicht, denn die müsste dann auch an die 250W stoßen.

Iruwen
2013-10-22, 08:53:59
Abwarten was HT4U misst.

M4xw0lf
2013-10-22, 08:54:27
Andererseits haben die wenigsten die Möglichkeit, die Karte isoliert zu vermessen. Das Gesamtsystem ist das ja sicher nicht. Schwierig zu beurteilen. Die 231W sind halt falsch, und die 251W eigentlich auch, wenn wir pingelig sind. Wenn er die offizielle TDP angeben wollte, müsste er 250W für Titan und 780 angeben. Die 286W sind auch ein recht "krummer" Wert für eine TDP, jedenfalls für AMD-Verhältnisse, wenn ich mich recht erinnere.

Die Leistungsaufnahme könnte unter Furmark vermessen worden sein...aber da passt es mit der 780 wieder nicht, denn die müsste dann auch an die 250W stoßen.
Die 780 hat ja auch bei einigen Testern schlechtere Verbrauchswerte als die Titan ergeben, zb bei PCGH.

boxleitnerb
2013-10-22, 09:02:09
Die 780 hat ja auch bei einigen Testern schlechtere Verbrauchswerte als die Titan ergeben, zb bei PCGH.

Ich verstehe den Zusammenhang nicht.
Entweder sind es Spiele. Dann wären die Werte der 780/Titan in Relation zueinander plausibel.
Oder es ist Furmark. Dann wäre mir eben der Wert der 780 zu niedrig. HT4U und TPU sehen hier die beiden Karten auf demselben Niveau.

tm0975
2013-10-22, 09:05:40
Abwarten was HT4U misst.

Ich finde HT4U bzgl. der Tests mit am Besten.

Zudem habe ich mir gerade die Lieferbarkeit der R9 280X-Karten angeschaut (Mindfactory, Hardwareversand). Diese ist nicht so üppig. Modelle der gängigen Hersteller zu normalen Preisen sind praktisch nicht lieferbar. Wahrscheinlich wird die 290(X) deshalb noch zurückgehalten. Bei den Testern der bekannten Seiten liegt die 290X doch schon zu Filetierung bereit, oder?

Sven77
2013-10-22, 09:08:42
94°C wären echt schlecht. Da kann man es vergessen das man noch an der Taktschraube drehen kann. Eine Titan mit 1050Mhz die man locker mit dem werksseitigen PT von 106% erreicht rennt dann wieder davon. Die 780 wahrscheinlich auch.

Iruwen
2013-10-22, 09:10:48
94°C und dafür leise wäre nicht schlecht. Mit OC dreht der Lüfter dann halt etwas höher. Laut PCGH sollen die Karten ja recht leise bleiben, oder sind die jetzt plötzlich wieder von AMD statt von NV gekauft :freak:

M4xw0lf
2013-10-22, 09:11:32
Ich verstehe den Zusammenhang nicht.
Entweder sind es Spiele. Dann wären die Werte der 780/Titan in Relation zueinander plausibel.
Oder es ist Furmark. Dann wäre mir eben der Wert der 780 zu niedrig. HT4U und TPU sehen hier die beiden Karten auf demselben Niveau.
Eben bei Spielen hat zb PCGH bei der 780 einen höheren Verbrauch ermittelt als bei der Titan, das meinte ich.

tm0975
2013-10-22, 09:12:22
94°C wären echt schlecht. Da kann man es vergessen das man noch an der Taktschraube drehen kann. Eine Titan mit 1050Mhz die man locker mit dem werksseitigen PT von 106% erreicht rennt dann wieder davon. Die 780 wahrscheinlich auch.

Es sind doch schon OC-Tests im Umlauf und sofern diese stimmen ist das OC-Potential der 290(X) vergleichbar mit 780/Titan. Vielleicht ist der VRAM nicht so gut übertaktbar. Das spiel wohl aber beim 512er SI keine Rolle.

Sven77
2013-10-22, 09:18:45
Wenn dem so ist und der Kühler entsprechend regelt dann ist ja gut. Ich hoffe wirklich das die Karten das erfüllen was einem die bisherigen Leaks versprechen, die Karte die mir bei BF4 am meisten bietet landet im Rechner..

Raff
2013-10-22, 09:19:23
Wenn dem so ist und der Kühler entsprechend regelt dann ist ja gut. Ich hoffe wirklich das die Karten das erfüllen was einem die bisherigen Leaks versprechen, die Karte die mir bei BF4 am meisten bietet landet im Rechner..

Was ist denn "am meisten"? Nur Fps? Oder auch Geräuschkulisse?

MfG,
Raff

tm0975
2013-10-22, 09:20:38
die Karte die mir bei BF4 am meisten bietet landet im Rechner..

Dank Mantle dann wohl eine Radeon. Wahrscheinlich reicht dann sogar eine 280X für "> Titan".

Sven77
2013-10-22, 09:30:49
Was ist denn "am meisten"? Nur Fps? Oder auch Geräuschkulisse?

MfG,
Raff
fps.. meine Titan geht gerne mal auf 70%, das ist dann auch nicht mehr leise.. aber dank Kopfhörer eher zweitrangig.

Dank Mantle dann wohl eine Radeon. Wahrscheinlich reicht dann sogar eine 280X für "> Titan".
da lass ich mich noch überraschen ob das nicht eine Luftblase ist.. Shadowplay ist so ein Feature das mich dann wieder bei nVidia hält.

Raff
2013-10-22, 09:31:02
Dank Mantle dann wohl eine Radeon. Wahrscheinlich reicht dann sogar eine 280X für "> Titan".

Mantle erscheint aber nicht mit dem Spiel und der Grafikkarte, sondern im Dezember.

MfG,
Raff

V2.0
2013-10-22, 09:43:17
Leise ist imm relativ, 3 Sone ist für High-End DE Karten ok, mir persönlich kommt aber nichts in den Rechner was lauter als 1,6-1,8 Sone ist.

tm0975
2013-10-22, 09:43:59
Shadowplay ist so ein Feature das mich dann wieder bei nVidia hält.

Sollen doch angeblich auch die neuen Konsolen können. wird also sehr wahrscheinlcih auch bei AMD mit nem Treiber-Update kommen. Für mich ist das unwichtig. Mir reicht der Spielspass.

Mantle erscheint aber nicht mit dem Spiel und der Grafikkarte, sondern im Dezember.

MfG,
Raff

Das ist bekannt. Ich muß allerdings nicht vom ersten Tag an dabei sein, wenn ein neues Spiel herauskommt. Für Serverüberlastungen und Fehlersuche ist mir meine Zeit zu schade.

Sven77
2013-10-22, 10:57:46
Sollen doch angeblich auch die neuen Konsolen können. wird also sehr wahrscheinlcih auch bei AMD mit nem Treiber-Update kommen. Für mich ist das unwichtig. Mir reicht der Spielspass.

Zumindest die PS4 hat wie Kepler einen dedizierten Encoder, wie du den per Treiberupdate nachrüsten willst ist mir schleierhaft.

haudi
2013-10-22, 10:58:13
94°C wären echt schlecht. Da kann man es vergessen das man noch an der Taktschraube drehen kann. Eine Titan mit 1050Mhz die man locker mit dem werksseitigen PT von 106% erreicht rennt dann wieder davon. Die 780 wahrscheinlich auch.
Hast du ne Titan? Falls ja - wie kommst du auf das? Spiel einfach mal ne Runde FC3 - 30 Minuten langen vollkommen. Stell auf full HD - ultra. Dann post mal deine Werte! Wetten dass du die 1050 nicht halten kannst ohnen mit der Lüfterkurve zu spielen;) - schaffst du zwar schon aber nur mit ca. 70prozent lüftergeschwindigkeit;)....wenns überhaupt langt! Außerdem liest du hier überhaupt mit, bzw. schaust du dir auch die gelinkten Leaks zum Teil an - wenn du das machen würdest, hättest du gesehen unter welchen Umständen die 94Grad zustande gekommen sind;)

AnarchX
2013-10-22, 10:59:57
Zumindest die PS4 hat wie Kepler einen dedizierten Encoder, wie du den per Treiberupdate nachrüsten willst ist mir schleierhaft.
Die GCN-Radeons (Oland/Hainan ausgenommen) haben auch einen VCE, der Echtzeit-Encoding auf der GPU erlaubt. Eventuell hat man diesen auf Hawaii noch verbessert (4K? 120 FPS?).

Screemer
2013-10-22, 11:09:42
Zumindest die PS4 hat wie Kepler einen dedizierten Encoder, wie du den per Treiberupdate nachrüsten willst ist mir schleierhaft.
das kann auch die vce in gcn-karten, zumindest den meisten. die frage ist nur mit welcher geschwindigkeit. hohe auflösung und framerate, z.b. 4k und 96/120Hz, können da schon grenzwertig sein.

Superheld
2013-10-22, 11:17:08
Mantle erscheint aber nicht mit dem Spiel und der Grafikkarte, sondern im Dezember.

MfG,
Raff

trotzdem verliebt?

M4xw0lf
2013-10-22, 11:21:47
Zumindest die PS4 hat wie Kepler einen dedizierten Encoder, wie du den per Treiberupdate nachrüsten willst ist mir schleierhaft.
So ziemlich Nichts, was die PS4 oder XboxOne haben, gibt es nicht auch auf einer aktuellen Radeon.

Dural
2013-10-22, 11:26:22
empfinde ich nur das so, oder wird die Karte mit jedem weiteren leak langsamer?

Jetzt ist sie "nur" noch auf Titan Niveau, je nach dem sogar etwas darunter.


Die 94°C gehen aber mal gar nicht, die RMA Abteilungen werden bestimmt Freude dran haben ;)
Hab mein BF4 gestern abbestellt, wenn ich es zur Karte dazu bekomme brauch ich es ja auch gar nicht.

M4xw0lf
2013-10-22, 11:32:04
Kommt sicher immer sehr drauf an, wie schnell die Titan im Test war ;) Zwischen 870 something und 1000+ MHz liegt schon weng Holz.

haudi
2013-10-22, 11:53:07
empfinde ich nur das so, oder wird die Karte mit jedem weiteren leak langsamer?

Jetzt ist sie "nur" noch auf Titan Niveau, je nach dem sogar etwas darunter.


Die 94°C gehen aber mal gar nicht, die RMA Abteilungen werden bestimmt Freude dran haben ;)
Hab mein BF4 gestern abbestellt, wenn ich es zur Karte dazu bekomme brauch ich es ja auch gar nicht.
Naja leaks sind leaks;) und werden es auch bleiben. Du kannst dem zuletzt geposteten nicht mal die Auflösung entnehmen, bzw. weißt du nicht wie schnell was gelaufen ist etc... Deswegen heißt die Devise warten;)

aufkrawall
2013-10-22, 12:26:21
(4K?).
Wär ja schon ein Fortschritt, wenn sie mal 4k Decoding hinbekämen.

Superheld
2013-10-22, 12:41:39
wasserkühler wird ab den 25.10 versendet
http://www.ekwb.com/news/407/19/EK-FC-R9-290X-for-AMD-Radeon-R9-290X-makes-it-s-debut/

Kartoffel123
2013-10-22, 13:03:34
empfinde ich nur das so, oder wird die Karte mit jedem weiteren leak langsamer?

Jetzt ist sie "nur" noch auf Titan Niveau, je nach dem sogar etwas darunter.


Die 94°C gehen aber mal gar nicht, die RMA Abteilungen werden bestimmt Freude dran haben ;)
Hab mein BF4 gestern abbestellt, wenn ich es zur Karte dazu bekomme brauch ich es ja auch gar nicht.

Mir wurde aus sicherer Quelle gesagt: Last-Verbrauch rund 50 % höher als Titan, bei Mehrleistung im hohen einstelligen % Bereich. Ein Krawallbruder sei die Karte auch sobald im Performance Bios.

mboeller
2013-10-22, 13:24:00
Dank Mantle dann wohl eine Radeon. Wahrscheinlich reicht dann sogar eine 280X für "> Titan".

Auch wenn es in diesm Thread OT ist, IMHO wird Mantle falsch eingeschätzt. Mantle hilft ja anscheinend laut AMD-slides vor allem bei vielen Drawcalls was, also dann wenn viele verschiedene Objekte dargestellt werden sollen. Das ist aber nicht immer der Fall.

Vielleicht sollte Carsten mal einen Artikel schreiben. :)

DrumDub
2013-10-22, 13:26:02
Mir wurde aus sicherer Quelle gesagt: Last-Verbrauch rund 50 % höher als Titan, bei Mehrleistung im hohen einstelligen % Bereich. :ulol:

haudi
2013-10-22, 13:29:17
Mir wurde aus sicherer Quelle gesagt: Last-Verbrauch rund 50 % höher als Titan, bei Mehrleistung im hohen einstelligen % Bereich. Ein Krawallbruder sei die Karte auch sobald im Performance Bios.
Jo ist klar - während die Titan ihre 250 Watt verbrät unter Last - sehen wir bei der r9 290x 375 Watt;) - Titan dann unter Last bei 837 Mhz und R9 290x @ 1100Mhz?;)

robbitop
2013-10-22, 13:56:25
Mir wurde aus sicherer Quelle gesagt: Last-Verbrauch rund 50 % höher als Titan, bei Mehrleistung im hohen einstelligen % Bereich. Ein Krawallbruder sei die Karte auch sobald im Performance Bios.
Danach sah die leak-Verbrauchsmessung aber nicht aus. Das waren IIRC nur 9 W mehr.
Über den Standardkühler braucht man sowieso nicht reden. Dafür gibt es sicher wie immer genug Sonderversionen von den Herstellern.

Superheld
2013-10-22, 13:58:21
Mir wurde aus sicherer Quelle gesagt: Last-Verbrauch rund 50 % höher als Titan, bei Mehrleistung im hohen einstelligen % Bereich. Ein Krawallbruder sei die Karte auch sobald im Performance Bios.

von NV ?:)

mironicus
2013-10-22, 14:19:47
von NV ?:)

Ne!

Quelle (http://de.wikipedia.org/wiki/Fantasie)

fondness
2013-10-22, 14:20:34
wasserkühler wird ab den 25.10 versendet
http://www.ekwb.com/news/407/19/EK-FC-R9-290X-for-AMD-Radeon-R9-290X-makes-it-s-debut/

Damit dürfte wohl auch der Launch spätestens am 25. sein...

mironicus
2013-10-22, 14:23:06
Damit dürfte wohl auch der Launch spätestens am 25. sein...

AMD launcht doch immer an einen Donnerstag, oder?

M4xw0lf
2013-10-22, 14:32:43
Die bisherigen "neuen" R9s und R7s wurden Dienstag gelauncht. Da heute aber Dienstag ist und kein Launch, ist der 24. immer noch der erhoffte Termin.

Flusher
2013-10-22, 14:59:47
Jo ist klar - während die Titan ihre 250 Watt verbrät unter Last - sehen wir bei der r9 290x 375 Watt;) - Titan dann unter Last bei 837 Mhz und R9 290x @ 1100Mhz?;)

Die Titan frisst keine 250W unter Spiele-Last - du kannst davon 50 W abziehen.

Edgecrusher86
2013-10-22, 15:13:25
Das kommt natürlich auch auf die Anwendung und das Setting drauf an - mit DS oder SGSSAA können es auf jeden Fall locker über 230W ohne OC sein bei TITAN (etwa Crysis 2 MaldoHD @ 4K; natürlich im SLI :D). :)

haudi
2013-10-22, 15:19:24
Die Titan frisst keine 250W unter Spiele-Last - du kannst davon 50 W abziehen.
Also keine Ahnung aber in FC3 schafft die das problemlos! Hau doch mal das pt und temp target hoch, dann siehst du es selbst! Vorausgesetzt du lässt sie auch ausboosten;). Das heißt du stellst mal die Lüftersteuerung bisschen aggressiver...Dann hält sich auch mal bisschen die Voltzahl und du wirst überrascht sein;)
Besser ist aber noch du stellst nur das Temptarget hoch den lüfter aggressiver - und schwups bist du im PT

asdf25
2013-10-22, 15:26:00
Die Leistung ist mehr als ok, fragt sich nur ob der Preis über 600€ oder darunter liegen wird.

[dzp]Viper
2013-10-22, 15:41:05
Die Leistung ist mehr als ok, fragt sich nur ob der Preis über 600€ oder darunter liegen wird.
Preislich scheinen sich ja 550-600€ für die 290x und 450-500€ für die 290iger herauszukristalisieren...

Nach Weihnachten sind nochmal 50€ weniger ;)

Flusher
2013-10-22, 15:47:58
Also keine Ahnung aber in FC3 schafft die das problemlos! Hau doch mal das pt und temp target hoch, dann siehst du es selbst! Vorausgesetzt du lässt sie auch ausboosten;). Das heißt du stellst mal die Lüftersteuerung bisschen aggressiver...Dann hält sich auch mal bisschen die Voltzahl und du wirst überrascht sein;)
Besser ist aber noch du stellst nur das Temptarget hoch den lüfter aggressiver - und schwups bist du im PT

Das ist ein Äpfel und Birnen Vergleich - die Karten sollten immer so verglichen werden wie sie im Handel stehen. Ohne Treiberspielereien oder Modifikationen. Fakt ist: die Titan verbraucht in Standardeinstellungen rund 200W in Spielen. Natürlich kann sie in manchen Szenen auch etwas mehr ziehen. Der Durchschnitt liegt aber 200 W

boxleitnerb
2013-10-22, 15:54:40
Ich hatte bei DarkTech mal angefragt, mit welcher Last da Leistungsaufnahme und Temperatur ermittelt wurde. Die Antwort: Spiele.

haudi
2013-10-22, 15:58:45
Das ist ein Äpfel und Birnen Vergleich - die Karten sollten immer so verglichen werden wie sie im Handel stehen. Ohne Treiberspielereien oder Modifikationen. Fakt ist: die Titan verbraucht in Standardeinstellungen rund 200W in Spielen. Natürlich kann sie in manchen Szenen auch etwas mehr ziehen. Der Durchschnitt liegt aber 200 W
Das ist überhaupt kein Äpfel und Birnen Vergleich! Was bringen mir ingame alles auf standard 837mhz gpu takt bei der Titan? Wenn man vergleiche anstellt sollte man auch die selbe gpu leistung (mhz) vergleichen! Und das geht mit der Titan leider nur mit besserer Lüftersteuerung. Da brauchst dann auch kein temp target bzw. pt hochstellen;).. Aber da siehst du dann wie schnell man ins PT rennt! Und out of the box titan ist eh ne lachnummer - wie gesagt bei gpu lastigen games kommst du dann nicht mehr in die boost region bei längerer Spielzeit! Da darf man sich dann mit 837mhz begnügen - super.... - aber einen Vorteil hats ja - der Verbrauch;)

Sven77
2013-10-22, 16:28:23
Und out of the box titan ist eh ne lachnummer - wie gesagt bei gpu lastigen games kommst du dann nicht mehr in die boost region bei längerer Spielzeit! Da darf man sich dann mit 837mhz begnügen - super.... - aber einen Vorteil hats ja - der Verbrauch;)

So ein Blödsinn...

Flusher
2013-10-22, 16:39:50
Das ist überhaupt kein Äpfel und Birnen Vergleich! Was bringen mir ingame alles auf standard 837mhz gpu takt bei der Titan? Wenn man vergleiche anstellt sollte man auch die selbe gpu leistung (mhz) vergleichen! Und das geht mit der Titan leider nur mit besserer Lüftersteuerung. Da brauchst dann auch kein temp target bzw. pt hochstellen;).. Aber da siehst du dann wie schnell man ins PT rennt! Und out of the box titan ist eh ne lachnummer - wie gesagt bei gpu lastigen games kommst du dann nicht mehr in die boost region bei längerer Spielzeit! Da darf man sich dann mit 837mhz begnügen - super.... - aber einen Vorteil hats ja - der Verbrauch;)

Kollege es geht um den Vergleich Leistung zu Stromverbrauch

Wenn du bei der Titan das PT und die Temps lockerst dann steigt neben der Stromaufnahme auch die Leistung - das Vehältnis bleibt also weitgehend gleich.

Screemer
2013-10-22, 16:48:16
das die mehrverbrauch aber nicht mit einer in gleichermaßen höheren prozentual wachsenden leistung einhergehen muss, sollte aber wohl klar sein oder?! 10% mehr fps != 10% mehr leistungsaufnahme.

Flusher
2013-10-22, 17:01:27
das die mehrverbrauch aber nicht mit einer in gleichermaßen höheren prozentual wachsenden leistung einhergehen muss, sollte aber wohl klar sein oder?! 10% mehr fps != 10% mehr leistungsaufnahme.

Ich schrub deswegen

das Vehältnis bleibt also weitgehend gleich.

Im Bereich von wenigen Prozent Leistungssteigerung wirkt sich das auch auf die Leistungsaufnahme nicht so stark aus. Sobald massiv übertaktet wird und evtl. auch die Spannung erhöht wird, steigt natürlich auch die Leistungsaufnahme überproportional an.

-/\-CruNcher-/\-
2013-10-22, 17:12:42
Das ist ein Äpfel und Birnen Vergleich - die Karten sollten immer so verglichen werden wie sie im Handel stehen. Ohne Treiberspielereien oder Modifikationen. Fakt ist: die Titan verbraucht in Standardeinstellungen rund 200W in Spielen. Natürlich kann sie in manchen Szenen auch etwas mehr ziehen. Der Durchschnitt liegt aber 200 W

Danach sollte man nicht gehen diese Durchschnitts Spiele Berrechnungnen sind für den popo.
Sie spiegeln nur den jetzigen stand wieder, du kannst aber durchaus härter bellasten mit mehr und vor allem komplexerem Shader load und da wird es interessant wie sich die karten schlagen schon in die Zukunft gesehen :)

Was ich schade finde es gibt keinen direkten Datenbestand über die Engine Power/Performance/Quality Effizienz für AMD/Nvidia mit verschiedenen Direct3D Games nur diese Mittellwerte, aber nach den bestehenden Daten die ich gesehen hab ist es eindeutig das Nvidia vorne liegt bei der Mehrzahl an Direct3D Engine Ergebnissen selbst bei denen wo man eine WIN situation für AMD erwarten würde (Da im Gaming Evolved programm, Tomb Raider mit Tressfx is da ein wirklich exzelentes beispiel nach dem Nvidia patch).
Auf der anderen seite sticht AC3 (Anvil Next) sehr ins Auge mit seinen extremen pro Nvidia Abweichungen da würde es sich mal lohnen genauer zu analysieren wo/wieso/weshalb/warum ? ;)
Die Abweichungen auf AMD Gaming Evolved spielen (Engines) sind meist sehr marginal im direkten Vergleich, und quasi nicht der rede wert im Mainstream GPU berreich.

Auch das verhalten von TressFX hier allen voran Tomb Raider würde ich mir auf meiner Nvidia mit einem AMD user mal gerne genauer anschauen (Render verhalten) vor allem auch die High Precession Shader results (Dof,Bloom,Motion Blur, Sun Glare, Lens Flare, Sun Shaft, Banding verhalten) :)

haudi
2013-10-22, 18:02:10
So ein Blödsinn...
Denk was du willst...Ich hab mit meinen Titanen mehr als genug getestet;). Ich bilde mir immer gern selbst meine Meinung.
Außerdem wie möchtest du bitte anhand von leaks die den Vergleich Leistung zu Stromverbrauch aufstellen?

boxleitnerb
2013-10-22, 18:04:52
Und du hast schon Recht. Ca. 60W Mehrverbrauch stehen hier ca. 15% mehr fps entgegen. Ausgehend von ca. 200W sind das 30% mehr Verbrauch für 15% mehr Performance.

Selbst gemessen in 3 Games.

haudi
2013-10-22, 18:11:11
Ist ja auch klar - wenn die Titan ihren Boosttakt ausfahren kann bleiben die 1.161 bzw. (1.15V je nach Modell) fix anliegen - somit ist halt auch gleich mal einiges mehr auf der Leitung;)
Dass die r9 290x trotzdem ein bisschen mehr verbrauchen wird als die Titan will ich gar nicht bestreiten - nur die 50% die hier schon genannt wurden sind absoluter "schwachfug"!

LSSJBroly
2013-10-22, 18:16:37
Was aber viele wieder vergessen: Auch mit max. Boost und 250 Watt (wir lassen das PT=100%) leistungsaufnahme ist eine Titan effizient, so effizient wie eine GTX 680;)

Eine max. Titan stock ist rund 50% schneller als eine 680, verbraucht aber auch knapp 50% mehr (250 watt gegenüber 170 Watt).

haudi
2013-10-22, 18:45:07
Das hat ja auch niemand bestritten dass die Titan nicht effizient ist - nur wie kommst du auf rund 50% schneller als ne gtx 680? Das stimmt einfach nicht

Schaffe89
2013-10-22, 18:53:27
Er redet von der max. Titan.
Eine Titan @ 106PT und 95C° verbraucht 20 Watt mehr wie ne Gigahertz und macht 11% mehr Leistung als die Standard Titan bei CB.

Wenn die 290X im Mittel 10% über Titan liegt und das gleiche verbraucht wie ne OC Titan, ist der Verbrauch gerechtfertigt, ich denke so wird es dann am Ende auch aussehen, wobei, wenn ich die Karte kaufe sowieso den Quietmodus laufen lasse, weil Leistung satt vorliegt.

boxleitnerb
2013-10-22, 18:54:34
Bei 1 GHz stimmts doch:
https://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/7/

LSSJBroly
2013-10-22, 18:59:17
nur wie kommst du auf rund 50% schneller als ne gtx 680? Das stimmt einfach nicht

Natürlich stimmt das...:rolleyes:
Eine Titan mit 876MHz ist rund 35% schneller als eine GTX 680 mit 1059MHz. Mit rund 1GHz ist ne Titan gut 10% schneller. 1,1 x 1,35 = 1,485 => ergo knapp 50% ...

haudi
2013-10-22, 19:03:38
Naja das ist doch schmarrn - da musst du doch dann die 680er ebenfalls max out laufen lassen;) sonst ist das doch wieder ne milchmädchen rechnung! Aber wenn du zu ner nicht max out stock 680er (also auch den boost nicht voll laufen lässt) gegenbenchst kannst du auf fast 50% kommen...

M4xw0lf
2013-10-22, 19:06:52
Naja das ist doch schmarrn - da musst du doch dann die 680er ebenfalls max out laufen lassen;) sonst ist das doch wieder ne milchmädchen rechnung! Aber wenn du zu ner nicht max out stock 680er gegenzubenchst kannst du auf fast 50% kommen...

Der Vergleich war durchaus sinnvoll - etwa gleicher Takt, etwa 50% mehr Verbrauch, etwa 50% mehr Leistung -> gleiche Effizienz, und darum gings.

LSSJBroly
2013-10-22, 19:07:23
Dann zieh halt da noch etwa 3% ab, dann ist ne 1GHz Titan immer noch rund 45% schneller als eine max. GTX 680 (dank bandbreitenproblem)

Naja das ist doch schmarrn - da musst du doch dann die 680er ebenfalls max out laufen lassen;) sonst ist das doch wieder ne milchmädchen rechnung!
gut, dann steht es etwa 210 Watt (was eine GTX 680 mit +32% PT etwa erreicht) gegen 265 Watt (106%), ergo +26% Leistungsaufnahme.
Aber eben + etwa 45% Performance - die Titan wird also dank des limits nochmal effizienter :D


Der Vergleich war durchaus sinnvoll - etwa gleicher Takt, etwa 50% mehr Verbrauch, etwa 50% mehr Leistung -> gleiche Effizienz, und darum gings.
So sieht es aus :)

M4xw0lf
2013-10-22, 19:13:07
Übrigens mal wieder off-topic von epischen Ausmaßen :freak:

haudi
2013-10-22, 19:28:49
Und was hat das mit der r9 290x zu tun? Um die geht es hier! Man vergleicht hier Titan gegen r9 290x - zumindest spekulativ.
Mir wurde aus sicherer Quelle gesagt: Last-Verbrauch rund 50 % höher als Titan, bei Mehrleistung im hohen einstelligen % Bereich. Ein Krawallbruder sei die Karte auch sobald im Performance Bios.
Darum ging es ursprünglich;)

LSSJBroly
2013-10-22, 19:44:28
Natürlich wird die 290X keine 50% mehr verbrauchen :freak

In der Praxis dürfte die 290X wohl irgendwas zischen 240 und 280 Watt fressen, eben etwas mehr als die 7970GE, aber eben auch deutlich effizienter.

Flusher
2013-10-22, 19:47:28
Ist ja auch klar - wenn die Titan ihren Boosttakt ausfahren kann bleiben die 1.161 bzw. (1.15V je nach Modell) fix anliegen - somit ist halt auch gleich mal einiges mehr auf der Leitung;)
Dass die r9 290x trotzdem ein bisschen mehr verbrauchen wird als die Titan will ich gar nicht bestreiten - nur die 50% die hier schon genannt wurden sind absoluter "schwachfug"!

Wieso? Eine 7970 GHz verbraucht doch unter Spiele-Last bereits 30 % mehr als eine Titan. Und Hawaii hat knapp 30 % mehr Shadereinheiten, sowie mehr ROPs und das breitere Speicherinterface. Da sind Hawaii vs. Titan = ~50 % Mehrverbrauch durchaus realistisch.

M4xw0lf
2013-10-22, 19:51:21
Wieso? Eine 7970 GHz verbraucht doch unter Spiele-Last bereits 30 % mehr als eine Titan. Und Hawaii hat knapp 30 % mehr Shadereinheiten, sowie mehr ROPs und das breitere Speicherinterface. Da sind Hawaii vs. Titan = ~50 % Mehrverbrauch durchaus realistisch.
Ein Scheiß. 300W wird das Ding in Spielen nicht fressen.

haudi
2013-10-22, 19:54:31
Bei ner 7970er ghz liegen auch dauerhaft 1.254V an - was unter Last ca. 1.2V ausmacht! Viel zuviel des guten einfach.
Leg das bei ner Titan an - hast du den selben Verbrauch. Bzw. bist du sogar drüber - rennst mit 106% sogar ständig ins PT! Deswegen hat man sich ja eigentlich auch ne normale 7970er gekauft und die einfach im Takt hochgezogen und war super effizient;)

LSSJBroly
2013-10-22, 20:00:28
Bei ner 7970er ghz liegen auch dauerhaft 1.254V an - was unter Last ca. 1.2V ausmacht! Viel zuviel des guten einfach.


Und das ist die große Variabel, die noch nicht bekannt ist, und maßgeblich bestimmt, wie viel das Ding säuft. Boxleitnerb meinte ja, dass man für den Übermodus ja ne sehr hohe spannung anstrebe (im Verhältnis)

Was stock anliegt...

(Edit: boxleitnerbs aussage korrigiert)

boxleitnerb
2013-10-22, 20:03:45
Von 1,2V hab ich nichts gesagt, es hießt nur "sehr hoch". Das kann auch relativ gemeint sein, z.B. dass im Quiet Mode nur 1,0 oder 1,05 V benötigt sind. Naja wir werden sehen.

Aber sagt mal, haben GPUs, die auf demselben Prozess basieren, nicht auch ähnliche Spannungen bei ähnlichen Taktraten? War das nicht mehr oder weniger eine Konstante des Prozesses und vom GPU-Design eher unabhängig? Es sind schließlich dieselben Transistoren, die da eingesetzt werden, und die haben ihre fixen Kenngrößen.

haudi
2013-10-22, 20:04:40
was auch legitim ist 1.2V für Übertaktung zur Verfügung zu haben falls es tatsächlich soviel sind. Um ne Titan @1130 bzw. 1150 stabil zum laufen zu bekommen brauchst auch mod bios und 1.21V ca. Manchmal tuns auch 1.2V oder auch 1.187V - Chipgüte halt.

LSSJBroly
2013-10-22, 20:07:07
Mmm... Alle Kepler GPUs laufen im schnitt mit max. 1,162V (max. Boost) - wie das bei den Radeons aussieht, keine Ahnung.

Allerdings besaßen GTX 480 und 580 ebenfalls ähnliche Spannungen...

Raff
2013-10-22, 20:16:48
Allerdings besaßen GTX 480 und 580 ebenfalls ähnliche Spannungen...

Huh? Die liefen mit VIDs im Bereich von 0,975 bis 1,063 Volt. 1,1 Volt waren bei einer GTX 580 schon schwierig zu kühlen, für 1,15 Volt braucht es die besten Luftkühler vom Schlage Zalman VF3000F oder Asus Direct CU II. Und 1,21 Volt per BIOS-Mod ... puuh, niemals ohne WaKü. ;)

was auch legitim ist 1.2V für Übertaktung zur Verfügung zu haben falls es tatsächlich soviel sind. Um ne Titan @1130 bzw. 1150 stabil zum laufen zu bekommen brauchst auch mod bios und 1.21V ca. Manchmal tuns auch 1.2V oder auch 1.187V - Chipgüte halt.

Temperatur ist hier fast alles. Kalte und gleichermaßen gute GK110-Chips brauchen für 1.150 MHz mitunter nur 1,175 Volt und schaffen dann mit 1,2-1,212 Volt dann 1.200 MHz. :)

MfG,
Raff

haudi
2013-10-22, 20:21:36
Huh? Die liefen mit VIDs im Bereich von 0,975 bis 1,063 Volt. 1,1 Volt waren bei einer GTX 580 schon schwierig zu kühlen, für 1,15 Volt braucht es die besten Luftkühler vom Schlage Zalman VF3000F oder Asus Direct CU II. Und 1,21 Volt per BIOS-Mod ... puuh, niemals ohne WaKü. ;)



Temperatur ist hier fast alles. Kalte und gleichermaßen gute GK110-Chips brauchen für 1.150 MHz mitunter nur 1,175 Volt und schaffen dann mit 1,2-1,212 Volt dann 1.200 MHz. :)

MfG,
Raff
Keine Ahnung wie du darauf kommst, dass ne Titan mit 1.21V die 1200 mhz gpu takt schafft. Du sprichst von kalten und gleichermaß guten chips. Ich hatte 6 zuhause - und genau 1 machte mit 1.21V fc3 stable! Schau mal im Luxx titan thread nach, gibt vielleicht ne handvoll die die 1200 packen;) - wobei die auch schon sagten, dass es nicht 100% stable ist. Da musst du schon sehr viel Glück haben eine zu erwischen die mit mod bios und 1.21V 1200 gpu takt gamestable schaffen ((ich rede nicht von bf3; 3dmark etc.))

Raff
2013-10-22, 20:25:54
Wie fallen denn bei diesen Karten die ASIC-Qualitäten aus und wie werden sie gekühlt? Dass 1.200 MHz keineswegs einfach zu erreichen sind ist klar. :)

MfG,
Raff

haudi
2013-10-22, 20:37:57
Die erste Karte die ich da hatte, war ne sc signature mit 77.5 ASIC - lief 1200 fc3 stable, gekühlt mit mk-26 und ultrasleeks (max 60Grad). Die anderen bewegten sich um die 70-74 ASIC (stable 1149-1188). Die letzte dich ich bis vor 2 Tagen hier hatte machte stable 1150 mit 1.21V in FC3 (ASIC 70,1) - war allerdings nur mit standard kühler @ 100% (ca. 69Grad max). Aber das tut eigentlich auch nichts zur Sache;). Fakt ist einfach, dass für 1150 gpu takt im Schnitt ~ 1.2V ca. gebraucht werden. Ausnahmen gibts natürlich - ist halt einfach die Chipgüte.
Was den Verbrauch angeht @ 1.21V und 1150/3500 brauch ich glaub nix zu sagen - aber mich persönlich interessierts nicht. Zahle meine Stromrechnung selbst;).

Felixxz2
2013-10-22, 23:21:37
Raff hat aber ne Wakü. Da geht schon boch mehr. Und umso kühler der Chip, umso weniger Sapnnung braucht man.

Screemer
2013-10-22, 23:25:46
Tahiti schafft das auch zumeist. Meine 7950 macht 1150mhz bei 1.15v, was nach vdrop 1,065-1,085v sind. Hawaii trau ich das durchaus zu.

haudi
2013-10-22, 23:36:29
Raff hat aber ne Wakü. Da geht schon boch mehr. Und umso kühler der Chip, umso weniger Sapnnung braucht man.
Mag sein, dass Raff ne Wakü hat - gibt genug Veruche dazu, dass ne Wakü am max stable Takt der Titan nix ändert;)...
Der Vorteil der wakü ist rein die Lautstärke und das nicht erreichen des Temptargets mit standard bios:)

StefanV
2013-10-22, 23:41:02
Dennoch: Die aktuellen AMD Chips sind relativ taktfreudig. Aus guten Tahiti holt man schon heute ohne größere Schmerzen 1200MHz raus. Das hat AFAIR auch die HIS Karte geschafft, die ich zuerst hatte. Die aktuelle Gigabyte schafft das nicht. Wobei die auch schon einen 1100MHz 'Boost' hat.

Von daher sollten wir vielleicht mal abwarten, as man aus Hawaii raus holen kann. Zumal man bisher auch (noch) nichts an der Spannung ändern kann...

Skysnake
2013-10-23, 00:01:11
Von 1,2V hab ich nichts gesagt, es hießt nur "sehr hoch". Das kann auch relativ gemeint sein, z.B. dass im Quiet Mode nur 1,0 oder 1,05 V benötigt sind. Naja wir werden sehen.

Aber sagt mal, haben GPUs, die auf demselben Prozess basieren, nicht auch ähnliche Spannungen bei ähnlichen Taktraten? War das nicht mehr oder weniger eine Konstante des Prozesses und vom GPU-Design eher unabhängig? Es sind schließlich dieselben Transistoren, die da eingesetzt werden, und die haben ihre fixen Kenngrößen.
Schlicht nein.

Du hast zwar grobe Randbedingungen, die durch den Prozess vorgegeben sind, das sind aber mehrere 0,1V. Was dann genau anliegen muss, damit der Chip funktioniert, hängt von der konkreten Implementierung ab.

horn 12
2013-10-23, 06:59:25
E N D L I C H

Es bleibt bei der morgigen 06:01 Vorstellung
R9 290 kommt genau eine Woche nach der R9 290X, also 31. Oktober 2013!

http://videocardz.com/47179/amd-radeon-r9-290x-arrives-october-24th-r9-290-october-31st

Schaffe89
2013-10-23, 08:10:21
Na endlich, dann hat der Spekulatius ein ende, geht langsam echt aufn Sack, wäre mir lieber gewesen, wenn AMD ein ganz normales Release vollzogen hätte, ohne diese Hinhaltetaktik.

tm0975
2013-10-23, 08:35:22
Na endlich, dann hat der Spekulatius ein ende, geht langsam echt aufn Sack, wäre mir lieber gewesen, wenn AMD ein ganz normales Release vollzogen hätte, ohne diese Hinhaltetaktik.

es wird einfach an der verfügbarkeit der karten mangeln. selbst die 280X ist lausig verfügbar (vgl. preisvergleich lagernd zu preisvergleich alle). und auch bei mindfactory sind die paar 280X wenn sie reinkommen auch gleich wieder draußen und der status auf "bestellt" geändert.

http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29.html/listing_sort/3

Flusher
2013-10-23, 09:13:45
es wird einfach an der verfügbarkeit der karten mangeln. selbst die 280X ist lausig verfügbar (vgl. preisvergleich lagernd zu preisvergleich alle). und auch bei mindfactory sind die paar 280X wenn sie reinkommen auch gleich wieder draußen und der status auf "bestellt" geändert.

http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29.html/listing_sort/3

Recht verwunderlich, dass die so gut weggehen, schliesslich sind die bisher noch nicht in im Never Settle Programm integriert.

Ich persönlich liebäugle auch mit einer 280X, allerdings warte ich noch auf Never Settle.

fondness
2013-10-23, 09:16:08
es wird einfach an der verfügbarkeit der karten mangeln. selbst die 280X ist lausig verfügbar (vgl. preisvergleich lagernd zu preisvergleich alle). und auch bei mindfactory sind die paar 280X wenn sie reinkommen auch gleich wieder draußen und der status auf "bestellt" geändert.

http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29.html/listing_sort/3

Ich finde es eher beeindruckend das alleine bei Mindfactory in den paar Tage offenbar mehrere hundert 280X Karten verkauft werden konnten. Ansonsten war das schon bewusst so gemacht, man hätte ja das Launchevent auch einfach später machen können. Ziel war es natürlich möglichst lange im Gespräch zu bleiben und Aufmerksamkeit zu erregen, und das scheint gut geklappt zu haben ;)

N0Thing
2013-10-23, 09:31:04
Recht verwunderlich, dass die so gut weggehen, schliesslich sind die bisher noch nicht in im Never Settle Programm integriert.

Ich persönlich liebäugle auch mit einer 280X, allerdings warte ich noch auf Never Settle.

Die meisten werden das Never Settle Programm nicht kennen und die 280x ist dann preislich attraktiver als die "alte" HD7970.

fondness
2013-10-23, 09:33:15
The Radeon R290X based on AMD’s new Hawaii chip and it should be selling later on the 24th in the US in etail and select retailers for $549 + tax, which sounds quite amazing for a card that can run faster than the Geforce GTX 780 and in Uber mode can even outrun the Titan selected games. EU listings point to €649 including VAT, which sounds about right. Its main competitor, the GTX 780, has an MSRP of $649, but Asus has cards listed for as little as $535.

Of course there is a catch. In quiet mode the card beats Geforce 780 in some games and benchmarks, not all of them. In Uber mode it needs a lot more power and ends up louder than the Radeon HD 7970 Gigahertz edition. People described the cooler noise in Uber noise as quite loud to us, but we must add that we still haven’t heard it firsthand. In Uber mode the R290X is fast enough to win against Titan in a few benchmarks, but not all.

However, there’s a caveat – our sources claim that AMD has not sent out the official price just yet, so even a day before launch it could still change.

http://www.fudzilla.com/home/item/32915-radeon-r9-r290x-aims-at-$549-pre-tax-price

Kühler also wieder mal Mist wie es aussieht, es sei denn der Uber-Mode gibt wirklich sehr viel Spannung.

StefanV
2013-10-23, 09:42:53
es wird einfach an der verfügbarkeit der karten mangeln.
Wie kommst auf den Trichter?!


selbst die 280X ist lausig verfügbar (vgl. preisvergleich lagernd zu preisvergleich alle). und auch bei mindfactory sind die paar 280X wenn sie reinkommen auch gleich wieder draußen und der status auf "bestellt" geändert.
http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29.html/listing_sort/3
Aha.
Also noch einmal zum Mitmeißeln:
Wenn 280X da sind, sind sie meist auch schon wieder weg

Das heißt also im Klartext:

Die Nachfrage nach 280X Karten ist (momentan) sehr hoch und man kommt kaum noch mit den Lieferungen hinterher

Natürlich ist die Lieferbarkeit schlecht, nur heißt das eben nicht, dass es keine Karten gibt, ganz im Gegenteil. Sowas heißt, insbesondere in diesem Falle, wo man einfach einen bestehenden Chip genommen hat und ihn neu benannt hat, einfach, dass die Nachfrage sehr hoch ist. Denn dafür, dass die 280X nicht oder schlecht lieferbar ist, gibt es sonst keinen Grund. Außer eben, dass der Shop zu wenig davon bestellt hat und/oder vom Ansturm überrant wurde.

V2.0
2013-10-23, 09:44:30
Oder AMD zu wenig Wafer bei TSMC bestellt hat....

Skysnake
2013-10-23, 09:47:14
Naja, an den Brand bei Hynix erinnerst du dich?

Von einem GPU-Hersteller hatte ich zwar die Aussage, dass es für Sie keine Auswirkungen gibt bzgl Verfügbarkeit von Karten, aber das muss nicht für alle gelten.

Dural
2013-10-23, 09:49:26
wer verwundert das zu diesem Verkaufspreis???

aber AMD ist mal wieder zu doof genügend Chips liefern zu können :rolleyes: jedoch muss ich auch sagen das die 280X bei uns ohne probleme lieferbar ist.

Flusher
2013-10-23, 09:50:17
Naja, an den Brand bei Hynix erinnerst du dich?

Von einem GPU-Hersteller hatte ich zwar die Aussage, dass es für Sie keine Auswirkungen gibt bzgl Verfügbarkeit von Karten, aber das muss nicht für alle gelten.

War davon auch die Produktion von GDDR Speicher betroffen? Afair hat Hynix doch gesagt, dass man genügend Produktionskapazität an anderen Standorten hätte um den Verlust zu kompensieren.

Raff
2013-10-23, 09:54:49
Raff hat aber ne Wakü. Da geht schon boch mehr. Und umso kühler der Chip, umso weniger Sapnnung braucht man.

Nee, meine Titan ist luftgekühlt – fett luftgekühlt, mit einem Accelero Xtreme III.

Mag sein, dass Raff ne Wakü hat - gibt genug Veruche dazu, dass ne Wakü am max stable Takt der Titan nix ändert;)...
Der Vorteil der wakü ist rein die Lautstärke und das nicht erreichen des Temptargets mit standard bios:)

Geringe Temperaturen helfen, das letzte Quentchen Bums aus Mikrochips zu pressen. Denn bleiben die Bauteile kalt, laufen sie schon bei geringeren Spannungen stabil.

MfG,
Raff

uweskw
2013-10-23, 10:02:22
Was ich wohl nie kapiere ist weshalb sich die ganzen Redakteure so pingelig ans NDA halten?
Da können die beiden Hersteller noch so viel Mist bauen, Rebranding, Paperlaunches,Testrichtlinien usw. Aber die Redaktionen halten denen die Stange und zeigen dem Kunden den Stinkefinger.:freak:

Greetz
U.S.

V2.0
2013-10-23, 10:05:10
Weil Bruch des NDA bedeutet in Zukunft -> kein Sample, kein Test, keine Views, kein Einkommen

Flusher
2013-10-23, 10:15:41
Weil Bruch des NDA bedeutet in Zukunft -> kein Sample, kein Test, keine Views, kein Einkommen

Sowie rechtliche Konsequenzen und mögliche, finanzielle Vertragsstrafen.

Flusher
2013-10-23, 10:30:16
Gibt es eigentlich mittlerweile halbwegs handfeste Leaks zur Leistungsaufnahme? (Quiet und Uber-Bios)

Skysnake
2013-10-23, 10:37:36
Ich würde sagen: Nein

War davon auch die Produktion von GDDR Speicher betroffen? Afair hat Hynix doch gesagt, dass man genügend Produktionskapazität an anderen Standorten hätte um den Verlust zu kompensieren.
Was weiß ich :ugly: Die meisten Hersteller haben sich auf meine Nachfrage gar nicht gemeldet, und die die sich gemeldet haben, meinten:"Keine Probleme für uns bzgl Lieferbarkeit von fertigen Karten."

M4xw0lf
2013-10-23, 10:37:54
Gibt es eigentlich mittlerweile halbwegs handfeste Leaks zur Leistungsaufnahme? (Quiet und Uber-Bios)
Dazu ist die Informationslage noch sehr dünn. Aber morgen gibts ja dann endlich echte Reviews.

Kartoffel123
2013-10-23, 10:39:53
Mir wurde aus sicherer Quelle gesagt: Last-Verbrauch rund 50 % höher als Titan, bei Mehrleistung im hohen einstelligen % Bereich. Ein Krawallbruder sei die Karte auch sobald im Performance Bios.

Mir wurde heute aus der selben Quelle gesagt, dass sich diese Information auf das Uber Bios bezieht.

StefanV
2013-10-23, 11:04:32
Was weiß ich :ugly: Die meisten Hersteller haben sich auf meine Nachfrage gar nicht gemeldet, und die die sich gemeldet haben, meinten:"Keine Probleme für uns bzgl Lieferbarkeit von fertigen Karten."
Naja, was sollen sie auch anders sagen?!
Selbst wenn bei allen SPeicherherstellern alle Fabs abgefackelt wären, würden die dir den gleichen Unsinn erzählen - geht leider nicht wirklich anders in der heutigen Zeit :(

Oder AMD zu wenig Wafer bei TSMC bestellt hat....
Für Tahiti?!

Glaubst ernsthaft, dass davon nicht noch 'nen paar Stück irgendwo in irgendwelchen Lagern rumgammeln? Da bräucht man nur 'nen neues BIOS drauf hauen und schon hat man 'ne R9-280X...

DrumDub
2013-10-23, 11:42:08
Mir wurde heute aus der selben Quelle gesagt, dass sich diese Information auf das Uber Bios bezieht. wenn dann aber nur im vergleich zu titan bei 837 mhz. dann könnte es in der tat bei gewissen szenarien passen von der leistungsaufnahme +50%. allerdings passt dazu nicht das performanceplus vom einstelligen %-bereich gegenüber titan. wahrscheinlich in beiden fällen die worst case szenarien genommen und nicht die vergleichbaren.

V2.0
2013-10-23, 11:46:18
Für Tahiti?!

Glaubst ernsthaft, dass davon nicht noch 'nen paar Stück irgendwo in irgendwelchen Lagern rumgammeln? Da bräucht man nur 'nen neues BIOS drauf hauen und schon hat man 'ne R9-280X...

So schlecht lief die 7970 nun auch nicht.

Botcruscher
2013-10-23, 12:07:05
Bei Geizhals zeigt die Verfügbarkeit doch Grüne Welle. Da kann von Knappheit keine Rede sein.

Tobe1701
2013-10-23, 13:42:36
Bei Geizhals zeigt die Verfügbarkeit doch Grüne Welle. Da kann von Knappheit keine Rede sein.
Kommt drauf an was genau man sucht. Die Asus, welche nach allem was ich gelesen habe, als einzige 280X für mich in Frage kommt (und ich vermute mal auch für einige andere) ist schneller draußen als man F5 drücken kann. Da ich z.Zt. Nachtdienstaktiv bin kann ich das ganz gut beobachten :freak:

Leider noch immer keine "Leaks" zum neuen Never Settle, zur Kaufentscheidung fehlt mir nur noch das und das L/P-Verhältnis der 290 ohne X. Zumindest hab ich die Hoffnung das mit dem BF4-Launch AMD endlich fertig ist mit ihrem Kaugummiquatsch. Sollten sich mal das Apple-Event gestern geben - so launched man :cool:

M4xw0lf
2013-10-23, 13:53:23
Mich würde ja echt interessieren, warum der Launch so eine Hängepartie geworden ist - mal angenommen, der 15.10. war wirklich ursprünglich als Termin vorgesehen.
Was ich mir vorstellen könnte ist, dass AMD kurzfristig von Nvidias Ankündigung von Gsync Wind bekommen hat, und das erstmal vorbeigehen lassen wollte (während man noch ein bisschen stört in Form der veröffentlichten 4k-Benchmarks der 290X) um nicht gleich nach dem Launch die Aufmerksamkeit gestohlen zu kriegen.

Raff
2013-10-23, 14:00:48
So schlecht lief die 7970 nun auch nicht.

Im Gegenteil, nach den ganzen Never-Settle-Bündeln ging das Teil durch die Decke (nachdem sie anfangs wegen hoher Preise herumlag).

MfG,
Raff

Botcruscher
2013-10-23, 14:01:07
Gsync und Co machen da keinen Unterschied. Irgendwas geisterte hier mit Bios rum. Am wahrscheinlichsten halte ich Probleme bei der Fertigung. Die Endfertigung hat sich etwas verzögert. Um genug Karten zum Start zu haben hat man dann einfach eine Woche verschoben.

M4xw0lf
2013-10-23, 14:06:33
Mangelnde Verfügbarkeit hat doch noch nie irgendjemanden vom Launchen abgehalten, siehe HD5000 und HD7000 :freak:

Palpatin
2013-10-23, 14:09:03
Ich glaub das von Anfang an der 24.10. geplant war, ihnen nur aus versehen ein falsches oder uraltes Datum auf eine der Präsentationsfolien gerutscht ist, auf das sich dann alle versteift haben.

matty2580
2013-10-23, 15:03:53
Blöde Frage ^^

Sehe ich das richtig, dass die Tests dann bei uns ab 6:00 Uhr online sind?
Eastern Daylight Time (http://www.timeanddate.com/library/abbreviations/timezones/na/edt.html)


thx

Botcruscher
2013-10-23, 15:10:04
Morgen 6:00 wie alle andere auch.

uweskw
2013-10-23, 15:18:11
......

Glaubst ernsthaft, dass davon nicht noch 'nen paar Stück irgendwo in irgendwelchen Lagern rumgammeln? Da bräucht man nur 'nen neues BIOS drauf hauen und schon hat man 'ne R9-280X...


Ist das belegt?
Per Bios-Flash von 7970 auf R9-280X???
Kann ich mir nicht so recht vorstellen.....

Greetz
U.S.

boxleitnerb
2013-10-23, 15:20:29
Die Spannung für die 280X ist immer noch recht hoch. Da ist es nicht abwegig, dass man alte Tahitis genommen hat, zumindest teilweise. Sonst hätte man doch sicher neu gebinnt.

ilibilly
2013-10-23, 15:33:12
Ist das belegt?
Per Bios-Flash von 7970 auf R9-280X???
Kann ich mir nicht so recht vorstellen.....

Greetz
U.S.


hmm wurde doch glaub ich schon ermittelt das es einfach umgelabelte 7970er sind,zumindest ist das datenblatt identisch die karten wohl auch layoutmäßig

Raff
2013-10-23, 15:38:14
Die Spannung für die 280X ist immer noch recht hoch. Da ist es nicht abwegig, dass man alte Tahitis genommen hat, zumindest teilweise. Sonst hätte man doch sicher neu gebinnt.

Nicht bei allen Karten. Es sind wohl noch nicht alle Partner auf den Tahiti-XTLight-Zug aufgesprungen – klar, wenn man dicke OC-Versionen anbieten möchte. Erste Karten, die keine Taktwunder sind, laufen mit VIDs unter 1,2 Volt (unter Last dann 1,1 oder weniger).

MfG,
Raff

boxleitnerb
2013-10-23, 15:45:55
Also hier haben beide, XFX und Asus 1.2V, die 7970 GE hatte 1.218V:
http://www.anandtech.com/show/7400/the-radeon-r9-280x-review-feat-asus-xfx/20

Dabei kommt die XFX mit Referenztaktraten daher, die Asus ist leicht übertaktet, schlappe 20 MHz mehr als die 7970 GE.

pest
2013-10-23, 15:52:58
Spannung ohne ASIC Angabe ist nichtssagend was den Verbrauch anbelangt.

boxleitnerb
2013-10-23, 16:47:29
Ein Spanier hat schon eine Karte:
http://translate.google.de/translate?sl=auto&tl=en&prev=_t&hl=de&ie=UTF-8&u=http://www.hardlimit.com/tarjetas-graficas/t-test-de-prueba-real-volcanic-islands-amd-290xcf-76595.html&act=url

58°C im idle (quiet mode scheinbar)
47°C im idle (über mode)
GPU taktet offenbar nicht herunter, evtl. ein Bug? Cat 13.11 beta 3 wurde benutzt.

Man kann Power und Takt der GPU in einem Quadrantenmenü einstellen, scheinbar stufenlos:
http://abload.de/thumb/l9ok6s5e.png (http://abload.de/image.php?img=l9ok6s5e.png)

3DMark Firestrike Extreme@1120/2624: 5235 Punkte
91°C max bei maximal knapp 2000 RPM.

Metro LL um die 85°C bei ordentlichen 3000 RPM und Standardtaktraten.

uweskw
2013-10-23, 17:06:45
naja, ist schon nen Heisses Eisen....

haudi
2013-10-23, 17:08:25
Naja wie schon geschrieben und auf den pics gut zu sehen - die temps (58° und 47° sind bei 1000mhz gpu takt - also nicht wirklich idle..
Muss btw. kein bug sein - kann auch sein, dass der Herr nen 144hz monitor verwendet und in 2d auf 144hz stehen - hat. Da taktet dann nix mehr runter, auch keine nv!
Aber sieht wohl eher nach nem Treiberbug aus.

boxleitnerb
2013-10-23, 17:11:33
Das ist idle, oder siehst du da ein Spiel? Die GPU taktet halt nicht runter, aus welchen Gründen auch immer ;)
Zu einem Bild weiter unten schreibt er, er hat das System neu aufgesetzt und Metro deaktiviert. Da taktet die Karte auf 304/150, ist aber immer noch 45°C warm. Das ist ziemlich komisch, vielleicht wird die Temperatur falsch ausgelesen? Wobei ich mir das eher nicht vorstellen kann, sowas hab ich noch nie gehört.

haudi
2013-10-23, 17:14:59
Ja das schon klar! Aber da sie nicht runter taktet, aus welchen Gründen auch immer - ist das nicht mit der tatsächlichen idle temp wenn alles so läuft wies sein sollte zu vergleichen;)
Naja am Freitag oder spätestens Samstag wird selbst getestet;)

M4xw0lf
2013-10-23, 17:18:01
45°C wäre zumindest glaubwürdig, wenn der Kühler im idle eben auf extra-leise getrimmt ist.

boxleitnerb
2013-10-23, 17:19:08
Hab meinen Beitrag nochmal ergänzt, auch bei 2D-Takt wirds nicht wirklich kühler.

Btw kurze OT-Frage:
Wie kann ich bei EVGA-Precision den Monitoring-Graph öffnen? Also das große Fenster mit den ganzen Kurven?

Felixxz2
2013-10-23, 17:22:40
Finde nur ich, dass 5200 bei 1120 MHz sehr wenig sind? Ne Titan macht bei dem Takt über 6000.....
Bei 837Mhz wären das nur 3900 Punkte....

haudi
2013-10-23, 17:26:50
Ne schmarrn. Hier ne Titan @ 1150/3500@1,21V mit nem 3770k @ 4,8ghz @ 2400er Speicher
http://www.3dmark.com/3dm/1425290 mit 331.40er und windows 8.1

Godmode
2013-10-23, 17:30:16
Hab meinen Beitrag nochmal ergänzt, auch bei 2D-Takt wirds nicht wirklich kühler.

Btw kurze OT-Frage:
Wie kann ich bei EVGA-Precision den Monitoring-Graph öffnen? Also das große Fenster mit den ganzen Kurven?

Einfach unten mit Doppelklick auf die kleinen Graphen klicken.

boxleitnerb
2013-10-23, 17:31:47
Einfach unten mit Doppelklick auf die kleinen Graphen klicken.

Danke! Manchmal ist es so einfach... :freak:

Hab mal bissl weitergelesen. Mit 100 MHz OC kriegt er schon Bildfehler in Spielen. Kann aber auch dran liegen, dass er die Spannung nicht erhöht hat, dazu sagt er nichts. Beim Preis spricht er von 699 Euro?

Felixxz2
2013-10-23, 18:00:26
Ne schmarrn. Hier ne Titan @ 1150/3500@1,21V mit nem 3770k @ 4,8ghz @ 2400er Speicher
http://www.3dmark.com/3dm/1425290 mit 331.40er und windows 8.1

Dann skaliert die ja auch scheiße. Bei CB hat ne Stock Titan schon 4600 Punkte

boxleitnerb
2013-10-23, 18:02:53
Nö, bei CB läuft Titan schon auf Maximum, sichtbar an dem nicht vorhandenen Unterschied zwischen stock und max. Also ~1 GHz. Damit passt die Taktskalierung wunderbar.

fondness
2013-10-23, 18:09:21
Dann skaliert die ja auch scheiße. Bei CB hat ne Stock Titan schon 4600 Punkte

Man sollte nicht so tun als würde eine Stock-Titan mit 837Mhz laufen....
De facto boostet das Teil außer in Extremsituationen meist mit 900-1000Mhz.

haudi
2013-10-23, 18:11:05
naja das tut sie nach ca. ner halben stunde fc3 sehr wohl;) im 3dmark natürlich nicht - da hat sie ja abkühlphasen und kann boosten...
aber das auch nen anderes thema und wurde schon oft genug durchgekaut

Felixxz2
2013-10-23, 18:30:43
Stimmt, im 3D Mark boostet sie voll. In Spielen allerdings nicht. Also ein knappes GHz im FireStrike. Dann passts ja sogar^^

N0Thing
2013-10-23, 18:32:47
Zu einem Bild weiter unten schreibt er, er hat das System neu aufgesetzt und Metro deaktiviert. Da taktet die Karte auf 304/150, ist aber immer noch 45°C warm. Das ist ziemlich komisch, vielleicht wird die Temperatur falsch ausgelesen? Wobei ich mir das eher nicht vorstellen kann, sowas hab ich noch nie gehört.

Meine GTX 470 hat im idle auch immer zwischen 43-45°C. Klar, eine Thermi, aber sicher nicht ungewöhnlich für nen großen Chip.

E:\: Wenn sie durch youtube hochtaktet, sind auch mal 50°C drin.

fondness
2013-10-23, 18:36:51
Temperatur ist ohnehin wertlos ohne Lüfterdrehzal. Bei stehenden Lüfter wären 50°C zB sehr gut.

boxleitnerb
2013-10-23, 18:37:51
Drehzahl ist bei 20% ca. 1000 RPM, sieht man ja an den anderen Screenshots.

Eggcake
2013-10-23, 18:39:32
Naja, meine 5850 hat im Idle auch 54°, Lüfter habe ich manuell runtergedreht sodass er nicht mehr hörbar ist. Schalte ich den 2. Monitor ein sind's schnell auch mal 60-65°. Finde ich jetzt unbedenklich, solange die Drehzahl bei der 290er auch wirklich tief ist.

Edit: Also 1000rpm sind bei der 5850 extrem leise bzw. kaum hörbar, zumindest bei meinem Setup nicht. Da drehen halt noch zwei Festplatten welche das etwas übertönen, kann's allerdings nicht mit 0rpm vergleichen, da das wohl gar nicht geht.

Man muss aber auch sagen, dass hier bereits kleine Unterschiede in der Drehzahl einen riesigen Einfluss haben. Stock läuft sie mit rund 1300rpm im idle und das ist deutlich hörbar und übertönt auch die HDDs.

boxleitnerb
2013-10-23, 20:04:26
http://abload.de/img/x56ufvs5m.png (http://abload.de/image.php?img=x56ufvs5m.png)

Damit kann man doch schon etwas mehr anfangen.

GTX 780 pro Karte 220W
R9 290X pro Karte 275W

Wie bereits erwähnt: Das waren Spiele (hatte ja beim Bencher nachgefragt)

horn 12
2013-10-23, 20:42:43
Sorry, wo bleibt bitte der Spanier mit weiteren Testergebnissen ?

horn 12
2013-10-23, 20:45:33
HIER weiterer "Stoff"

http://www.hardlimit.com/tarjetas-graficas/t-test-de-prueba-real-volcanic-islands-amd-290xcf-76595.html

Superheld
2013-10-23, 20:48:04
noch mehrrr :D

Sven77
2013-10-23, 20:48:40
naja das tut sie nach ca. ner halben stunde fc3 sehr wohl;) im 3dmark natürlich nicht - da hat sie ja abkühlphasen und kann boosten...
aber das auch nen anderes thema und wurde schon oft genug durchgekaut
Probiere ich nachher mal aus

boxleitnerb
2013-10-23, 20:50:48
Naja das sind nur Schnappschüsse sozusagen. Er hat z.B. das Temptarget mal auf 85°C gesetzt, dann throttelt die Karte auch auf 960 MHz. Am angegebenen Verbrauch kann man mangels Vergleichswert auch nichts ablesen.

horn 12
2013-10-23, 20:55:09
Bezahlt hat der Spanier magere 559 Euro inkl . Battlefield 4!
Super Preis, zwecks der großen Hitze und hohem Verbrauch ?

Hier im Original:
Tenias razón ELP3 el precio es realmente sorprendente, 559€ con BF4 incluido.

Superheld
2013-10-23, 21:01:29
Mal asunto esto de los turbos..el dia que nvidia los inventó,podía haberse estado quieta..:(

was sagt er hier?

boxleitnerb
2013-10-23, 21:05:04
Dass er den Turbo blöd findet und Nvidia den niemals hätte erfinden sollen. (Weil AMD es jetzt genauso macht mit der Temperaturabhängigkeit)

Botcruscher
2013-10-23, 21:11:59
Damit dürften wir die 290 bei 450€ sehen.

fondness
2013-10-23, 21:24:44
Okay damit hat das Teil leider eine deutlich schlechtere Perf/Watt und AMD kann auf jeden Fall nicht mehr kontern ohne den TDP-Rahmen zu sprengen. Aber wäre auch ein Wunder gewesen wenn man mit dem kleinen Chip auch noch Energieffizienter wäre.

Duplex
2013-10-23, 21:27:57
Sind doch nur 35w mehr als Titan.

Nakai
2013-10-23, 21:44:48
Hawaii hätte noch breiter ausgelegt werden müssen. Statt 2816SPs gleich 3072.
Meine Güte dann hätte man die CU-Blöcke vollgemacht. Keine zustätzliche Redundanz. Wäre etwas mehr als 450mm² groß gewesen...kaum mehr also...

€: Nvidia machts ja mit GK110 ähnlich.

haudi
2013-10-23, 21:52:48
Ich verstehe die ganze Aufregung wegen den 35Wättchen auch nicht;)..
Hatte beim Versuch mein Titan SLI - hatte zu dem Zeitpunkt 2 da die 1200/3500 benchstable liefen - in 3dmark11 geschafft, dass mein Rechner mit nem 850Watt Netzteil ausging während des Benches;) Weil die Peaks wohl drüber lagen...

Gipsel
2013-10-23, 22:02:06
Bezahlt hat der Spanier magere 559 Euro inkl . Battlefield 4!
Damit dürften wir die 290 bei 450€ sehen.Eher weniger. In Frankeich will Sapphire offenbar für die BF4 Edition 519€ haben und 499€ für die 290X ohne BF4. Damit dürfte die 290 für wenig mehr als 400€ weggehen, insbesondere, wenn man der Sache ein oder zwei Wochen Zeit gibt.

Edit: Link (http://translate.google.com/translate?sl=auto&tl=en&prev=_t&hl=en&ie=UTF-8&u=http://www.comptoir-hardware.com/actus/cartes-graphiques/22921-les-sapphire-r9-290x-devoilees-avec-leurs-prix-.html) (bei B3D gesehen). Und die Franzosen haben 19,6% Mehrwertsteuer, also fast identisch zu unseren 19%. Und das sind die empfohlenen Preise. Angeblich hatte ein großer französischer e-tailer die 290X BF4 Edition schon mal kurz für 499€ gelistet, bevor es wieder von der Seite verschwunden ist.

horn 12
2013-10-23, 22:10:17
http://videocardz.com/47023/amd-radeon-r9-290-series-roundup

http://wccftech.com/sapphire-radeon-r9-290x-officially-costs-49999-51999-battlefield-4-bundle-tomorrow/

Ronny145
2013-10-23, 22:12:53
500€ war zu erwarten nach den Ami Preisen. Ich bin auf Nvidias Reaktion gespannt.

horn 12
2013-10-23, 22:18:39
Wohl Straßenpreise von 470 bis 490 Euro.
R9 290 dann wohl "magere" 380 / 390 Euro in einer Woche bei Release dieser kleineren Bruderkarte!

dargo
2013-10-23, 22:19:06
Sind doch nur 35w mehr als Titan.
Wären es bei 14°C weniger GPU-Temp. nicht etwas nur noch ca. 25W mehr? Oder ist das zu hoch gepokert?

Schaffe89
2013-10-23, 22:20:28
Wenn die Karte im Quietmodus betrieben wird und einigermaßen gekühlt wird, scheint AMD doch recht effizient zu sein.

Ich bin auf die Pro gespannt, die könnte eine GTX 780 in Performance per Watt vl sogar überbieten,sieht doch gar nicht so schlecht aus eigentlich?
35 Watt mehr als Titan bei wahrscheinlich identischer Performance + 5%? Referenzdesigns mit besseren Lüftern könnten nochmal nen Tick weniger verbrauchen.

horn 12
2013-10-23, 22:29:42
AMD behält sich wohl meinem eigenen "Horny" Treiber als Konter für die GTX 780 TI zurück, Wetten!
Rechne beim Verbrauch minimal mehr als Titan, KEINE 35 Watt.
Letzteres nur beim OC über 1 Ghz!

boxleitnerb
2013-10-23, 22:34:23
Das wird natürlich auf das Spiel und den jeweiligen Boost ankommen. Aber ich finde es schon lustig und auch traurig, dass Messergebnisse immer wieder angezweifelt bzw. ignoriert werden, nur weil man sie nicht wahrhaben will.

maximus_hertus
2013-10-23, 22:37:05
Also bei "uns" liegt die MSI 290X bei 640 Euro, die XFX sogar darüber (ok, Platzhalterpreis). Und (Stand heute) ohne Liefertermin... So gut wir bei CPUs sind (Preise, Launchlieferungen), so mies gehts bei uns manchmal bei den Grafikkarten zu :/

Nakai
2013-10-23, 22:42:10
Das wird natürlich auf das Spiel und den jeweiligen Boost ankommen. Aber ich finde es schon lustig und auch traurig, dass Messergebnisse immer wieder angezweifelt bzw. ignoriert werden, nur weil man sie nicht wahrhaben will.

Wieso? Zu schlecht? Titan-Niveau hald.

uweskw
2013-10-23, 23:05:53
500€ war zu erwarten nach den Ami Preisen. Ich bin auf Nvidias Reaktion gespannt.

Dann werd ich wohl bei 399,00 für die 290 pro zuschlagen... Die wird wohl knapp über 780er Niveau liegen.:smile::smile::smile: Ob ich da wohl meinen accelero xtreme III von meiner 570er drauf gebastelt bekomme???

Greetz
U.S.

Rente
2013-10-23, 23:25:24
Sie wird wohl unter Custom-780er Niveau liegen, die Frage ist dann eher ob Custom-290er das wieder aufholen können (wenn es überhaupt welche geben sollte, habe das nicht beobachtet).

Und warum sollte nVidia groß reagieren? Es kommt die 780 Ti, vermutlich eine neue Titan und die Preise werden ein wenig angepasst, fertig.
Bevor 1H/2014 vorbei ist wird nVidia wohl erst mal nur müde lächeln (übertrieben formuliert), genauso wie bei Tahiti <-> GK104 2012.

Wenn sich die Benchmarks so bewahrheiten und das OC-Potential nicht erstaunlich hoch ausfällt, ist das ehrlich gesagt ziemlich enttäuschend.
Tahiti wird sehr bald immerhin schon 2 Jahre alt und AMD hat nur aufgeholt und kommt jetzt über den Preis...

horn 12
2013-10-23, 23:27:43
Was gibt es an Gimnicks zu den AA / AF Modi
DownSampling im Treiber.
Was sagt der Spanier hierzu ?
Oder einfach noch gut 6 Stunden geduldig warten!

(del676)
2013-10-23, 23:45:28
Wohl Straßenpreise von 470 bis 490 Euro.
R9 290 dann wohl "magere" 380 / 390 Euro in einer Woche bei Release dieser kleineren Bruderkarte!

Sollte dem so sein. Dann gibts fuer mich 2 R9 290 im Quiet Modus. :)

aufkrawall
2013-10-23, 23:48:24
Von zwei 7970s?
Warum tut man so etwas? Lautstärke?

haudi
2013-10-23, 23:53:37
Sie wird wohl unter Custom-780er Niveau liegen, die Frage ist dann eher ob Custom-290er das wieder aufholen können (wenn es überhaupt welche geben sollte, habe das nicht beobachtet).

Und warum sollte nVidia groß reagieren? Es kommt die 780 Ti, vermutlich eine neue Titan und die Preise werden ein wenig angepasst, fertig.
Bevor 1H/2014 vorbei ist wird nVidia wohl erst mal nur müde lächeln (übertrieben formuliert), genauso wie bei Tahiti <-> GK104 2012.

Wenn sich die Benchmarks so bewahrheiten und das OC-Potential nicht erstaunlich hoch ausfällt, ist das ehrlich gesagt ziemlich enttäuschend.
Tahiti wird sehr bald immerhin schon 2 Jahre alt und AMD hat nur aufgeholt und kommt jetzt über den Preis...
Wie kann man da nur enttäuscht drüber sein? Du solltest eigentlich froh sein, dass das Geschäft neu aufgerührt wird - und die Mondpreise von NV hoffentlich endlich wieder in vernünftige Regionen gelenkt werden! Ich finde es beachtlich falls es die r9 290x tatsächlich zu release morgen für 500€ mit bf4 zu kaufen geben sollte - bekommst du sozusagen für 450€ ne tolle Karte auf und sogar öfter über Titan Niveau die mal schlappe 1000€ zu Release gekostet hat. Die 780er übrigens 649€. Und was sollte da nun bitte enttäuschend sein?

(del676)
2013-10-23, 23:56:34
Von zwei 7970s?
Warum tut man so etwas? Lautstärke?

Von 2x 7950, mit Arctic 7970s drauf. Die sind verdammt leise, auch bei 1100MHz.

Ne das macht man wegen +50% Speed (hoffentlich), und TrueAudio. :)

Edit: 0:01 und nix da. Also wohl wieder nach Ostkanadischer Zeit. GN8 X-D

dildo4u
2013-10-24, 00:06:02
The R9 290X represents AMD's fastest single-GPU video card ever produced. It is priced to be less expensive than the GeForce GTX 780, but packs a punch on the level of GTX TITAN. We look at performance, the two BIOS mode options, and even some 4K gaming.

http://hardforum.com/showthread.php?t=1787400

Screemer
2013-10-24, 00:10:21
http://hardforum.com/showthread.php?t=1787400This review will be published at 11:01PM CST tonight.

Screemer
2013-10-24, 00:13:16
http://hardforum.com/showthread.php?t=1787400This review will be published at 11:01PM CST tonight. das ist morgen früh 7 uhr, oder?

Edgecrusher86
2013-10-24, 00:16:15
6:01 müsste es doch sein - wie immer bei AMD hierzulande.

Rente
2013-10-24, 00:17:18
Wie kann man da nur enttäuscht drüber sein? Du solltest eigentlich froh sein, dass das Geschäft neu aufgerührt wird - und die Mondpreise von NV hoffentlich endlich wieder in vernünftige Regionen gelenkt werden! Ich finde es beachtlich falls es die r9 290x tatsächlich zu release morgen für 500€ mit bf4 zu kaufen geben sollte - bekommst du sozusagen für 450€ ne tolle Karte auf und sogar öfter über Titan Niveau die mal schlappe 1000€ zu Release gekostet hat. Die 780er übrigens 649€. Und was sollte da nun bitte enttäuschend sein?
Weil sie wohl quasi nur die gleiche Leistung bieten bzw. nur wenig darüber liegen und deswegen nun über den Preis kommen (zu welchem nVidia wohl auch Titan verkaufen könnte, wenn sie es nötig hätten).

Ein gutes Stück (15-20%+) drüber und ich wäre auch froh, so verbessert sich mehr oder weniger nur die Preisgestaltung auf dem Markt, ein Upgrade wird dadurch aber nicht schmackhafter imho. ;(
Es ist aber zum Glück immerhin eine bessere Situation als bei den CPUs...

horn 12
2013-10-24, 00:21:32
Wird wohl oft gleichauf, und einige Male auch schneller sein wenn auch nicht wenig.
Dann wird es auch Games geben wo R9 290X hinter Titan liegt, aber auch nicht viel!
Eine Ausgewogenheit sozusagen, aber dafür extrem Guter Preis!

Dem muss NV erst mal Paroli bieten können und VOR ALLEM WOLLEN !!!!

dildo4u
2013-10-24, 00:23:47
Titan ist ein kaputter Chip @ 800mhz natürlich können sie AMD vernichten.

uweskw
2013-10-24, 00:23:48
This review will be published at 11:01PM CST tonight. das ist morgen früh 7 uhr, oder?

Nee, 6:01 früh

http://www.worldtimebuddy.com/

greetz
U.S.

fondness
2013-10-24, 00:27:30
Titan ist ein kaputter Chip @ 800mhz natürlich können sie AMD vernichten.

Blödsinn das Ding taktet real mit 900-1000Mhz (wohl ähnlich wie die 290X). Allerdings hat NV natürlich das Potential zu kontern und wohl auch Hawaii zu schlagen.

Screemer
2013-10-24, 00:29:50
Titan ist ein kaputter Chip @ 800mhz natürlich können sie AMD vernichten.
der spruch ist für die ewigkeit.

StefanV
2013-10-24, 00:31:07
Allerdings hat NV natürlich das Potential zu kontern und wohl auch Hawaii zu schlagen.
Die Frage ist, ob sie das praktisch haben oder nur theoretisch bzw mit einem Papiertieger kontern können, der kaum bezahlbar und/oder verfügbar sein wird...

dildo4u
2013-10-24, 00:32:17
Die Frage ist, ob sie das praktisch haben oder nur theoretisch bzw mit einem Papiertieger kontern können, der kaum bezahlbar und/oder verfügbar sein wird...
Bei 1000€ gibt's keine Probleme mit Stückzahlen.

horn 12
2013-10-24, 00:38:21
Der Spanier wirkt nun weniger begeistert:

Te puedo contestar de varias formas..

Una.En modo reviewer...sí,claro.Rinde igual y vale mucho menos,pero tiene problemas de temps,de consumo ..etc..

Dos.Mi modo..por precio,desde luego.Pero tú sabes que ese,aunque es importante,no es mi mayor prioridad.

Yo juego,no bencheo,por experiencia propia sé que todos esos benchs framebuffer,en los que a mi resolución y tope de filtros,a 1080p no tengo ni idea,empatan.Es casi una victoria para Nvidia,y te explico el porqué..

Una 7970GHZ o 280X,no rinden mas que una GTX770,y sin embargo en esos benchs arrasan.Algunas veces hasta por un 15%..Entonces si por pirmera vez,una Nvidia,iguala en esos benchs de AMD a una bicha como esta...es como si en el Lost Planet 2,por ponerte un ejemplo,ganase la 290X...eso querría decir mucho,pero resulta que lo he probado,y se queda a 25 fps de la TITAN.Rinde un 25%-30% menos en ese bench que es Pronvidia..

Si a eso le añades,que a las GK110 se les puede sacar fácilmente un 20% extra y estable de OC,que a esta parace que no,o al menos de momento.Que sus temps están a años luz unas de otras,mientras la TITAN en auto no me pasa de 76º la otra está a 94...el consumo de 60W mas,y los drivers mas estables y genéricos para todos los juegos los tiene Nvidia ...pues la cosa cambia mucho.

Yo creo que con TITAN no vá la cosa ...la GTX 780 si se tiene que ver forzada a bajar,y si se pone a 500€ o menos,entonces si es una cosa para pensarla..Las AMD rinden mucho,rinden mas..pero creo que forzadamente..

Yo a mismo precio y mismo rendimiento teórico,Nvidia siempre.Ahora,si hay muchos € de diferencia y tus juegos están enfocados a AMD,esta claro que la 290X debería ser la escogida.

Me ha sorprendido su rendimiento,sinceramente,pero a costa de sacrificar muchas cosas..demasiadas a mi gusto.Por el ejemplo el CF una al lado de la otra es imposible,se ponen a 95º en un plis plas,y bajan frecuencias..eso también para mí es muy importante...etc..etc..

Yo creo que AMD ha conseguido lo que quería,aunque le vá a costar un tirón muy grande de orejas en las reviews si són serias con el tema de las temps y consumo.Que es que en los bench mas genéricos y mas fáciles de reproducir (los game envolved),supere a una GTX 780 y encima ha dado un golpe de efecto con el precio.Todo lo demás...dios driá..pero yo prefiero una GTX 780 aunque valga 30€ mas cara.

Y no te olvides de una cosa,este es el último cartucho de AMD durante bastante tiempo...era una arquitectura pensada para 20nm,de ahí sus problemas..pero Maxwell está a la vuelta de la esquina,unos 6-8 meses y promete ser demoledor..

Saludos y perdón por el tocho.

uweskw
2013-10-24, 00:41:21
290 Pro VS 780 TI
ca. gleich schnell
DX 11.2 DX 11.0
True Audio PhysX
Mantle G-Sync? (neuer Monitor fällig)
399.-USD 649.-USD (ohne Wertung)
Bildqualität: unentschieden
Treiber: unentschieden
GGPU: Für Gamer unwichtig
Stromverbrauch Games: Für Gamer unwichtig

Da fällt die Entscheidung nicht wirklich schwer.

Greetz
U.S.

Felixxz2
2013-10-24, 00:45:03
der spruch ist für die ewigkeit.

;D

aufkrawall
2013-10-24, 00:45:14
DX 11.2 DX 11.0

NV unterstützt mehr Features als nur 11.0, siehe BF4 oder die 8.1 Megatexture-Demo von MS.


399.-USD 649.-USD (ohne Wertung)

Die bleiben ja nicht so wie sie sind.


Bildqualität: unentschieden

Für den DAU kann man das so sagen.

fondness
2013-10-24, 00:47:58
Bei Mindfactory sind die 290X mittlerweile gelistet, die Asus ist lagernd:
http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29/Radeon+R9+Serie/R9+290X.html

dildo4u
2013-10-24, 00:51:02
Also Launch Preise erhöt im Verglich zu 7970/7970Ghz.

dargo
2013-10-24, 00:51:53
Bei Mindfactory sind die 290X mittlerweile gelistet, die Asus ist lagernd:
http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29/Radeon+R9+Serie/R9+290X.html
Vom Preis her sieht es ganz ok aus. Eventuell sind bei sehr guter Verfügbarkeit in 1-2 Monaten 500€ drin? Dennoch imo viel zu teuer für die Mehrleistung gegenüber Tahiti.

horn 12
2013-10-24, 00:54:09
Die 520 bis 540 Euro sehen wir schon morgen, Bis zum Launch der R9 290 (Ohne X) sind die Karten schon unter 500 Euro!

fondness
2013-10-24, 00:54:14
Vom Preis her sieht es ganz ok aus. Eventuell sind bei sehr guter Verfügbarkeit in 1-2 Monaten 500€ drin? Dennoch imo viel zu teuer für die Mehrleistung gegenüber Tahiti.

Auf jeden Fall. Offizielle Preisempfehlung ist AFAIK 519EUR für die BF4 Edition und 499EUR für die Version ohne BF4. Meistens liegen die Ladenpreise da schnell darunter.

uweskw
2013-10-24, 01:13:48
Hier ging es um BQ


.........

Für den DAU kann man das so sagen.

Ahhh, wer also nach 150 Seiten Tread AA-Bits und kombinierte AA-Modi, (bei dem die "Profis" weiterhin diskutieren welchea AA-Bit nun das richtige für welches Spiel ist!) immer noch nicht das richtige AA-Bit aus dem Ärmel schüttelt ist also ein DAU?
Was meinst du vieviel PROMILLE der NV - Käufer AA-Bits richtig!(:freak:) anwenden? Bist du einer von denen?

Der 08/15-User wird mit AMD immer noch leichter zu einer 95% BQ kommen als mit NV. Out of the Box hat AMD nach wie vor (minimalste) Vorteile. Dazu muss man aber schon mit der Lupe suchen. Beim zocken fällt das eh nicht auf.

Greetz
U.S.

N0Thing
2013-10-24, 01:19:12
Edit: 0:01 und nix da. Also wohl wieder nach Ostkanadischer Zeit. GN8 X-D

Kein Wunder, es hieß ja auch 06:01 MESZ. ;-)

Schaffe89
2013-10-24, 01:19:14
Also Launch Preise erhöt im Verglich zu 7970/7970Ghz.

Nö, da wurde gar nix erhöht. Wir sehen wahrscheinlich recht bald Preise unter 500 Euro für die 290x und unter 400 für die 290

dildo4u
2013-10-24, 01:21:34
Nö, da wurde gar nix erhöht. Wir sehen wahrscheinlich recht bald Preise unter 500 Euro für die 290x und unter 400 für die 290
In der Computerbase Test stehen 500€ am Tag des Launches.

Schaffe89
2013-10-24, 01:26:48
Die 290x hat einen Listenpreis von 549 US Dollar oder nicht?

290 Pro VS 780 TI
ca. gleich schnell

Die 290 wird in etwa so schnell wie die GTX 780, die TI wird sicherlich 10 bis 15% schneller.

dildo4u
2013-10-24, 01:29:46
Jup und die 7970ghz 499$ bzw 450€.

The Radeon HD 7970 GHz edition will be introduced in the 449 EUR / 499 USD price tag bracket

http://www.guru3d.com/articles_pages/radeon_hd_7970_ghz_edition_review,1.html

Skysnake
2013-10-24, 01:35:20
6:01 müsste es doch sein - wie immer bei AMD hierzulande.
Ja, das sollte der Fall sein.

Aber schon krass, das AMD es wirklich geschafft hat praktisch alle Leaks komplett zu unterbinden :uup::ubash2:

Wann gabs das in der Form schon? Wenn ich mich recht erinnere, gab es selbst bei GK110 früher mehr Leaks. Zwar auch sehr spät, aber nicht so krass spät. Jetzt sinds ja nicht mal mehr 5 Stunden, und wir wissen nichts, was AMD uns nicht wissen lassen wollte
Titan ist ein kaputter Chip @ 800mhz natürlich können sie AMD vernichten.
Ähm... ja.... :facepalm:

Ronny145
2013-10-24, 01:45:12
Leaks gab es eigentlich jede menge, nur eben gestückelt und nicht im ganzen wie so oft.

Schaffe89
2013-10-24, 01:47:18
Jup und die 7970ghz 499$ bzw 450€.

Im CB Launchartikel stehen 549 US Dollar als Listenpreis und ich gehe davon aus, die 290x wirdn den gleichen haben, bzw 499 Euro kosten.

horn 12
2013-10-24, 06:02:26
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r9-290x-im-test/

Locuza
2013-10-24, 06:07:52
Während der Consumer-Markt bei Compute mit einfacher Genauigkeit (Single Precision (SP), 32 Bit) bereits ausreichend bedient ist, benötigt der professionelle Markt des Öfteren die doppelte Genauigkeit (Double Precision (DP), 64 Bit). Hawaii fällt bei DP wie Tahiti auf ein Viertel der SP-Leistung zurück (Anstatt 5,6 TFLOPs bei SP 1,4 TFLOPs bei DP) – Gerüchte, bei Hawaii könnte der Einbruch nur 50 Prozent betragen, haben sich nicht bewahrheitet.

Auf Nachfrage teilte uns Michael Mantor, Senior Fellow und Graphics and Visualization Architect bei AMD, allerdings mit, dass diese Einschränkung „möglicherweise nur für die Radeon-Produktklasse“ gilt. Es ist also durchaus im Bereich des Möglichen, dass die professionellen Fire-Pro-Karten mit einem 1:2-Verhältnis daher kommen.

Mhhh....

Cyv
2013-10-24, 06:15:22
So, wo kann ich bestellen? Eigentlich könnten die Shops doch dann ab heute liefern :(

OgrEGT
2013-10-24, 06:33:29
Also Leistung gleichauf mit Titan bei mehr Verbrauch und höherer Lautstärke des Referenzkühlers... Preislich allerdings attraktiver... Temps deutlich höher aber ungefährlich bei > 90°C allerdings Geschmackssache...

Am Ende eine solide Vorstellung wobei der ausschlaggebende Punkt der Preis oder da Leistung vgl.bar P/L ist...

Dinge wie Mantle oder True Audio werden ihren Nutzen erst noch zeigen müssen...

Ubermode
2013-10-24, 06:51:42
Damit das nicht noch mehr verwirrt, hier AMDs offizielle Aussagen:

549 USD plus VAT (örtlich verschieden)
399 EUR plus MWSt (je nach Land verschieden)

Eine klare Ansage zum deutschen Preis machte man nicht, rechnerisch wären das 474,81 Euro. Ich denke nicht, dass wir die anfangs unter 499 Euro sehen werden, aber auch das finde ich sehr fair.

Cyv
2013-10-24, 07:00:16
Was meint ihr, für CF eher Ref-Design, da die warme Luft aus dem Case befördert wird? Custom-Desigsn verwirbeln die Luft nur, meine Asus 7970 mit VaporChamper wird ebenfalls sehr laut, da warm...

HTB|Bladerunner
2013-10-24, 07:17:40
Klasse, dass die PCGH die Karte im "Silent-Modus" einer Umgebungstemperatur von 29°C ausgesetzt hat. So lässt sich auch ein Unterschied zum "Uber-Modus" feststellen. Da wurde mitgedacht, im Gegensatz zu vielen anderen Reviews. :up:

TheCounter
2013-10-24, 08:07:11
Eine klare Ansage zum deutschen Preis machte man nicht, rechnerisch wären das 474,81 Euro.

Bei Computerbase steht: 499EUR (UVP)

Sollte also bald für ~450EUR zu haben sein.

V2.0
2013-10-24, 08:46:59
Man fragt sich wie AMD seine Preise macht?

gnahr
2013-10-24, 08:57:19
Bei Computerbase steht: 499EUR (UVP)

Sollte also bald für ~450EUR zu haben sein.
wo ist da der zusammenhang? das wäre wenn überhaupt nur möglich, so die verfügbarkeit gut gegeben ist.

AnarchX
2013-10-24, 10:04:47
http://forums.overclockers.co.uk/showthread.php?t=18551534

... die geblurte Karte ist wohl möglich die R9 290.

Botcruscher
2013-10-24, 10:07:58
Ich freue mich auf die 290. Insgesamt schreit die Karte ja geradezu nach WaKü. Titanleistung ist erreicht und der Preis ist heiß. Möge der Preiskampf beginnen. NV ist dank seiner Abzocke bei mir erst mal lange unten durch.

deekey777
2013-10-24, 10:11:18
Man fragt sich wie AMD seine Preise macht?
Langsamerer Speicher, günstige Fertigung, einfachere Kühlung.

V2.0
2013-10-24, 10:23:42
Langsamerer Speicher, günstige Fertigung, einfachere Kühlung.

Und zumindest Punkt 3 ist doch ne dumme Idee. 30 Euro mehr in den Kühler gesteckt und die Reviews fallen ungleich besser aus. Würde am P/L Verhältnis gegenüber der Konkurrenz zum jetzigen Zeitpunkt aber praktisch nichts ändern. So sind die BF4 Launchkarten imho praktisch nicht kaufbar. Da lieber ne EVGA ACX SC 780.

Skysnake
2013-10-24, 11:08:04
AMD verzichtet einfach auf etwas Marge/Unit, um den Marktanteil hoch zu drücken. Davon haben Sie mehr, da sich die Fixstückkosten dadurch reduzieren, und am Ende unterm STrich mehr Geld in der KAsse ist als mit nem höheren Preis und weniger verkauften Karten. Zudem schade man nVidia mit ihren hohen Margen.



Während der Consumer-Markt bei Compute mit einfacher Genauigkeit (Single Precision (SP), 32 Bit) bereits ausreichend bedient ist, benötigt der professionelle Markt des Öfteren die doppelte Genauigkeit (Double Precision (DP), 64 Bit). Hawaii fällt bei DP wie Tahiti auf ein Viertel der SP-Leistung zurück (Anstatt 5,6 TFLOPs bei SP 1,4 TFLOPs bei DP) – Gerüchte, bei Hawaii könnte der Einbruch nur 50 Prozent betragen, haben sich nicht bewahrheitet.

Auf Nachfrage teilte uns Michael Mantor, Senior Fellow und Graphics and Visualization Architect bei AMD, allerdings mit, dass diese Einschränkung „möglicherweise nur für die Radeon-Produktklasse“ gilt. Es ist also durchaus im Bereich des Möglichen, dass die professionellen Fire-Pro-Karten mit einem 1:2-Verhältnis daher kommen.
JA WAT DENN NU????

WAs aber schon mal ziemlich Scheise von AMD ist, ist die Limitierung auf 1:8... :down:

Das muss wirklich nicht sein....

dutchislav
2013-10-24, 11:12:18
wird nach der 5780 wohl meine nächste radeon, nachdem meine 480gtx schon ausm letzten loch pfeift :D

wasserkühlung auch vorhanden also kann ich auf die temps gacken

M4xw0lf
2013-10-24, 11:13:18
WAs aber schon mal ziemlich Scheise von AMD ist, ist die Limitierung auf 1:8... :down:

Das muss wirklich nicht sein....
Die wollen doch nicht etwa Geld mit Profikarten verdienen...? :uponder:

Hübie
2013-10-24, 11:15:19
Die wollen doch nicht etwa Geld mit Profikarten verdienen...? :uponder:

Diese pöhsen AMD'ler ;D:freak:

scnr

Skysnake
2013-10-24, 11:39:06
Die wollen doch nicht etwa Geld mit Profikarten verdienen...? :uponder:
Das hängt nicht davon ab, ob man DP beschneidet oder nicht...

Wer wirklich als Firma wirkich ne Profikarte braucht, der kauft sich diese auch wegen ECC und den Treibern.

Für größere Einrichtungen fallen die Konsumerkarten einfach schon wegen dem fehlenden ECC für dern RAM raus.

Die paar Entwickler und Unis machen den Kohl nicht fett. Zumal es bei denen oft heist: Wir haben X €. Wieviel Bums bekommen wir dafür?

Sprich kostet ne Karte weniger, gibts halt mehr davon ;)

Iruwen
2013-10-24, 11:45:25
wasserkühlung auch vorhanden also kann ich auf die temps gacken

Dem Infrarotbild nach zu urteilen lechzt die Karte nach Wakü. Aber ich warte erstmal die 780Ti ab.

Flusher
2013-10-24, 12:03:06
Hmm, im Performance Modus 6 % bessere Gesamtperformance gegenüber der Titan, jedoch 55 % höherer Spieleverbrauch

http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index46.php

http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php

Nunja - ich glaube auf die 6 % werden die meisten im Hinblick auf die deutlich höhere Leistungsaufnahme dann doch pfeifen, und das Teil im Quiet-Modus laufen lassen.

asdf25
2013-10-24, 12:06:21
in der PDF datei steht was von gewindelänge darf nicht mehr als 5mm betragen... http://www.aquatuning.de/product_info.php/info/p3625_10-8mm--8x1mm--Anschraubt-lle-G1-4---Typ-2.html könnte mir evlt. jemand sagen ob diese anschlüsse mit dem EK FC 290x Kühler kompatibel sind :D.

boxleitnerb
2013-10-24, 12:13:49
Hmm, im Performance Modus 6 % bessere Gesamtperformance gegenüber der Titan, jedoch 55 % höherer Spieleverbrauch

http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index46.php

http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php

Nunja - ich glaube auf die 6 % werden die meisten im Hinblick auf die deutlich höhere Leistungsaufnahme dann doch pfeifen, und das Teil im Quiet-Modus laufen lassen.

Naja Titan säuft in seinem "Performance Modus" auch an die 265W, da sieht es nicht mehr so schlimm aus, weil beide Karten ineffizient werden.
Ist aber schon krass, in was für Regionen das geht. Die ungebremste GTX 480 hat ht4u damals in Furmark mit 318W gemessen.

deLuxX`
2013-10-24, 12:23:51
Hmm, im Performance Modus 6 % bessere Gesamtperformance gegenüber der Titan, jedoch 55 % höherer Spieleverbrauch

http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index46.php

http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php

Nunja - ich glaube auf die 6 % werden die meisten im Hinblick auf die deutlich höhere Leistungsaufnahme dann doch pfeifen, und das Teil im Quiet-Modus laufen lassen.
Ja, schätze ich auch. Wir sind einfach schon viel zu lange auf 28nm...

V2.0
2013-10-24, 13:41:50
Das sind 6% mit einem schelchten Kühler, unreifen Treibern und ohne Mantle. Das könne schnell auch 20-50% Differenz daraus werden. hardcop hat ja getestet, dass es alleine 10% bringt wenn man dem Lüfter erlaubt auf bis zu 100% Drehzahl zu gehen.

boxleitnerb
2013-10-24, 13:46:10
Das sind 6% mit einem schelchten Kühler, unreifen Treibern und ohne Mantle. Das könne schnell auch 20-50% Differenz daraus werden. hardcop hat ja getestet, dass es alleine 10% bringt wenn man dem Lüfter erlaubt auf bis zu 100% Drehzahl zu gehen.

In einem Spiel von zwei getesteten - das andere hat Null Unterschied gezeigt...daraus lässt sich wohl kaum etwas verallgemeinern. Ironischerweise ist in den Spiel, wo es 10% gebracht hat, Titan immer noch schneller.

Knuddelbearli
2013-10-24, 13:53:48
kann ein Mod hier malo für paar tage zumachen? hawaii haat hier ja nix mehr zu suchen.

ohne kurzzeitsperrung spammen die Leute hier aber gleich weiter

Gipsel
2013-10-24, 14:03:10
JA WAT DENN NU????

WAs aber schon mal ziemlich Scheise von AMD ist, ist die Limitierung auf 1:8... :down:

Das muss wirklich nicht sein....So richtig klar ist das momentan noch nicht. Einige behaupten 1:4 DP-Rate (Profi-Karten evtl. 1:2?), PCGH sagt 1:8 für die Consumer-Variante (FirePros dann mit 1:4 oder 1:2?). Die wenigen DP-Benchmarks sehen bisher allerdings eigenartig aus und sprechen eher für 1:8, wenn das kein Treiber-Problem ist.

===============================

Aber nochmal was Anderes. An den ROPs hat sich scheinbar auch was getan, insbesondere auch bei den ROP-Caches, wie man hier sieht:

http://abload.de/img/img004311819ph8.png

Die 64 ROPs hauen beim Blending alles weg, was es bisher zu kaufen gab. Das ist insbesondere interessant, weil die Tahiti-ROPs recht effizient arbeiteten (wegen der relativ hohen Bandbreite für nur 32 ROPs). Offenbar hat AMD auch bei den ROP-Caches was geändert (oder die nur vergrößert?). Auch bei Bonaire ist das zu beobachten (fiel damals wohl bloß nicht auf). Denn Blending, insbesondere mit 64Bit-Farbformaten (4xFP16), hing bisher an der Speicherbandbreite (wie man beim Vergleich von Tahiti und Pitcairn sieht, beide 32 ROPs), pro Pixel werden bei FP16x4 16 Byte benötigt und das Zugriffsmuster bei Füllratentests trasht die ROP-Caches ständig (weil jeder Pixel im Frame nur einmal geschrieben wird, bevor man das wieder überschreibt).
Tahitis 16 GPixel/s (bei 64Bit Blending) nutzen also 256GB/s DRAM-Bandbreite (von vorhandenen 288GB/s). Die 35,2 GPixel/s von Hawaii entsprechen allerdings bereits 563GB/s, soviel hat der Chip aber gar nicht. Das ist also ganz offensichtlich ein Cacheeffekt (etwas Ähnliches sieht man in einem geringeren Maße auch bei den Kepler-GPUs, da nutzen aber die ROPs auch den weit größeren L2-Cache und nicht die spzialisierten ROP-Caches wie bei AMD). Bei Bonaire das gleiche Bild: 10,4 GPixel/s (mehr als Pitcairn bei halber ROP-Anzahl) oder 166 GB/s genutzte Bandbreite bei einem Speicherinterface mit 96 GB/s? Ganz offensichtlich ein Cacheeffekt. Nur bei 4xFP32 Formaten funktioniert das Caching offenbar irgendwie nicht mehr (skaliert nur mit der kleinen Bandbreitensteigerung gegenüber Tahiti: 320/288*7,6 = 8,4), oder Hawaiis ROPs sind mit dem Format (praktisch kaum genutzt) langsamer.

Im Vergleich zu GK110 ergibt sich jetzt interessanterweise, daß Hawaii beim Schreiben/Blenden mit 64Bit Framebufferformaten überlegen ist (eigentlich bei allen, bei 3xFP10 oder 1xFP32 ist der Vorsprung sogar am größten [Faktor 4,6 :freak:], aber etwas weniger praxisrelevant), wenn diese aber unter Anwendung von Texturfiltern wieder eingelesen werden (beispielsweise für Compositing oder PostFX), ist GK110 schneller.

fondness
2013-10-24, 14:07:53
Hmm, im Performance Modus 6 % bessere Gesamtperformance gegenüber der Titan, jedoch 55 % höherer Spieleverbrauch

http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index46.php

http://ht4u.net/reviews/2013/amd_radeon_r9_290x_hawaii_review/index21.php

Nunja - ich glaube auf die 6 % werden die meisten im Hinblick auf die deutlich höhere Leistungsaufnahme dann doch pfeifen, und das Teil im Quiet-Modus laufen lassen.

Der Test ist seltsam, wo sind die Verbrauchswerte für Titan ohne Bremse? Wenn man damit bencht sollte man die auch anführen. Bei der 290X hat man das schließlich auch gemacht. Ja Titan ist Energieffizienter, aber die beiden Karten trennen keine Welten, ganz im Gegenteil.

Locuza
2013-10-24, 15:26:46
[...]

Im Vergleich zu GK110 ergibt sich jetzt interessanterweise, daß Hawaii beim Schreiben/Blenden mit 64Bit Framebufferformaten überlegen ist (eigentlich bei allen, bei 3xFP10 oder 1xFP32 ist der Vorsprung sogar am größten [Faktor 4,6 :freak:], aber etwas weniger praxisrelevant), wenn diese aber unter Anwendung von Texturfiltern wieder eingelesen werden (beispielsweise für Compositing oder PostFX), ist GK110 schneller.
PCGH hat einen kleinen Absatz dazu geschrieben:
Spannend ist überdies die in Hawaii erhöhte Shader-Exportrate zu den Raster-Endstufen: Hierdurch können nun auch 64-Bit-Blending-Operationen schneller ausgeführt werden - um genau zu sein mehr als doppelt so schnell wie auf der HD 7970, da noch Verbesserungen in den ROPs selber hinzukommen. Nützlich ist das beispielsweise für echtes HDR-Rendering mit 64 Bit pro Pixel und 16 Bit FP-Genauigkeit pro RGBA-Kanal.


http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290X-im-Test-1093796/2/

2. Wie genau könnte man es erklären, dass der GK110 dennoch schneller ist?

Rancor
2013-10-24, 15:41:27
Wann gibts die Karten im Custom Design= Die Referenzkarte kommt ja mal gar net in Frage.

Gipsel
2013-10-24, 16:15:14
PCGH hat einen kleinen Absatz dazu geschrieben:

http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290X-im-Test-1093796/2/Die Erklärung von PCGH ist nicht stimmig. Die Export-Rate muß man überhaupt nicht steigern, wenn man schnelleres Blending haben will. ROP-Exports sind "fire and forget" Operationen. Bei einem Export wird auch bei Blending immer nur der Farbwert von den Shadern zu den ROPs "exportiert" (also transferiert), für Blending wird also keine höhere Export-Rate benötigt. Ob das den vorhandenen Farbwert im Rendertarget überschreibt oder irgendwie mit ihm verrechnet wird, ist dafür vollkommen unerheblich, das handhaben die ROPs alleine. Was also übrig bleibt ist eventuell schnelleres Blending des 4xFP16-Format (wobei es da auch Aussagen bzw. Benchmarks mit tiled Zugriff auf Rendertargets [so daß man die ROP-Caches optimal nutzt und die Speicherbandbreite nicht limitiert] gibt, daß das auch schon vorige Generationen angeblich können) und eben Änderungen beim Caching. Und die Füllraten-Benchmarks sprechen zumindest eindeutig für Letzteres (schließen natürlich ein intrinsisch schnelleres Blending auch nicht aus).
2. Wie genau könnte man es erklären, dass der GK110 dennoch schneller ist?Wie gesagt ist das Lesen (mit Filter, also Texturzugriffe) von 4xFP16 Daten auf Kepler schneller, insbesondere, da Kepler tendentiell auch mehr TMUs besitzt (Titan 224 vs. 176 bei der 290X). Die Texturcaches sind auch etwas größer (insbesondere der L2; L1 läßt sich schlechter vergleichen, da Kepler 32kB oder 48kB für jeweils 16 TMUs hat, GCN je 16kB für 4 TMUs).
Und natürlich ist die Frontendgeschichte bei Kepler immer noch massiver ausgeführt, was sich unter bestimmten Bedingungen ebenfalls zeigen dürfte.

StefanV
2013-10-24, 20:28:16
Langsamerer Speicher, günstige Fertigung, einfachere Kühlung.
Sorry, aber der letzte Punkt ist einfach nur bullshit...

Aber hey, ist halt ein AMD Kühler, der nicht voll auf Bling-Bling ausgerichtet ist, wie bei nV...

Skysnake
2013-10-25, 00:27:37
So richtig klar ist das momentan noch nicht. Einige behaupten 1:4 DP-Rate (Profi-Karten evtl. 1:2?), PCGH sagt 1:8 für die Consumer-Variante (FirePros dann mit 1:4 oder 1:2?). Die wenigen DP-Benchmarks sehen bisher allerdings eigenartig aus und sprechen eher für 1:8, wenn das kein Treiber-Problem ist.

1:8 wäre echt doof.

1:2 kann ich mir aber kaum vorstellen, wenn Sie auf 1:8 runter gehen. Das wäre total unlogisch. Die Limitierung von 1:2 auf 1:4 würde ja schon völlig! ausreichen. Da muss man die DP-Leistung nicht auch noch unter Tahiti drücken...

Gibts eigentlich schon neue Programmer Guides? Und ist vor allem endlich was zu GDS und global Sync drin? :mad:

Wenn jetzt wieder nichts kommt, tick ich so langsam aus...


===============================

Aber nochmal was Anderes. An den ROPs hat sich scheinbar auch was getan, insbesondere auch bei den ROP-Caches, wie man hier sieht:

http://abload.de/img/img004311819ph8.png

Die 64 ROPs hauen beim Blending alles weg, was es bisher zu kaufen gab. Das ist insbesondere interessant, weil die Tahiti-ROPs recht effizient arbeiteten (wegen der relativ hohen Bandbreite für nur 32 ROPs). Offenbar hat AMD auch bei den ROP-Caches was geändert (oder die nur vergrößert?). Auch bei Bonaire ist das zu beobachten (fiel damals wohl bloß nicht auf). Denn Blending, insbesondere mit 64Bit-Farbformaten (4xFP16), hing bisher an der Speicherbandbreite (wie man beim Vergleich von Tahiti und Pitcairn sieht, beide 32 ROPs), pro Pixel werden bei FP16x4 16 Byte benötigt und das Zugriffsmuster bei Füllratentests trasht die ROP-Caches ständig (weil jeder Pixel im Frame nur einmal geschrieben wird, bevor man das wieder überschreibt).
Tahitis 16 GPixel/s (bei 64Bit Blending) nutzen also 256GB/s DRAM-Bandbreite (von vorhandenen 288GB/s). Die 35,2 GPixel/s von Hawaii entsprechen allerdings bereits 563GB/s, soviel hat der Chip aber gar nicht. Das ist also ganz offensichtlich ein Cacheeffekt (etwas Ähnliches sieht man in einem geringeren Maße auch bei den Kepler-GPUs, da nutzen aber die ROPs auch den weit größeren L2-Cache und nicht die spzialisierten ROP-Caches wie bei AMD). Bei Bonaire das gleiche Bild: 10,4 GPixel/s (mehr als Pitcairn bei halber ROP-Anzahl) oder 166 GB/s genutzte Bandbreite bei einem Speicherinterface mit 96 GB/s? Ganz offensichtlich ein Cacheeffekt. Nur bei 4xFP32 Formaten funktioniert das Caching offenbar irgendwie nicht mehr (skaliert nur mit der kleinen Bandbreitensteigerung gegenüber Tahiti: 320/288*7,6 = 8,4), oder Hawaiis ROPs sind mit dem Format (praktisch kaum genutzt) langsamer.

Im Vergleich zu GK110 ergibt sich jetzt interessanterweise, daß Hawaii beim Schreiben/Blenden mit 64Bit Framebufferformaten überlegen ist (eigentlich bei allen, bei 3xFP10 oder 1xFP32 ist der Vorsprung sogar am größten [Faktor 4,6 :freak:], aber etwas weniger praxisrelevant), wenn diese aber unter Anwendung von Texturfiltern wieder eingelesen werden (beispielsweise für Compositing oder PostFX), ist GK110 schneller.
Da kann ich dir nicht mehr folgen ;D

In den Grafik.Pipelines bin ich einfach zu wenig drin. Ich seh jetzt auch grad gar nicht, was du meinst mit der Limitierung.

Auf dem Diagramm passt doch alles. Das wird halt wohl einfach das Bandbreitenlimit des Caches sein, oder was meinst du jetzt?