PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31 32 33 34 35 36

LSSJBroly
2013-10-18, 13:32:27
http://videocardz.com/46929/official-amd-radeon-r9-290x-2160p-performance-17-games

Falls noch nicht bekannt...


Das sind doch die selben Werte, die HT4U gestern genannt hatte - welche direkt von AMD kommen.

V2.0
2013-10-18, 13:34:21
Titan-Killer - aber habe ich ja immer gesagt.

M4xw0lf
2013-10-18, 13:35:45
Das sind doch die selben Werte, die HT4U gestern genannt hatte - welche direkt von AMD kommen.
Aber jetzt haben wir schöne bunte Balken! :D

Schaffe89
2013-10-18, 13:36:50
Glaubt das wirklich jemand? Bei dieser Temperatur geht's ums nackte Überleben.


Der Wink mit dem Zaunpfahl... und keiner merkts..^^

Rancor
2013-10-18, 13:38:31
Was bringt es wenn man immer noch nicht weiss wann die Karten denn wirklich kommen.

LSSJBroly
2013-10-18, 13:39:03
Aber jetzt haben wir schöne bunte Balken! :D

Immerhin :D

Titan-Killer - aber habe ich ja immer gesagt.
Nach deiner Logik ist die Titan ein GTX 780-killer oder die HD 7970 GE ein 7970-killer:freak::hammer:

Gipsel
2013-10-18, 13:40:33
Der Wink mit dem Zaunpfahl... und keiner merkts..^^Wieso? Daß das Ding im Quiet-Mode öfter mal Throtteln könnte, bezweifelt doch keiner. Nur das "nackte Überleben" ist halt reichlich übertrieben.

Armaq
2013-10-18, 13:40:57
Skyrim Performance ist echt gut.

boxleitnerb
2013-10-18, 13:41:33
Vielleicht meint Raff auch, dass die Karte doch nicht so heiß wird...

M4xw0lf
2013-10-18, 13:42:24
Immerhin :D


Nach deiner Logik ist die Titan ein GTX 780-killer oder die HD 7970 GE ein 7970-killer:freak::hammer:
Killer ist natürlich V2.0-Trolleritis, aber die gleiche Leistung für hunderte Oyrows weniger ist dennoch ein nicht zu verachtendes Argument :)

dildo4u
2013-10-18, 13:42:38
Skyrim,Sleeping Dog's und MP3 sieht sehr nah V-Ram überlauf aus bei der 780.Skyrim ist vorallem komisch da dort NV immer gut vorne liegt.

http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index24.php

Ubermode
2013-10-18, 13:43:15
Es ist übrigens extrem ungewöhnlich, dass ein Unternehmen ausdrücklich darum bittet, Benchmarks aus dem Reviewers Guide zu veröffentlichen. In der Regel ist das sogar ausdrücklich verboten - ich habe ein ähnliches Dokument von einer anderen Firma erst am Montag wieder gesehen, mit dem rot gedruckten Hinweis, es nicht zu veröffentlichen.

M4xw0lf
2013-10-18, 13:45:12
Es ist übrigens extrem ungewöhnlich, dass ein Unternehmen ausdrücklich darum bittet, Benchmarks aus dem Reviewers Guide zu veröffentlichen. In der Regel ist das sogar ausdrücklich verboten - ich habe ein ähnliches Dokument von einer anderen Firma erst am Montag wieder gesehen, mit dem rot gedruckten Hinweis, es nicht zu veröffentlichen.
Ich meine mich an recht regelmäßige Veröffentlichungen von Nvidia-eigenen Benchmarks zu erinnern... Kann natürlich sein, dass die von extra-Folien stammen und nicht aus dem Reviewer's Guide.

Gipsel
2013-10-18, 13:45:19
Vielleicht meint Raff auch, dass die Karte doch nicht so heiß wird...Er hat aber das "won't throttle" gefettet und sich offenbar darauf bezogen. ;)

LSSJBroly
2013-10-18, 13:45:25
aber die gleiche Leistung für hunderte Oyrows weniger ist dennoch ein nicht zu verachtendes Argument :)

Die selbe Leistung erhält man aber schon seit Monaten mit einer GTX 780 (OC) - zwar auch teuer, aber nicht ganz so wie die Titan. Hoffentlich bringt AMD da mal etwas Wettbewerb rein, ich will SLI

V2.0
2013-10-18, 13:46:17
Nach deiner Logik ist die Titan ein GTX 780-killer oder die HD 7970 GE ein 7970-killer:freak::hammer:

110% der Leistung für 60% der Preises. Das fehlt Deinen Beispielen.

fondness
2013-10-18, 13:47:10
Skyrim,Sleeping Dog's und MP3 sieht sehr nah V-Ram überlauf aus bei der 780.Skyrim ist vorallem komisch da dort NV immer gut vorne liegt.

http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index24.php

Tja, wenn man bei NV mehr wie 3Gb VRAM will muss man eben 1000EUR hinblättern.

M4xw0lf
2013-10-18, 13:47:13
Die selbe Leistung erhält man aber schon seit Monaten mit einer GTX 780 (OC) - zwar auch teuer, aber nicht ganz so wie die Titan. Hoffentlich bringt AMD da mal etwas Wettbewerb rein, ich will SLI
Ich wette was drauf dass die Preise sowohl der GTX780 als auch der Titan, R290X, und R290 jetzt nicht lange stabil sein werden.

Sven77
2013-10-18, 13:48:12
Skyrim,Sleeping Dog's und MP3 sieht sehr nah V-Ram überlauf aus bei der 780.

Das sieht nicht nur danach aus, das ist mehr als offensichtlich.

dildo4u
2013-10-18, 13:49:12
Tja, wenn man bei NV mehr wie 3Gb VRAM will muss man eben 1000EUR hinblättern.
Für 4K sind die Karten eh zu langsam vorallem wenn jetzt die Next-Gen Umsetzungen kommen.BF4,Watch Dogs ,Witcher 3 etc kannste Vergessen@4k.

fondness
2013-10-18, 13:50:54
Für 4K sind die Karten eh zu langsam vorallem wenn jetzt die Next-Gen Umsetzungen kommen.BF4,Watch Dogs ,Witcher 3 etc kannste Vergessen@4k.

Eine Karte ist vielleicht manchmal zu langsam, aber spätestens mit SLi/CF ist das allemal schnell genug.
Außerdem laufen auf der 290X alle dort gemachten Benchs mit >30fps.

Schaffe89
2013-10-18, 13:52:37
Vielleicht meint Raff auch, dass die Karte doch nicht so heiß wird...

Klar meint er das, er hat zwar "wont throttle" zitiert, aber wahrscheinlich regelt die Karte schon bei 88 Grad im Quiet Modus etwas runter, 94 Grad ist totaler Bullshit und wahrscheinlich nur bei besonderen Bedingungen zu erreichen.


Warscheinlich Ausum Mode mit Furmark...

Genauso der Unsinn mit den 60 Watt Mehrverbrauch im Furmark auf Spiele zu übertragen, ich leg mich da jetzt mal entschieden fest.

LSSJBroly
2013-10-18, 13:58:04
110% der Leistung für 60% der Preises. Das fehlt Deinen Beispielen.

Mein Posting bezog sich rein auf dein Performance-empfinden :freak:

boxleitnerb
2013-10-18, 13:58:05
Klar meint er das, er hat zwar "wont throttle" zitiert, aber wahrscheinlich regelt die Karte schon bei 88 Grad im Quiet Modus etwas runter, 94 Grad ist totaler Bullshit und wahrscheinlich nur bei besonderen Bedingungen zu erreichen.


Warscheinlich Ausum Mode mit Furmark...

Genauso der Unsinn mit den 60 Watt Mehrverbrauch im Furmark auf Spiele zu übertragen, ich leg mich da jetzt mal entschieden fest.

Das Zitierte hab ich ganz übersehen. Dann ziehe ich meinen Kommentar zurück. 90+ Grad scheinen mir möglich, immerhin sitzt das Temp Target entsprechend hoch, das hätte man nicht gemacht, wenn man es nicht ausnutzen wollte.

Und du hast ja immer noch kein brauchbares Gegenargument gebracht bzgl. der 60W. Du solltest dir vielleicht nochmal mein Zitat bzgl. PT 2.0 von weiter vorne durchlesen, ist schon ein paar Wochen her ;)

Sven77
2013-10-18, 13:59:08
Eine Karte ist vielleicht manchmal zu langsam, aber spätestens mit SLi/CF ist das allemal schnell genug.
Außerdem laufen auf der 290X alle dort gemachten Benchs mit >30fps.

Bei der Spielbarkeit sind aber min. FPS entscheidend und nicht irgendwelche Durchschnittswerte. Und bei CF/SLI in 4K werden 4GB VRam auch knapp werden ausser man benutzt die zweite Karte wirklich nur um mehr Frames zu bekommen

fondness
2013-10-18, 13:59:59
Das einzige was der Furmak-Wert zeigt, ist, dass NV dort früher drosselt. Ganz großes Kino. Es ist seit langem bekannt das beide IHVs den Furmark längst in den Treibern erkennen und entsprechend drosseln. Man braucht sich nur die unterirdische Performance der NV-Karten im Furmark anzusehen, aber das schaut sich ja niemand an, es wird immer nur die Leistungsaufnahme gemessen.

M4xw0lf
2013-10-18, 14:02:17
Bei der Spielbarkeit sind aber min. FPS entscheidend und nicht irgendwelche Durchschnittswerte. Und bei CF/SLI in 4K werden 4GB VRam auch knapp werden ausser man benutzt die zweite Karte wirklich nur um mehr Frames zu bekommen
Wenn du in Sekunde eins des Benchmarks einen Drop auf 2 FPS durch einen Nachladeruckler hast und danach KONSTANT 30 FPS - dann sagt dir der min FPS-Wert von 2 was genau über die Spielbarkeit?

dargo
2013-10-18, 14:02:28
Für 4K sind die Karten eh zu langsam vorallem wenn jetzt die Next-Gen Umsetzungen kommen.BF4,Watch Dogs ,Witcher 3 etc kannste Vergessen@4k.
Das sehe ich anders. Oft reichen schon zwei Karten aus. Und man muss nicht mal 2x R9 290X nehmen. 2x R9 290 reichen auch. Dennoch hat man 4GB Vram für 4k zum Preis einer Titan. :D Wichtig wäre hier (und das wünsche ich mir für die CF-User), dass AMD sich stärker um CF kümmert. Wenn CF durchgehend brauchbar ist bedeutet das automatisch mehr Absatz bei High-End.

[dzp]Viper
2013-10-18, 14:02:29
http://videocardz.com/46929/official-amd-radeon-r9-290x-2160p-performance-17-games

Falls noch nicht bekannt...
wow... Nicht schlecht wenn das stimmt B-)

dildo4u
2013-10-18, 14:04:11
Außerdem laufen auf der 290X alle dort gemachten Benchs mit >30fps.
Jo weil Teilweise nicht auf Max gestellt wurde die Metro FPS sind viel zu hoch.Wenn man die Dirt Showdown Werte sieht kommt man zum Schluss,das es eins der wenige@Max Games dort ist.Die ganzen Anspruchsvollen Games(Crysis 3,Metro,FC3 etc) haben sonst immer schlechtere FPS als Dirt Showdown.

boxleitnerb
2013-10-18, 14:04:53
Das einzige was der Furmak-Wert zeigt, ist, dass NV dort früher drosselt. Ganz großes Kino. Es ist seit langem bekannt das beide IHVs den Furmark längst in den Treibern erkennen und entsprechend drosseln. Man braucht sich nur die unterirdische Performance der NV-Karten im Furmark anzusehen, aber das schaut sich ja niemand an, es wird immer nur die Leistungsaufnahme gemessen.

Die Performance im Furmark ist doch irrelevant, es geht darum bei welcher Leistungsaufnahme genau gedrosselt wird. Da Boost 2.0 keinen Unterschied zwischen Furmark und Spielen macht (beides wird bei 100 bzw. 106% abgewürgt), erwarte ich etwas Ähnliches auch bei AMD. Durch das globale PowerTarget ist eine spezielle Erkennung doch gar nicht mehr nötig. 250W sind 250W.

dargo
2013-10-18, 14:06:19
Jo weil Teilweise nicht auf Max gestellt wurde die Metro FPS sind viel zu hoch.
Max ist nicht immer sinnvoll. ;)

LSSJBroly
2013-10-18, 14:07:21
Durch das globale PowerTarget ist eine spezielle Erkennung doch gar nicht mehr nötig. 250W sind 250W.

Jup. Flash mal ein BIOS Mod mit 100%=360/440 Watt - da rennt die Titan/780 dann mit vollem Boost durch, und abartigem Verbrauch :fresse:
Eine Treiberdrossel gab es noch nie für Kepler-GPUs.

M4xw0lf
2013-10-18, 14:09:45
Die Performance im Furmark ist doch irrelevant, es geht darum bei welcher Leistungsaufnahme genau gedrosselt wird. Da Boost 2.0 keinen Unterschied zwischen Furmark und Spielen macht (beides wird bei 100 bzw. 106% abgewürgt), erwarte ich etwas Ähnliches auch bei AMD. Durch das globale PowerTarget ist eine spezielle Erkennung doch gar nicht mehr nötig. 250W sind 250W.
Aber das heißt ja nicht, dass ein durchschnittliches Spiel in der Lage ist, eine solche Auslastung zu erzeugen um ebenfalls die 250W zu erreichen.

Palpatin
2013-10-18, 14:14:01
Bei der Spielbarkeit sind aber min. FPS entscheidend und nicht irgendwelche Durchschnittswerte. Und bei CF/SLI in 4K werden 4GB VRam auch knapp werden ausser man benutzt die zweite Karte wirklich nur um mehr Frames zu bekommen
Ich finde die 4GB passen da imo genau, 2GB für 1080p/1200p, 3GB für 1600p/1440p und 4GB für 2160p, Eyefinity. Das es natürlich vielleicht ein Spiel und 2-3 Mods geben die das Schema sprengen kann gut sein. Hauptproblem ist noch der Preis der 4K Displays aber das kann sich sehr schnell ändern.

boxleitnerb
2013-10-18, 14:14:04
Aber das heißt ja nicht, dass ein durchschnittliches Spiel in der Lage ist, eine solche Auslastung zu erzeugen um ebenfalls die 250W zu erreichen.

Richtig. Da wird man sehen müssen, wie oft das in der Praxis auftritt. Ich meine nur, es ist verführt, sich gegen diese Möglichkeit gleich völlig zu sperren, nur weil sie einem nicht passt.

M4xw0lf
2013-10-18, 14:16:47
Richtig. Da wird man sehen müssen, wie oft das in der Praxis auftritt. Ich meine nur, es ist verführt, sich gegen diese Möglichkeit gleich völlig zu sperren, nur weil sie einem nicht passt.

Nuja, 250W mit der Leistung wären gegenüber der 7970-GigawattEdition auch ein Fortschritt ^^

Sunrise
2013-10-18, 14:20:48
Hmm, also videocardz.com (http://videocardz.com/46929/official-amd-radeon-r9-290x-2160p-performance-17-games) schreibt, dass die AMD Bench-Ergebnisse mit dem Uber-Mode durchgeführt wurden. Wenn das stimmt, würde es eigentlich Sinn ergeben, dass man diesen gewählt hat, weil der Quiet-Mode evtl. doch "trottelt".

y33H@
2013-10-18, 14:24:00
Uber und Quiet klingt nicht danach als sei die Leistung nennenswert unterschiedlich.

Palpatin
2013-10-18, 14:27:41
Finde das mit den 2 Modi nicht schlecht, wichtig ist noch das die Tester unter halbwegs realistischen Bedingungen testen und dann gibt es für die beiden Modi jeweils einen anderen Balken. Sowohl was Leistung als auch Lautstärke des Ref. Design angeht. Was die Custom Modelle dann leisten wird man sehen aber vermutlich ein best of der beiden Modi.

Hübie
2013-10-18, 14:38:12
Du kannst GPUs jahrelang ununterbrochen bei 95°C betreiben. Habe ich selber gemacht (sogar bei 100-105°C, 24/7, an die 2 Jahre lang, das Ding funktioniert immer noch). Solange Spannung und Takt konservativ genug gewählt sind, geht das ohne Probleme.
Im Umkehrschluß heißt das dann (wie boxleitnerb schon richtig bemerkte) daß da bei niedrigeren Temperaturen (besserer Kühlung) Luft für mehr Takt sein sollte.

Na vergiss aber nicht die Komponenten in nächster Umgebung. Der häufigste Ausfall von Grafikkarten ist nicht GPU sondern Spannungsversorgung oder VRAM. Ich stehe dem ebenfalls noch skeptisch gegenüber, weil die Praxis oft zeigte dass zu heiße Systeme nicht so lange halten.

Schaffe89
2013-10-18, 14:39:17
Die Performance im Furmark ist doch irrelevant, es geht darum bei welcher Leistungsaufnahme genau gedrosselt wird.

Die Performance ist ebenso relevant, da man hier sieht inwieweit die Karten gedrosselt werden.
Man kann Karten auch anders drosseln als nur durch den Takt....

Ich stehe dem ebenfalls noch skeptisch gegenüber

Erklär doch mal warum du deine Argumentation auf Furmark werten aufbaust, ist das nicht ein wenig unseriös?

boxleitnerb
2013-10-18, 14:43:57
Die Performance ist ebenso relevant, da man hier sieht inwieweit die Karten gedrosselt werden.
Man kann Karten auch anders drosseln als nur durch den Takt....


Man sollte meinen, es wäre interessant ab wo gedrosselt wird. Ob ich jetzt Lastzyklen auslasse oder den Takt und die Spannung senke ist unerheblich, wenn es um die Frage geht, ob diese Prozesse bei 200, 250 oder 300W einsetzen. Und was soll das heißen "inwieweit die Karten gedrosselt werden"? Das ergibt gar keinen Sinn, denn wenn eine Leistungsaufnahme von z.B. 250W erreicht ist, setzen besagte Prozesse ein, so dass diese 250W gehalten werden. Ist ja nicht so, dass eine Karte dann auf 180 und die andere auf 225 und die dritte auf 250W gedrosselt wird. Es geht wirklich nur um die Schwelle, das sollte doch echt nicht so schwer zu verstehen sein, oder?

Eggcake
2013-10-18, 14:49:33
@boxleitnerb
Es war doch die Rede davon, dass die Hersteller Furmark spezifisch detecten und die Karten bereits vorzeitig drosseln, unabhängig davon wieviel verbraucht wird/wie hoch die Temp wird.

boxleitnerb
2013-10-18, 14:51:30
@boxleitnerb
Es war doch die Rede davon, dass die Hersteller Furmark spezifisch detecten und die Karten bereits vorzeitig drosseln, unabhängig davon wieviel verbraucht wird/wie hoch die Temp wird.

Das wurde zumindest bei Nvidia doch längst widerlegt. Oder meinst du, es ist Zufall, dass ht4u die Drosselung bei Anno 2070 und bei Furmark beim exakt selben Verbrauchswert beobachtet hat, der dazu noch perfekt zum eingestellten Powertarget passt? Es gibt keine spezifische Erkennung mehr, ganz einfach.

Gipsel
2013-10-18, 15:11:11
Na vergiss aber nicht die Komponenten in nächster Umgebung. Der häufigste Ausfall von Grafikkarten ist nicht GPU sondern Spannungsversorgung oder VRAM. Ich stehe dem ebenfalls noch skeptisch gegenüber, weil die Praxis oft zeigte dass zu heiße Systeme nicht so lange halten.Die Spannungswandler werden doch typischerweise sowieso wärmer als die GPU. Wenn Du die Haltbarkeit davon verändern willst (und vielleicht noch ein paar übriggebliebener Elkos in der Nähe, die sind temperaturempfindlich und aus diesem Grund auch kaum auf GraKas zu finden), dann muß man die entsprechend besser kühlen. SpaWas sind meistens für einen Betrieb bei über 100°C ausgelegt (oft bis 140°C mit Derating). Hält man da die Specs ein, sollten die auch halten.

Screemer
2013-10-18, 15:20:39
Du hast schon bemerkt das der Unterschied bei gerade einmal 0,26fps bzw. 0,1fps liegt? Das ist nichts.
und genau darum geht es ihm. die Karte müsste vorgeheizt um zu sehen ob sie bei längerer last runtertaktet. da reichen die kurzen bench Sequenzen nicht aus. so ist es auch bei der Titan. das führt zu besseren Ergebnissen in benches als im alltagseinsatz.

Raff
2013-10-18, 15:25:20
Uber und Quiet klingt nicht danach als sei die Leistung nennenswert unterschiedlich.

Bei der HD 6990 war es das zumindest:

1. Laut, stromhungrig, normaler Takt
2. Abartig laut, abartig versoffen, leicht erhöhter Takt

Bei der R9 290X kann es gar nicht so schlimm werden.

MfG,
Raff

ndrs
2013-10-18, 15:26:35
Man kann Karten auch anders drosseln als nur durch den Takt....

Nämlich? Wenn du sagen willst, dass ein Teil des Shaderarrays oder so abgeschaltet wird, dann wäre das aber überaus ineffizient. Mehr niedrig getaktete Einheiten (mit entsprechend verringerter Spannung) sind immer effizienter als wenige hochgetaktete.

Schaffe89
2013-10-18, 15:29:01
Es geht wirklich nur um die Schwelle, das sollte doch echt nicht so schwer zu verstehen sein, oder?

Und wer sagt dir wie AMD die Schwelle im Furmark ansetzt?AMD kanndie Schwelle höher setzen, damit in Games sogut wie nie der Takt unterschritten wird, genauso wie bei ner HD 6970.
Die Schwelle hat aber immernoch nichts mit demVerbrauch zu tun, dasist alles pure Spekulation, anstatt bis morgen um 06:01 zu warten.

AMD hat die gleiche TDP wie bei der HD 7970ghz angekündigt, ergo auch vergleichbarer Verbrauch.

AMD kann die Schwelle auch höher ansetzen, damit es @ Stock noch OC Potenzial gibt, das sind so viele Parameter, es ist volkommener Blödsinn da so einseitig zu spekulieren.

Furmark zieht immer um die 40 Watt mehr Strom, das wird immer Mittel über mehrere Spiele nur selten in Peaks erreicht, völlig unbedeutend für die Praxis.
Und warum die Titans in dem Test nur ~ 80 Grad warm werden und AMD eben nicht, liegt einfach an der stärkeren Drosselung.

Wahrscheinlich hätte AMD den Takt auch noch höher ansetzenkönnen, lässt aber noch Spielraum für Partner OC Modelle.

Nämlich?

Lastzyklen auslassen, die FPS limitieren, die Karte taktet immernoch gleich, arbeitet aber nicht so viel.

Nakai
2013-10-18, 15:33:15
Mhh, es wird Winter und AMD liefert eine temperatur- und stromverbrauchgesteuerte Taktung...ein Schelm wer Böses denkt. ;)

Ahja, alles andere als Kühlerdesigns von Drittherstellern ist hierbei sowieso nicht ratsam. Wenn AMD DP 1:2 liefert, dann übertrumpft Hawaii sowieso alles was Nvidia liefern kann. Die paar Prozente Unterschied in Spielen interessieren doch eh niemandem.

mfg

€: NV wird so schnell eh nix neues bringen, siehe GTX780i. Frühestens in H2 2014. Da kommt AMD auch mit neuen Chips.

Angiesan
2013-10-18, 15:38:18
Na wenn das so ist muss man aber bei der Titan und GTX 780 auch per Tool das PT und vor allem das TT lockern und dann gucken was die Karten verbrauchen und wie schnell die Lüfter drehen. Ansonsten sollte man out of the Box messen.
Ob dann der User den Übermod per Biosschalter wählt ist dann ja seine Sache.

Ist auch interessant wie die Karten dann sich zueinander verhalten, das testen ja auch nicht alle, HT4U macht das aber und da kann man schon mal sehen was geht wenn die Dinger nicht gebremst werden, aber nicht nur die Leistung auch der Verbrauch steigt dann.

Pick
2013-10-18, 15:48:47
Hawaii XTX mit 8GB - Q1 2014
Bermuda XT mit 8GB, 28nm, ~500mm^2 - Q3 2014

Badner1972
2013-10-18, 16:00:40
Hawaii XTX mit 8GB - Q1 2014
Bermuda XT mit 8GB, 28nm, ~500mm^2 - Q3 2014
Bermuda?? noch nix davon gehört,nichtmal hier?
Gibts dazu mehr "handfeste" Beweise ? 03Quartal 2014 reden wir sicher über 20nm Fertigung Maxwell bzw. Pirate Islands?!
Zudem Hawaii soll doch schon 438mm² haben..im alten Node nochmal nachlegen? Interessant abe rfür mich selbst als Laie nicht sehr wahrscheinlich

Duplex
2013-10-18, 16:08:08
Hawaii XTX mit 8GB - Q1 2014
Antwort auf die GTX Titan Ultra ist logisch.
Lohnt sich aber nur mit 1,1Ghz+


Bermuda XT mit 8GB, 28nm, ~500mm^2 - Q3 2014
Antwort auf Maxwell 28nm wäre auch möglich.

Hast du eine Quelle oder kommt das nur aus deinem Kopf?

Ich weiß nicht was ich davon halten soll, ein riesen DIE von AMD?
Ich glaube man wird im Q4/14 mit einem 20nm Chip gegen Nvidia antreten.

Nakai
2013-10-18, 16:18:21
Hawaii XTX mit 8GB - Q1 2014
Bermuda XT mit 8GB, 28nm, ~500mm^2 - Q3 2014

Pirate Islands kommen in 20nm. Außerdem fehlen noch die Grafiklösungen mit den Namen Maui, Iceland und Tonga. Da das R2xx-Lineup schon voll ist, kann man davon ausgehen, dass nicht alle diese Namen als Grafikkarten auf den Markt kommen werden. Wenn Kaveri ein GDDR5-Interface hat, könnte es auch HSA-Karten geben. Der Kabini-Nachfolger Beema/Mullins wird auch ne Grafiklösung(mit HSA-Support) beinhalten.
Weil dieser Thread ziemlich mit Hawaii geflutet ist, sra wir doch mal die Aufmerksamkeit wieder auf Maui, Iceland und Tonga.

Im derzeitgen Lineup müssen Oland und Pitcairn/Curacao und Tahiti noch ersetzt werden, da sie vom Techlevel ziemlich alt sind. Mit Kaveri und Kabini/Beema gibts dann ab nächsten Jahr Chips mit Grafikleistungen im unteren Bereich. Oland wird nicht mehr benötigt ein Ersatz muss her, am Besten in 20nm(ähnlich RV740 in 40nm).

Keine Ahnung was wir sehen werden, ich denke es wird sehr ähnlich zu Solar Systems/Mars fürs Notebook werden. Wir sehen H1 2014 einen Chip im unteren Mobile-Segment von AMD.

Ein doppelter Oland in 20nm sollte unter 100mm² liegen(512-768SPs). Wäre auch interessant, so einen Chip mit Kaveri zu koppeln.

Tahiti geht bis Mitte 2014, ab da könnte Ersatz auf dem Markt kommen.
Damit könnte man auch gleich Curacao ersetzen. 270X und 280X liegen viel zu nahe beinander. 4fach Frontend, 24-28CUs, 20nm, 256Bit SI.

Pirate Islands sehen wir dann Ende 2014/Anfang 2015.

Palpatin
2013-10-18, 16:26:21
Na wenn das so ist muss man aber bei der Titan und GTX 780 auch per Tool das PT und vor allem das TT lockern und dann gucken was die Karten verbrauchen und wie schnell die Lüfter drehen. Ansonsten sollte man out of the Box messen.
Ob dann der User den Übermod per Biosschalter wählt ist dann ja seine Sache.

Wenn die Herstellergarantie durch den Biosschalter nicht beeinflusst wird ist das nicht das gleiche wie PT und TT lockern welches die Herstellergarantie erschlischen lässt.

LSSJBroly
2013-10-18, 16:28:13
Wenn die Herstellergarantie durch den Biosschalter nicht beeinflusst wird ist das nicht das gleiche wie PT und TT lockern welches die Herstellergarantie erschlischen lässt.

Das verändern des PT und des TT bei Geforce-Karten ist innerhalb der Garantie - es ist ein feature von GPU-Boost 2.0

Palpatin
2013-10-18, 16:38:15
Das verändern des PT und des TT bei Geforce-Karten ist innerhalb der Garantie - es ist ein feature von GPU-Boost 2.0
Ohne Mod geht das bei der Titan ja nur ganz Minimal oder? und mit Mod ist die Garantie futsch?

LSSJBroly
2013-10-18, 16:42:44
Ohne Mod geht das bei der Titan ja nur ganz Minimal oder? und mit Mod ist die Garantie futsch?


Ohne mod reichts trotzdem, stock, ohne den Offset zu verändern, sogut wie immer den max. Boost zu fahren...

Schaffe89
2013-10-18, 16:53:43
Wie erreicht du das @ LSSJBroly?

Hohe Temps, hohe Lautstärke?

Sven77
2013-10-18, 17:00:14
Also wenn ich das PT auf 106% setze liegen bei mir durchgehend 1045Mhz an, und die Titan wird in keinem Spiel wirklich heisser als 85C. Und das in nem normal belüfteten Midi-Tower

tm0975
2013-10-18, 17:01:49
AMD (und Nvidia) stört es sicher auch nicht wenn die Lebensdauer auf Grund der hohen Temperaturen sinkt. Wenn die Chips (unter schlechten Bedingungen) 2 1/2 Jahre durchhalten reicht das...

2,5 Jahre sind nciht witzig, vor allem nicht bei Notebooks. Wir kaufen seit der Radeon HD 3xxx Serie nur noch radeon. früher war geforce die erste wahl. als aber in den notebooks reihenweise die chips durchgebraten sind, teilweise am gehäuse von außen erkennbar, war schluß damit. bis jetzt ist uns noch eine einzige radeon "gestorben", lediglich die eine 6970 war eindeutig zu laut.Daher ist die chip-temperatur schon nicht ganz unwichtig, aber eben nicht das einzige merkmal für lebensdauer. allerdings interessiert die temperatur nur bei praxisnahen szenarien (geschlossenes gehäuse, normale raumtemperaturen, echte produktive anwendungen bzw spiele).

LSSJBroly
2013-10-18, 17:04:11
Wie erreicht du das @ LSSJBroly?

Hohe Temps, hohe Lautstärke?

etwa 85°C und etwas lauter, aber immer noch nicht wirklich schlimm (meine GTX 780). Wenn ich die GPU wärmer laufen lasse (etwa 90°C), ist das ding so laut wie stock mit TT=80°C, nur eben fast immer mit konstant max Boost

Iruwen
2013-10-18, 17:38:03
Hier schonmal die Antwort auf die 290X:
http://i.imgur.com/FLxuS3q.png
:D

Angiesan
2013-10-18, 17:39:10
Wenn man nicht zusätzliches OC betreibt sind alle 3 GTX 780 die ich hatte je nach Anwendung bei 82°-85° C geblieben, der Lüfter geht dann aber über die 2000-2100RPM hinaus und erreichte in Crysis 3 auch schon mal 2500 -2600 RPM das ist nicht wirklich leise aber immer noch erträglich, darüber wird es dann aber laut.

Wenn die R9 so einen Kühler bekommt ist das Ding gekauft, der Titan und GTX 780 Kühler ist abseits von OC ein echtes Sahnestück , schön,edel und leistungsstark und normalerweise leise und nie aufdringlich zumindest bei der GTX 780 ohne OC.

fondness
2013-10-18, 17:41:13
Hier schonmal die Antwort auf die 290X:
http://i.imgur.com/FLxuS3q.png
:D

Wie unerwartet. :rolleyes:

Skysnake
2013-10-18, 18:24:54
Na vergiss aber nicht die Komponenten in nächster Umgebung. Der häufigste Ausfall von Grafikkarten ist nicht GPU sondern Spannungsversorgung oder VRAM. Ich stehe dem ebenfalls noch skeptisch gegenüber, weil die Praxis oft zeigte dass zu heiße Systeme nicht so lange halten.
DAnn nimmt man halt bessere Bauteile, die für die entsprechenden Temperaturen spezifiziert sind und gut ist. ;)

horn 12
2013-10-19, 05:37:08
http://imgur.com/a/MEXNo

uweskw
2013-10-19, 14:32:52
Gibt es mittlerweile ofizielle Preise?

Greetz
U.S.

Hübie
2013-10-19, 15:02:05
Hier schonmal die Antwort auf die 290X:
http://i.imgur.com/FLxuS3q.png
:D

;D;D Was besseres konnte man nicht so schnell aus der Schublade kramen. Mehr ALUs, Takt aber weniger Bitbreite des IMC und man is wieder im Rennen. :rolleyes:

@ skysnake: Das kostet aber wieder ;)

Skysnake
2013-10-19, 15:59:33
Weil ich meinte da kommt dieses JAhr nichts mehr Neues?

Also die Karte ist jetzt nicht wirklich Neu wies scheint.

Man muss schauen, wieviele SMX und Ram drauf sind. Je nachdem ist das halt wie nen Custom-Design. Mehr nicht. Nicht alles was einen neuen Namen hat, verdient den auch ;)

Siehe Tahiti...

Hübie
2013-10-19, 18:23:37
Afaik 5 GB und 2496 ALUs. Ein IMC-Cluster is deaktiviert.

Meine Aussage bezog sich auf bessere Komponenten verbauen.

Skysnake
2013-10-19, 20:57:28
Ah ok.

Ja klar kostet das, aber die MEhrkosten sind meist sehr sehr bescheiden. Das ist oft eher Gewinnmaximierung.

Ubermode
2013-10-19, 21:07:13
Gibt es mittlerweile ofizielle Preise?

Nein. Die gibt es bei neuen Grafikkarten im Highend - wo Leaks besonders vermieden werden sollen - immer erst 1-2 Tage vorher.

Und das ist auch das Spannendste an der 290X, denn wenn sie auch in kleineren Auflösungen die die 780 schlägt, wird Nvidia deren Preis senken müssen und dann eine 780 Ti preislich zwischen 780 und Titan setzen müssen.

Dann hätten wir vermutlich ne Menge Single-GPUs über 500 Euro, und es gibt ne große Lücke zwischen der 280X und denen...

Duke Nukem
2013-10-19, 21:32:53
Hier schonmal die Antwort auf die 290X:
http://i.imgur.com/FLxuS3q.png
:D
Keine Holzschrauben wie beim Ferni ? :smile:

Sven77
2013-10-19, 21:49:41
http://imgur.com/a/MEXNo

:rolleyes: Wenn man also die 780 bewusst ins VRAM-Limit jagt kann man sich ein paar Frames davon stehlen. Für mich sieht das eher enttäuschend aus..

M4xw0lf
2013-10-19, 21:57:34
Die drei GB limitieren unter 4k mit Standardsettings nicht. PCGH hat erst vor nicht allzu langer Zeit einen großen Test mit Titan, 780 und 7970 3GB / 6GB gemacht - es braucht schon Skyrim mit ungefähr allen vorhandenen Texturmods um da Nachladeruckler zu provzieren.

Sven77
2013-10-19, 21:59:22
Wie erklärst du dir dann die min. Fps bei der 780GTX?

M4xw0lf
2013-10-19, 22:14:07
Gar nicht. Min FPS (gerade bei einem einzigen Durchlauf eines Benchmarks) sind Schall und Rauch.

Zergra
2013-10-19, 23:53:17
Hier schonmal die Antwort auf die 290X:
http://i.imgur.com/FLxuS3q.png
:D
Wohl eher auf die 290 ohne X :D

Gipsel
2013-10-20, 01:50:40
Von videocardz gibt es jetzt auch einen Vergleich des Quiet- und des Über-Modes (http://videocardz.com/46990/amd-radeon-r9-290x-crossfire-performance-leaks), außerdem die Settings für die Benchmarks. Daraus läßt sich ableiten, wann die 290X im Quiet-Mode ihren Maximaltakt hält und wann nicht (z.B. Dirt Showdown in 4k mit 8xMSAA [~6% Unterschied], FarCry3 in 4k [~8% Unterschied] oder Grid2 in 4k und 8xMSAA [~3%]). Außerdem gibt es den Firestrikewert, um das mit der bei 8000 abgeschnittenen Skala aufzuklären:

http://videocardz.com/images/2013/10/R9-290X-3Dmark-official.jpg

matty2580
2013-10-20, 03:36:11
Vielen Dank noch einmal an die Runde hier. ^^
Ohne Euch wäre meine News bei PCGH nicht möglich gewesen.
http://extreme.pcgameshardware.de/user-news/289180-leak-zur-neuen-grafikkarten-generation-von-amd-hawaii.html#post5556578
Ich bin immer wieder beeindruckt gewesen von den Sachverstand in dieser Runde, besonders von den beiden Mods hier.
Gegen Euch komme ich mir wie ein ganz kleines Licht vor. Bin ich wahrscheinlich auch....^^
thx...

Skysnake
2013-10-20, 09:28:10
Von videocardz gibt es jetzt auch einen Vergleich des Quiet- und des Über-Modes (http://videocardz.com/46990/amd-radeon-r9-290x-crossfire-performance-leaks), außerdem die Settings für die Benchmarks. Daraus läßt sich ableiten, wann die 290X im Quiet-Mode ihren Maximaltakt hält und wann nicht (z.B. Dirt Showdown in 4k mit 8xMSAA [~6% Unterschied], FarCry3 in 4k [~8% Unterschied] oder Grid2 in 4k und 8xMSAA [~3%]). Außerdem gibt es den Firestrikewert, um das mit der bei 8000 abgeschnittenen Skala aufzuklären:

http://videocardz.com/images/2013/10/R9-290X-3Dmark-official.jpg
OVER 9000! :eek:;D

Also das ist schon sehr überraschend. Mit 8500, von mir aus auch 8999/9001 hätte ich jetzt gerechnet, aber nicht mit >9650. Da hat AMD ja wirklich tief gestapelt. Ob die wohl nVidia provozieren wollten frühzeitig die Hosen runter zu lassen, damit Sie den Takt notfalls noch etwas anheben können, um auch auf den Konter vorne zu bleiben?

@Gipsel:
Ah ja danke, an den Boost habe ich nicht gedacht. Das ist wirklich ne gute Erklärung, das selbst im Quiet Mode einfach fast immer der maximale Turbo von 1GHz wohl anliegt.

Ich bin mal wirklich gespannt, was die Karte da säuft. Wahrscheinlich maximal ihre 225W. Bleibt dann natürlich offen, wie stark man Sie noch OCn kann.

Das wird echt noch spannend.

R.I.P.
2013-10-20, 09:54:34
OVER 9000! :eek:;D

Also das ist schon sehr überraschend. Mit 8500, von mir aus auch 8999/9001 hätte ich jetzt gerechnet, aber nicht mit >9650. Da hat AMD ja wirklich tief gestapelt. Ob die wohl nVidia provozieren wollten frühzeitig die Hosen runter zu lassen, damit Sie den Takt notfalls noch etwas anheben können, um auch auf den Konter vorne zu bleiben?

@Gipsel:
Ah ja danke, an den Boost habe ich nicht gedacht. Das ist wirklich ne gute Erklärung, das selbst im Quiet Mode einfach fast immer der maximale Turbo von 1GHz wohl anliegt.

Ich bin mal wirklich gespannt, was die Karte da säuft. Wahrscheinlich maximal ihre 225W. Bleibt dann natürlich offen, wie stark man Sie noch OCn kann.

Das wird echt noch spannend.

Ich will endlich eine verfügbare Karte! Mein PC lässt gerade die Eingeweide raushängen und will endlich ein neues Organ!

fondness
2013-10-20, 09:56:25
Von videocardz gibt es jetzt auch einen Vergleich des Quiet- und des Über-Modes (http://videocardz.com/46990/amd-radeon-r9-290x-crossfire-performance-leaks), außerdem die Settings für die Benchmarks. Daraus läßt sich ableiten, wann die 290X im Quiet-Mode ihren Maximaltakt hält und wann nicht (z.B. Dirt Showdown in 4k mit 8xMSAA [~6% Unterschied], FarCry3 in 4k [~8% Unterschied] oder Grid2 in 4k und 8xMSAA [~3%]). Außerdem gibt es den Firestrikewert, um das mit der bei 8000 abgeschnittenen Skala aufzuklären:

http://videocardz.com/images/2013/10/R9-290X-3Dmark-official.jpg

Nachdem der 3dmark-Firestrike-Wert aktuell eigentlich ganz gut zur allgemeinen Performance passt, festigt sich immer mehr das schon bekannt Bild: Die 290X liegt wohl knapp über der TITAN. Allerdings nicht weit genug, dass NV nicht kontern könnte. Bleibt die Frage ob AMD noch eine "GhzEdition" nachlegen kann oder ob man gleich alle Karten aufdeckt.

/Edit: Die fehlende Bridge scheint jedenfalls kein Nachteil für die Skalierung zu sein:

http://img209.imageshack.us/img209/7339/xklg.jpg (http://imageshack.us/photo/my-images/209/xklg.jpg/)

Sunrise
2013-10-20, 10:12:23
Nachdem der 3dmark-Firestrike-Wert aktuell eigentlich ganz gut zur allgemeinen Performance passt, festigt sich immer mehr das schon bekannt Bild: Die 290X liegt wohl knapp über der TITAN. Allerdings wohl nicht weit genug, dass NV nicht kontern könnte. Bleibt die Frage ob AMD noch eine "GhzEdition" nachlegen kann oder ob man gleich alle Karten aufdeckt.

/Edit: Die fehlende Brdige scheint jedenfalls kein Nachteil für die Skalierung zu sein:

http://img209.imageshack.us/img209/7339/xklg.jpg (http://imageshack.us/photo/my-images/209/xklg.jpg/)
NV arbeitet da wie ein Uhrwerk sehr pünktlich, wenn AMD neue High-End-Hardware vorstellt. Man feuert aus allen Rohren zurück (die G-Sync-Geschichte kommt ja auch noch dazu), während sie die letzten Monate einfach nur ruhig zugeguckt haben.

Die 780Ti wird also wohl genau dieser Konter sein.

Man muss sich einfach mal vorstellen, dass man wohl zwei 290X für einen kleineren Aufpreis als die ursprüngliche TITAN bekommt. Da muss NV einfach reagieren.

Also entweder hat das Ding wirklich GK180 drauf, oder aber es sind die selektieren GK110-GPUs, die man üblicherweise auf eine Dual-Karte verbaut hat. Da hatte man ja jetzt genug Zeit zu sammeln.

fondness
2013-10-20, 10:18:29
NV arbeitet da wie ein Uhrwerk sehr pünktlich, wenn AMD neue High-End-Hardware vorstellt. Man feuert aus allen Rohren zurück (die G-Sync-Geschichte kommt ja auch noch dazu), während sie die letzten Monate einfach nur ruhig zugeguckt haben.

Die 780Ti wird also wohl genau dieser Konter sein.

Man muss sich einfach mal vorstellen, dass man wohl zwei 290X für einen kleineren Aufpreis als die ursprüngliche TITAN bekommt. Da muss NV einfach reagieren.

Also entweder hat das Ding wirklich GK180 drauf, oder aber es sind die selektieren GK110-GPUs, die man üblicherweise auf eine Dual-Karte verbaut hat. Da hatte man ja jetzt genug Zeit zu sammeln.

Das NV kontert ist allerdings keine Überraschung. Jeder weiß, dass Titan nicht den vollen Chip verwendet und noch Taktreserven hat. Die Frage ist ob AMD auch darauf vorbereitet ist. Ansonsten hat AMD mit Mantle und True-Audio wohl auch ganz gut vorgelegt, da muss NV was bringen wenn man nicht völlig aus den Schlagzeilen verdrängt werden will. Die Frage ist ja auch wie viel NV noch auf Titan drauf legen kann. Es zeigt sich auf jeden Fall wieder mal das Konkurrenz das Geschäft belebt. ;)

M4xw0lf
2013-10-20, 10:22:59
Nachdem der 3dmark-Firestrike-Wert aktuell eigentlich ganz gut zur allgemeinen Performance passt, festigt sich immer mehr das schon bekannt Bild: Die 290X liegt wohl knapp über der TITAN. Allerdings nicht weit genug, dass NV nicht kontern könnte. Bleibt die Frage ob AMD noch eine "GhzEdition" nachlegen kann oder ob man gleich alle Karten aufdeckt.

/Edit: Die fehlende Bridge scheint jedenfalls kein Nachteil für die Skalierung zu sein:

http://img209.imageshack.us/img209/7339/xklg.jpg (http://imageshack.us/photo/my-images/209/xklg.jpg/)
Das schreit nach Vergleichstests in Abhängigkeit der PCIe-Bandbreite. Die Tests von AMD hier entstanden bei 2x PCIe 3.0 x16?

fondness
2013-10-20, 10:38:13
Inzischen tauchen zahlreichen Kartons der Retail-Versionen auf, zu Beginn kommt wohl nur die BF4-Edition (a full game and a door-hanger inside^^):

http://img600.imageshack.us/img600/2657/iswn.jpg (http://imageshack.us/photo/my-images/600/iswn.jpg/)

http://img12.imageshack.us/img12/9020/vko2.jpg (http://imageshack.us/photo/my-images/12/vko2.jpg/)

http://img36.imageshack.us/img36/9873/5cr9.jpg (http://imageshack.us/photo/my-images/36/5cr9.jpg/)

Und noch etwas zum schmunzeln:

http://img689.imageshack.us/img689/6990/ijap.jpg (http://imageshack.us/photo/my-images/689/ijap.jpg/)

V2.0
2013-10-20, 10:41:59
Von videocardz gibt es jetzt auch einen Vergleich des Quiet- und des Über-Modes (http://videocardz.com/46990/amd-radeon-r9-290x-crossfire-performance-leaks), außerdem die Settings für die Benchmarks. Daraus läßt sich ableiten, wann die 290X im Quiet-Mode ihren Maximaltakt hält und wann nicht (z.B. Dirt Showdown in 4k mit 8xMSAA [~6% Unterschied], FarCry3 in 4k [~8% Unterschied] oder Grid2 in 4k und 8xMSAA [~3%]). Außerdem gibt es den Firestrikewert, um das mit der bei 8000 abgeschnittenen Skala aufzuklären:

http://videocardz.com/images/2013/10/R9-290X-3Dmark-official.jpg

Ich wette offener Teststand Raum um 20°C.

gnahr
2013-10-20, 10:43:25
die packungen sehen alle gleich billig bescheuert aus mit den schriftblöcken.
quellen? war echt kein geld für übliches design mehr übrig?

M4xw0lf
2013-10-20, 10:45:58
Inzischen tauchen zahlreichen Kartons der Retail-Versionen auf, zu Beginn kommt wohl nur die BF4-Edition (a full game and a door-hanger inside^^):

http://img600.imageshack.us/img600/2657/iswn.jpg (http://imageshack.us/photo/my-images/600/iswn.jpg/)

http://img12.imageshack.us/img12/9020/vko2.jpg (http://imageshack.us/photo/my-images/12/vko2.jpg/)

http://img36.imageshack.us/img36/9873/5cr9.jpg (http://imageshack.us/photo/my-images/36/5cr9.jpg/)

Und noch etwas zum schmunzeln:

http://img689.imageshack.us/img689/6990/ijap.jpg (http://imageshack.us/photo/my-images/689/ijap.jpg/)

Krieg ich das Teil ohne BF4 100 Taler günstiger? :usweet:

die packungen sehen alle gleich billig bescheuert aus mit den schriftblöcken.
quellen? war echt kein geld für übliches design mehr übrig?
Alter Schwede, wie immer geht der Preis für das lächerlichste Bashing an dich.:uclap:

gnahr
2013-10-20, 11:03:40
na das erste bild hat ja nicht mal n wasserzeichen. daher die frage nach quellen.
wenn er die sich alle aus photoshop selbst gezogen hat und noch n wasserzeichen drauf gepappt hat lache ich gern mit, aber die sind doch bitte nicht ernst gemeint?!

[dzp]Viper
2013-10-20, 11:38:26
Sind doch ganz normale Verpackungen mit dem Thema battlefield 4... Über was sich manche Leute nur immer aufregen.. omg

Hübie
2013-10-20, 11:43:31
die packungen sehen alle gleich billig bescheuert aus mit den schriftblöcken.
quellen? war echt kein geld für übliches design mehr übrig?

DAS ist natürlich ein K.O.-Kriterium für die R9-290X & Co. :facepalm:

mboeller
2013-10-20, 11:54:28
DAS ist natürlich ein K.O.-Kriterium für die R9-290X & Co. :facepalm:

Seh es doch positiv....was anderes fällt ihm nicht mehr ein. Das ist doch eine gute Nachricht! :biggrin:

Hübie
2013-10-20, 12:12:17
Hrhr ;D Ein guter Spieler erkennt aber seine Niederlage...

Botcruscher
2013-10-20, 12:13:05
Auf der Packung fallen eher die 4GB auf. Am Ram zu sparen war für das Marketing noch nie gut. Die 780ti mit ihren 3 kommt auf dem bearbeiteten Bild nicht näher, sie wird zurückgelassen.:freak:

Hübie
2013-10-20, 12:17:52
Afaik hat die 780Ti 5 GB VRAM (wers braucht...).

Dural
2013-10-20, 12:43:38
wie kommst du auf 5GB?

Duplex
2013-10-20, 12:44:33
Ich denke AMD wird die GTX780 Ti spät. im Q1/14 mit einem neuen Modell abziehen!

AnarchX
2013-10-20, 12:54:46
Eventuell kann man da noch 10% Mehrleistung erreichen (1,1GHz Boost, 5,5Gbps GDDR5).

Interessanter sind da eher die Dual-GPU-Varianten, die auch der Treiber nennt. Mit XDMA und einem PCIe3 Switch können die beiden GPU mit ziemlicher hoher Bandbreite kommunizieren und eventuell ist die Latenz auch niedriger als bei der normalen Zweikarten-Lösung.

Duplex
2013-10-20, 12:56:41
Eventuell kann man da noch 10% Mehrleistung erreichen (1,1GHz Boost, 5,5Gbps GDDR5).
Und 8GB wird zum Standard :D
Damit hätte man auch Titan in der Hand :smile:

Hübie
2013-10-20, 13:11:06
wie kommst du auf 5GB?

320 Bit SI mit 7Gbps VRAM (~280 GB/s), mehr SMx (und somit mehr TMUs etc.) als 780 non Ti. Dafür halt deutlich mehr Takt (weniger oc-Potenzial) und weniger color-ROPs. Wie es mit DP:SP ratio aussieht weiß ich nicht. Da war 780 afaik beschnitten während Titan es nicht ist.

Felixxz2
2013-10-20, 14:39:57
Das schreit nach Vergleichstests in Abhängigkeit der PCIe-Bandbreite. Die Tests von AMD hier entstanden bei 2x PCIe 3.0 x16?

Bei 4K kommt man auf knapp 2GB/s, das würde dir 2.0 x8 verhageln. Bei 2x x16 viellricht bisl. In 1080p dürfte das aber eher kaum auffallen. Bei 3.0 sowieso nicht.

Schnitzl
2013-10-20, 14:48:37
Seh es doch positiv....was anderes fällt ihm nicht mehr ein. Das ist doch eine gute Nachricht! :biggrin:
ja, und zwar für ALLE!
Das hat sich nur noch nicht im nV-Lager rumgesprochen.
Je besser die 290 wird desto besser wird auch das Angebot der 780Ti ;)

Ab 500€ für die 780Ti schlag ich zu ^^
Also los AMD gebt alles :freak:

dargo
2013-10-20, 14:52:12
Viper;9966177']Sind doch ganz normale Verpackungen mit dem Thema battlefield 4... Über was sich manche Leute nur immer aufregen.. omg
Solange nicht NV drauf steht ist alles bei ihm sche..., von daher einfach ignorieren. ;) Zudem wayne Verpackung?

Raff
2013-10-20, 14:52:46
320 Bit SI mit 7Gbps VRAM (~280 GB/s), mehr SMx (und somit mehr TMUs etc.) als 780 non Ti. Dafür halt deutlich mehr Takt (weniger oc-Potenzial) und weniger color-ROPs. Wie es mit DP:SP ratio aussieht weiß ich nicht. Da war 780 afaik beschnitten während Titan es nicht ist.

Ist das nun "sicher"?

MfG,
Raff

Iruwen
2013-10-20, 15:29:01
Das NV kontert ist allerdings keine Überraschung. Jeder weiß, dass Titan nicht den vollen Chip verwendet und noch Taktreserven hat. Die Frage ist ob AMD auch darauf vorbereitet ist. Ansonsten hat AMD mit Mantle und True-Audio wohl auch ganz gut vorgelegt, da muss NV was bringen wenn man nicht völlig aus den Schlagzeilen verdrängt werden will.

Haben sie doch, 780Ti, G-SYNC und ShadowPlay. Letzteres wird AMD wie GeForce Experience wohl zeitnah kopieren, G-SYNC ist allerdings erstmal ein Alleinstellungsmerkmal. Mantle funktioniert bislang in genau einem Spiel, mit bisher unklarem Ergebnis, G-SYNC in jedem und wie gut wurde ja schon gezeigt. Siehe z.B. http://www.anandtech.com/show/7436/nvidias-gsync-attempting-to-revolutionize-gaming-via-smoothness

AnarchX
2013-10-20, 15:33:38
Bilder und OC-Benchmarks:
http://www.chiphell.com/thread-881612-1-1.html

6Gbps Speicher OC sind wohl möglich.

Duplex
2013-10-20, 15:40:19
Nicht schlecht, R9 290 @1100 in 3DMark11´P ganze 15% schneller als meine GTX780 @1150

gnahr
2013-10-20, 15:42:16
Mantle funktioniert bislang in genau einem Spiel, mit bisher unklarem Ergebnis
welchem? es gibt (im gegensatz zu gsync) noch nicht eine techdemo die nachweislich der presse übergeben wurde.

Menace
2013-10-20, 15:48:33
gsync hat hier ja eigntlich nichts zu suchen, aber wenn es sein soll: Richtig; ich schmeiße meine drei NEC 2690 Monitoren raus um welchen Monitor zu kaufen? Wo kann ich den bestellen, für wie viel und welches Panel ist verbaut?

Iruwen
2013-10-20, 15:50:21
welchem? es gibt (im gegensatz zu gsync) noch nicht eine techdemo die nachweislich der presse übergeben wurde.
Battlefield 4, ich geh jetzt mal davon aus, dass die Mantle Version zumindest lauffähig ist - Ergebnis halt noch unklar :D

Duplex
2013-10-20, 15:51:08
Im November gibt es laut PCGH neue Partner für Mantle.

Dural
2013-10-20, 15:51:41
Nicht schlecht, R9 290 @1100 in 3DMark11´P ganze 15% schneller als meine GTX780 @1150

erstaunlich, beide Chips haben pro Takt fast die selbe Leistung, eventuell einen kleinen Vorsprung für den GK110.

krass, so was gab es noch nie :eek:

Superheld
2013-10-20, 15:52:14
ich sehe keine bilder, kanns mal jemand hochladen?=)

Duplex
2013-10-20, 15:52:32
erstaunlich, beide Chips haben pro Takt fast die selbe Leistung, eventuell einen kleinen Vorsprung für den GK110.
Zwischen der GTX780 & Titan gibt es nur 7-8% Unterschied, damit wäre die R9 290 schneller als Titan!

Ätznatron
2013-10-20, 15:53:26
Nicht schlecht, R9 290 @1100 in 3DMark11´P ganze 15% schneller als meine GTX780 @1150

Bei mir sind es mehr als satte 21% (12422 zu 15081 Punkte, GTX 780@1200 und 2500K@4700).

gnahr
2013-10-20, 15:54:33
Battlefield 4, ich geh jetzt mal davon aus, dass die Mantle Version zumindest lauffähig ist
ok, es gab ja die aussage sie würden noch bugfixing machen und dauernd neue fehler finden. von daher ist es gewagt schon performance-prognosen zu geben und deshalb sind eben genau noch keine bilder davon irgendwo zugänglich.
de facto existiert mantle bis mindestens dezember scheinbar weiterhin nur in .pptx-form, denn es wurden auch keine events dazu mehr angesagt.

eigentlich schon ganz clever die karten nur mit nem spoiler und nem versprechen zu verkaufen. wer sich beschwert hat dann nichtmal mehr ne rücksend-option. :frown:

mironicus
2013-10-20, 15:54:50
Der Speicher lässt sich offensichtlich auch gut übertakten (von 1250 auf 1550).

Iruwen
2013-10-20, 15:54:50
gsync hat hier ja eigntlich nichts zu suchen, aber wenn es sein soll: Richtig; ich schmeiße meine drei NEC 2690 Monitoren raus um welchen Monitor zu kaufen? Wo kann ich den bestellen, für wie viel und welches Panel ist verbaut?

Asus VG248QE, $399 ab 2014 bei vermutlich jedem Händler.
http://www.techpowerup.com/192855/asus-announces-adoption-of-nvidia-g-sync-technology.html
Weitere folgen, auch IPS Panel, bis zu 177Hz und 4K.
http://www.guru3d.com/articles_pages/nvidia_g_sync_preview_article,1.html

Duplex
2013-10-20, 15:55:21
Bei mir sind es mehr als satte 21% (12422 zu 15081 Punkte, GTX 780@1200 und 2500K@4700).
Kann sein, meine CPU läuft 24/7 mit 5Ghz Takt, außerdem habe ich HT On.

Jetzt braucht AMD nur noch eine Karte mit 1100/1150 GPU mit 8GB, dann ist Nvidia mit der Ti wieder hinten dran.

Ätznatron
2013-10-20, 15:55:58
Kann sein, meine CPU läuft 24/7 mit 5Ghz Takt.

Ja, das macht wohl den Unterschied.

boxleitnerb
2013-10-20, 15:56:04
Das Performance Preset kann etwas CPU-limitiert sein, da spielt ins Gesamtergebnis ja auch der CPU-Test mit rein. Und wenn ich mich recht erinnere, läuft der Test auch nur in 1280x720 ab, sofern man nichts ändert. Duplex hat eine stärkere CPU und noch HT, das sollte etwas helfen.

Edit:
Zu spät.

Ich benche mal Metro 2033 mit 1097/6600 gegen, bin gespannt :)

Dural
2013-10-20, 15:57:23
@Duplex

naja auf die Fläche würde ich nicht gross schauen, den GK110 ist mehr auf GPU-Computing ausgelegt als dies bei Hawaii der fall sein dürfte. (mehr Cache, Wahrscheinlich auch mehr DP Leistung usw.)

Raff
2013-10-20, 15:57:24
Die Vergleiche mit P-reset sind sinnlos und fehleranfällig, weder Hawaii noch GK110 sind Performance-GPUs. ;)

MfG,
Raff

Duplex
2013-10-20, 15:59:32
Duplex hat eine stärkere CPU und noch HT, das sollte etwas helfen.
Naja, der 4770k hat ca. 10% mehr IPC als mein 2700k, wenn ich 500Mhz runter gehe macht das nicht viel aus.
Die R9 290x wird schneller als Titan werden, Volker bei CB meinte das AMD nicht nochmal so einen Fehler wie bei Cayman machen wird, das heißt die R9-290x muss über GTX780/Titan Niveau liegen.
AMD braucht nur noch eine 1100-1150 MHz GPU mit 8GB, dann ist selbst eine GTX780 Ti Vergangenheit.

boxleitnerb
2013-10-20, 16:00:59
Ich weiß zugegebenermaßen nicht, wieviel HT bringt beim 3DMark11. Hast du Metro? Dann teste das doch auch mal :)

Menace
2013-10-20, 16:02:14
Weitere folgen, auch IPS Panel, bis zu 177Hz und 4K.
http://www.guru3d.com/articles_pages/nvidia_g_sync_preview_article,1.html

Die sprechen von ASUS, BenQ, Philips and ViewSonic. Das überzeugt mich jetzt noch nicht. Mal sehen, ob andere Monitorhersteller auch aufspringen.

Sunrise
2013-10-20, 16:08:35
Die sprechen von ASUS, BenQ, Philips and ViewSonic. Das überzeugt mich jetzt noch nicht. Mal sehen, ob andere Monitorhersteller auch aufspringen.
Eizo wäre noch nett. Im Grunde fehlt da alles, was vor allem im professionellen Bereich zuhause ist. Ist aber hier der falsche Thread.

Der Kühler der 290X sieht auf den Chiphell-Bildern wirklich gut aus. Das matte Design und das schwarze PCB sehen echt nett aus. Deutlich besser als auf den bisherigen Bildern. Blöd nur, dass man wohl für optimale Ergebnisse wieder einen custom-Kühler bzw. Wakü braucht. Voltage unlocked klingt ja schonmal verdammt gut.

Duplex
2013-10-20, 16:24:29
Ich weiß zugegebenermaßen nicht, wieviel HT bringt beim 3DMark11. Hast du Metro? Dann teste das doch auch mal :)
Ich hab kein Metro.

Hier ein Test mit 4,5Ghz & 1100 GPU

http://abload.de/thumb/3d1145001100elunu.jpg (http://abload.de/image.php?img=3d1145001100elunu.jpg)

Der 4770k bei Chiphell hat afaik 3,9Ghz & HT, also vergleichbar mit meinem 2700k 4,5Ghz.

Superheld
2013-10-20, 16:40:18
zum vergleich metro2033 aufner 7970 OC

http://forums.guru3d.com/showpost.php?p=4483312&postcount=110

boxleitnerb
2013-10-20, 16:45:17
So, Metro 2033.

Titan@1006/3300 (links: PhysX aus, rechts: PhysX an):
http://abload.de/thumb/metro2033titan3hbn6.jpg (http://abload.de/image.php?img=metro2033titan3hbn6.jpg)http://abload.de/thumb/metro2033titan3cxzb.jpg (http://abload.de/image.php?img=metro2033titan3cxzb.jpg)

R9 290X@1000/2500 (aus dem von AnarchX verlinkten Thread):
http://abload.de/thumb/11pqa7d0ecu.jpg (http://abload.de/image.php?img=11pqa7d0ecu.jpg)

Äh, Advanced PhysX war bei mir erst an, bei dem Typ mit der 290X auch. Bei ihm müsste das doch über die CPU laufen? Ich habs jedenfalls mal ausgeschaltet, aber die fps bleiben praktisch gleich...?

Ätznatron
2013-10-20, 16:50:18
Und noch ein 3DMark FSE Resultat:

http://www.3dmark.com/3dm/1440257

4967 zu 5359 Punkten.

Also knapp 8% diesmal.

System wie gehabt: GTX 780@1200 und 2500@4700 MHz

fondness
2013-10-20, 16:51:21
So, Metro 2033.

Titan@1006/3300:
http://abload.de/thumb/metro2033titanityac.jpg (http://abload.de/image.php?img=metro2033titanityac.jpg)

R9 290X@1000/2500 (aus dem von AnarchX verlinkten Thread):
http://abload.de/thumb/11pqa7d0ecu.jpg (http://abload.de/image.php?img=11pqa7d0ecu.jpg)

Der 290X Bench ist in 1920x1200 entstanden, nicht 1920x1080 wie bei dir...

http://www.chiphell.com/thread-881612-1-1.html

M4xw0lf
2013-10-20, 16:56:12
Der 290X Bench ist in 1920x1200 entstanden, nicht 1920x1080 wie bei dir...
Dann schlagen wir halt auf das Ergebnis der 290X noch 10% drauf ;)
Titan ist in Metro jedenfalls pro Takt etwas schneller.

boxleitnerb's Benchergebnis mal ganz stur auf 1200p hochgerechnet wären 63 FPS avg, also etwa 5% vor der 290X.

fondness
2013-10-20, 16:58:34
Dann schlagen wir halt auf das Ergebnis der 290X noch 10% drauf ;)
Titan ist in Metro jedenfalls pro Takt etwas schneller.

Wenn der tatsächlich PhysX aktiviert hatte kann man den Vergleich sowieso vergessen....

boxleitnerb
2013-10-20, 16:59:09
Der 290X Bench ist in 1920x1200 entstanden, nicht 1920x1080 wie bei dir...

http://www.chiphell.com/thread-881612-1-1.html

Danke für den Hinweis, hab ich übersehen. Ich benche nochmal.

Wenn der tatsächlich PhysX aktiviert hatte kann man den Vergleich sowieso vergessen....

Dachte ich auch, aber bei mir kostet PhysX praktisch gar nichts. Das ist doch Nvidia's GPU-PhysX, das kann auf der AMD gar nicht laufen. Und wenn es aktiv wäre, würde es auf der CPU laufen und deutlichst niedrigere fps ergeben (so kenne ich es jedenfalls von anderen Spielen).

M4xw0lf
2013-10-20, 17:01:36
Danke für den Hinweis, hab ich übersehen. Ich benche nochmal.
Mal sehen wie gut das Ergebnis mit der Auflösung skaliert, also wie nahe dein Ergebnis an 63 FPS liegt ^^

fondness
2013-10-20, 17:04:36
Danke für den Hinweis, hab ich übersehen. Ich benche nochmal.

Interessant wäre noch noch ohne MemOCing bzw. überhaupt default. Deine Werte dürfte schon eher einer 780Ti oder mehr entsprechen.

M4xw0lf
2013-10-20, 17:09:16
Interessant wäre noch noch ohne MemOCing bzw. überhaupt default. Deine Werte dürfte schon eher einer 780Ti oder mehr entsprechen.
Ich glaube nicht dass die 780Ti out of the box so schnell wird.

boxleitnerb
2013-10-20, 17:11:27
Mit 1006/3004 (also default) komme ich auf 63,63 fps (advanced PhysX aus) und 63,13 fps (advanced PhysX an).
10% mehr Speichertakt bringen also um die 3% mehr Performance.

M4xw0lf
2013-10-20, 17:21:26
Mit 1006/3004 (also default) komme ich auf 63,63 fps (advanced PhysX aus) und 63,13 fps (advanced PhysX an).
10% mehr Speichertakt bringen also um die 3% mehr Performance.
Kann es sein dass in der Szene einfach so gut wie keine Physx-Effekte vorkommen? Dann hätte auch bei advanced die CPU ja nicht mehr zu tun als sonst.

boxleitnerb
2013-10-20, 17:24:38
Kann es sein dass in der Szene einfach so gut wie keine Physx-Effekte vorkommen? Dann hätte auch bei advanced die CPU ja nicht mehr zu tun als sonst.

Gute Frage, nächste Frage. Aber PCGH hat was ähnliches festgestellt damals:
http://www.pcgameshardware.de/Metro-2033-PC-143440/Tests/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video-706590/2/
Wobei ich nicht kapiere, wo jetzt der Unterschied zwischen GPU-PhysX und Advanced PhysX ist, siehe deren Diagramm ganz unten.

Virtual
2013-10-20, 17:28:48
Mit 1006/3004 (also default) komme ich auf 63,63 fps (advanced PhysX aus) und 63,13 fps (advanced PhysX an).
10% mehr Speichertakt bringen also um die 3% mehr Performance.
Besser: advanced PhysX an im Bench UND GPU PhysX disabled im NV Control Panel.

M4xw0lf
2013-10-20, 17:29:02
Gute Frage, nächste Frage. Aber PCGH hat was ähnliches festgestellt damals:
http://www.pcgameshardware.de/Metro-2033-PC-143440/Tests/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video-706590/2/
Wobei ich nicht kapiere, wo jetzt der Unterschied zwischen GPU-PhysX und Advanced PhysX ist, siehe deren Diagramm ganz unten.
Vielleicht sorgt allein "GPU-Physx on" dafür, dass die Karte rechnet? Wäre dann zwar seltsam, dass die Leistung damit am niedrigsten ist, aber die GTX285 war ja auch noch kein compute-Monster.

boxleitnerb
2013-10-20, 17:30:14
Btw:
if you are in Uber mode, you have Higher TDP limit for YOUR manual OC, you have more Voltage limit for your OC, you have stabile clocks without annoying Boost

PS. It seems nobody here knows what is UBER mode. In normal QUIET mode, GPU is switching clocks between 800 base and 1 GHz max clocks under max TDP envelope. Average clocks is +/- 920-960 in TDP, depends on game a tests. But if you switch button for UBER, your TDP is higher and max is still 1 GHz, but average clocks are higher then 920-960 MHz little bit.

http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5211938&viewfull=1#post5211938

Besser: advanced PhysX an im Bench UND GPU PhysX disabled im NV Control Panel.

Nochmal...ächz.

1006/3004, CPU-PhysX im CP, Adv. PhysX an:
57,20 fps

Heißt jetzt wohl, dass die CPU die Sache etwas ausbremst. Hätte mich auch gewundert, wenn die 290X pro Takt langsamer ist. Besser wäre es aber, nochmal ein Ergebnis der AMD ohne Adv PhysX zu haben, um ganz sicher zu sein.

Superheld
2013-10-20, 17:34:27
http://abload.de/img/1zwk4b.jpg (http://abload.de/image.php?img=1zwk4b.jpg)
http://videocardz.com/47039/xfx-radeon-r9-290x-overclocking-temperatures-exposed

launch scheint immer noch der 24. zu sein

Ätznatron
2013-10-20, 17:36:57
Btw:

http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5211938&viewfull=1#post5211938



Interpretiere ich das dahingehend richtig, dass dieser Uber-Modus die min. Frames verbessern könnte und da weniger auf Peakwerte ausgelegt ist?

boxleitnerb
2013-10-20, 17:42:09
Interpretiere ich das dahingehend richtig, dass dieser Uber-Modus die min. Frames verbessern könnte und da weniger auf Peakwerte ausgelegt ist?

Hm, glaube nicht. Es gibt eigentlich keine Korrelation zwischen GPU-Last und fps. Du kannst maximale GPU-Last und 70 fps haben oder 50 oder 30. Auch versucht der Boost abzuschätzen, was als Nächstes kommt - das wird von Fall zu Fall natürlich unterschiedlich ausfallen. Der Boost ist völlig unberechenbar in dieser Hinsicht, zumal wir wahrscheinlich von <10% sprechen (920-960 -> 1000).

Ätznatron
2013-10-20, 17:47:43
Hm, glaube nicht. Es gibt eigentlich keine Korrelation zwischen GPU-Last und fps. Du kannst maximale GPU-Last und 70 fps haben oder 50 oder 30. Auch versucht der Boost abzuschätzen, was als Nächstes kommt - das wird von Fall zu Fall natürlich unterschiedlich ausfallen. Der Boost ist völlig unberechenbar in dieser Hinsicht, zumal wir wahrscheinlich von <10% sprechen (920-960 -> 1000).

Nun ja, die "Grundpower" wäre ein wenig höher.

Ob das nun viel ausmacht, sei mal dahingestellt.

Ein bisschen rätselhaft ist er mir momentan schon, dieser Uber-Mode.

Eventuell bringen ja erst neue Treiber den wahren Zweck ans Tageslicht.

boxleitnerb
2013-10-20, 17:51:03
Es werden einfach die Zügel etwas gelockert, damit der Boost sich besser/voll entfalten kann. Im Endeffekt dasselbe wie bei Nvidia wenn du die Targets erhöhst und/oder für eine bessere Kühlung sorgst. Die avg fps werden (manchmal) steigen, die mins manchmal auch, je nach Szene halt.

Man sieht es ja z.B. bei Titan - in manchen Fällen bringt der Boost gar nix (3DQuark) und in anderen sind es 10+%. So wird das auch bei AMD sein, die geleakte Zusammenfassung bei videocardz zeigt ja genau das.

Gipsel
2013-10-20, 17:52:56
Auch versucht der Boost abzuschätzen, was als Nächstes kommtDas glaube ich eher nicht. Wie sollte denn das gehen?

Ätznatron
2013-10-20, 17:53:51
[...]

BTW: Du hast nicht die Möglichkeit, mal den Firestrike Extreme @Titandefault zu benchen?

M4xw0lf
2013-10-20, 17:54:01
Nun ja, die "Grundpower" wäre ein wenig höher.

Ob das nun viel ausmacht, sei mal dahingestellt.

Ein bisschen rätselhaft ist er mir momentan schon, dieser Uber-Mode.

Eventuell bringen ja erst neue Treiber den wahren Zweck ans Tageslicht.

Der "Über"mode ist offenbar für manuelles OC gedacht, der gibt einem erst die Freiheit, mehr Leistung aus der Karte zu quetschen, da sie ansonsten nah an ihrem Temperatur- und Powerlimit klebt.
Btw, eventuell hat dieser Modus auch ein niedrigeres Temp-target als der quiet mode (um die Leistungsaufnahme bei OC in Schach zu halten) - das würde erklären, wieso im AMD-Guide da einige Ergebnisse niedriger ausfallen, da hier ja nicht übertaktet sondern nur der Schalter umgelegt wurde.

boxleitnerb
2013-10-20, 17:55:01
Das glaube ich eher nicht. Wie sollte denn das gehen?

Der Boost versucht, die Temperaturen vorherzusagen (in gewissen Grenzen natürlich). Dementsprechend wird die Lüftersteuerung "vorausschauend" arbeiten. Darüberhinaus fließen aktuelle GPU-Last, Stromstärken und Temperaturen in das Boostverhalten mit ein. Ob außer der Temperatur noch mehr Werte vorausgeschätzt werden, weiß ich nicht.

BTW: Du hast nicht die Möglichkeit, mal den Firestrike Extreme @Titandefault zu benchen?

Kann ich machen.

Ätznatron
2013-10-20, 17:57:05
Der "Über"mode ist offenbar für manuelles OC gedacht, der gibt einem erst die Freiheit, mehr Leistung aus der Karte zu quetschen, da sie ansonsten nah an ihrem Temperatur- und Powerlimit klebt.

Gut, aber der xtremesystems-Beitrag zeigt doch, dass das offenbar eben nur innerhalb der 1 GHz-Grenze funktioniert.

So, wie ohne Uber auch.

@boxleitnerb

Danke.

M4xw0lf
2013-10-20, 17:58:30
Gut, aber der xtremesystems-Beitrag zeigt doch, dass das offenbar eben nur innerhalb der 1 GHz-Grenze funktioniert.

So, wie ohne Uber auch.
Du musst natürlich auch noch hingehen und den Taktregler nach rechts schieben.

Virtual
2013-10-20, 17:59:20
Btw:

http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5211938&viewfull=1#post5211938



Nochmal...ächz.

1006/3004, CPU-PhysX im CP, Adv. PhysX an:
57,20 fps

Heißt jetzt wohl, dass die CPU die Sache etwas ausbremst. Hätte mich auch gewundert, wenn die 290X pro Takt langsamer ist. Besser wäre es aber, nochmal ein Ergebnis der AMD ohne Adv PhysX zu haben, um ganz sicher zu sein.
Danke! Das bestätigt wieder den Trend -> Im Endeffekt werden sich Titan und 290X auf gleichem Takt bei annähernd gleicher Speicherbandbreite nur wenig nehmen. Ausgehend von der Effizienz der 7870 als vermeintlich (bezogen auf den Verbrauch) halbe 290X können wir (bei leicht gesteigerter Effizienz der 290X) sogar eine recht ähnliche Verlustleistung annehmen. Das wird diesmal im Highend-Segment ein Gleichstand.

Ätznatron
2013-10-20, 18:02:44
Du musst natürlich auch noch hingehen und den Taktregler nach rechts schieben.

Und das haben die nicht getan?

Die ganze Diskussion auf xtremesystems wäre dann ja irgendwie hinfällig.

Für mich klang das jetzt erstmal so, dass auch bei eingeschaltetem "Uber" 1 GHz die max. Taktgrenze inkl. OC darstellt.

Gut, das scheint also offenbar dann doch nicht der Fall zu sein und ich habe die Sache schwer missverstanden.

M4xw0lf
2013-10-20, 18:05:47
Und das haben die nicht getan?
Ich behaupte einfach mal nein, aber zu den anliegenden Taktraten gabs da keine Information. Da hier einfach nur Quiet- und Uber-mode verglichen wurde, gehe ich stark davon aus dass keine weiteren Eingriffe vorgenommen wurden.

Und diese aktuellen Leaks sehen doch wieder ziemlich stark aus... wann ist endlich dieser verf*ckte Launch? ^^

horn 12
2013-10-20, 18:09:50
Bei Crysis 3 stolze 100 Grad
Dies kann AMD nicht bringen, da schreit ja knapp der Hitzetod !!
Oder ist die GPU bis 130 Grad oder gar höher ausgelegt ?

Superheld
2013-10-20, 18:14:45
von wo hast du das schon wieder her?

Ätznatron
2013-10-20, 18:15:43
Bei Crysis 3 stolze 100 Grad
Dies kann AMD nicht bringen, da schreit ja knapp der Hitzetod !!
Oder ist die GPU bis 130 Grad oder gar höher ausgelegt ?

Natürlich.

Nur weil Wasser auf Meereshöhe bei 100°C den Aggregatzustand wechselt, muss das bei Elektronikbauteilen noch lange nicht der Fall sein.

Oder beschreit jemand den Hitzetod aktueller Intel-CPUs, deren Coretemps auch schon mal 105°C hoch werden dürfen?

crux2005
2013-10-20, 18:17:12
Und das haben die nicht getan?

Die ganze Diskussion auf xtremesystems wäre dann ja irgendwie hinfällig.

Für mich klang das jetzt erstmal so, dass auch bei eingeschaltetem "Uber" 1 GHz die max. Taktgrenze inkl. OC darstellt.

Gut, das scheint also offenbar dann doch nicht der Fall zu sein und ich habe die Sache schwer missverstanden.

Inkl. OC sicher nicht. Er reden von "default".

Und diese aktuellen Leaks sehen doch wieder ziemlich stark aus... wann ist endlich dieser verf*ckte Launch? ^^

Solange sich nichts ändert, der 24. Oktober für R9 290X. Und ja, das ist nur der Launch der "X" Variante. Auf die R9 290 werden wir noch länger warten müssen. :)
Mit der Verfügbarkeit fange ich lieber gar nicht erst an. Vielleicht wird es aber in einem großem Land wie Deutschland ein wenig anders aussehen.

M4xw0lf
2013-10-20, 18:22:20
Solange sich nichts ändert, der 24. Oktober für R9 290X. Und ja, das ist nur der Launch der "X" Variante. Auf die R9 290 werden wir noch länger warten müssen. :)
Egal, das Kleinvieh ist uninteressant :D

Gipsel
2013-10-20, 18:33:02
Der Boost versucht, die Temperaturen vorherzusagen (in gewissen Grenzen natürlich). Dementsprechend wird die Lüftersteuerung "vorausschauend" arbeiten. Darüberhinaus fließen aktuelle GPU-Last, Stromstärken und Temperaturen in das Boostverhalten mit ein.Das ist eine etwas eigenartige Argumentation. Aber gut, die kommt vermutlich vom technical Marketing oder ein Ingenieur hat versucht, denen zu verklickern, wie es funktioniert und man ist dann darauf gekommen.
Praktisch gibt es, wie Du richtig sagst, mehrere Einflußfaktoren. Neben der History des Verbrauchs (also ein Integral über ein bestimmtes Zeitfenster der Vergangenheit) bzw. der Temperatur, spielt auch der Momentanverbrauch (nicht gemessen, sondern anhand der internen Performance- bzw. Aktivitätscounter berechnet) eine Rolle. Natürlich hat ein Verbrauch zum Zeitpunkt t0 einen Einfluß auf die Temperatur zu einem späteren Zeitpunkt t0+x, aber das ist keine Vorhersage im Sinne des Wortes und wird auch ziemlich sicher nicht vom Powermanagement berechnet.
Will man z.B. eine Temperatur mit einem PID-Regler nahe an einer Zieltemperatur halten, würde der Momentanverbrauch die Rolle des D-Anteils des Reglers übernehmen. Bei richtiger Parameterwahl (im Prinzip ist die optimale Wahl abhängig von der Kühllösung, insbesonderen der Wärmekapazität derselben) dämpft bzw. verhindert dies Überschwinger. Weiterhin gibt es natürlich ein Limit für das Maximum des Momentanverbrauchs (vermutlich 250-300W und abhängig vom PT-Setting). Das ist im Prinzip schon alles.

Skysnake
2013-10-20, 18:51:39
Wurde das hier schon gepostet?

http://videocardz.com/47039/xfx-radeon-r9-290x-overclocking-temperatures-exposed

M4xw0lf
2013-10-20, 18:57:19
Wurde das hier schon gepostet?

http://videocardz.com/47039/xfx-radeon-r9-290x-overclocking-temperatures-exposed

Die haben da die Karte die meiste Zeit mit 100% Lüfterspeed laufen, die Vögel :freak:

Zergra
2013-10-20, 19:37:34
Die haben da die Karte die meiste Zeit mit 100% Lüfterspeed laufen, die Vögel :freak:
Dann gibt es die Silent Version, mit Ohrenschützern als Gratis Beilage ? :D

Botcruscher
2013-10-20, 19:40:53
Warum sollte man bei OC Tests den Lüfter drosseln?!?

Angiesan
2013-10-20, 19:48:06
So dumm können die bei AMD nicht sein! Wenn sie das wirklich verbocken, haben sie es nicht besser verdient. Es muss doch klar sein, dass wenn das Referenzdesign nicht vernünftig ist es der ganzen Serie anhängt unabhänig ob dann noch was leises nachkommt.
Dann sind sie wirklich Lernresistent und haben die Zeichen nicht verstanden, lieber ein überteuerter Kühler auf die Referenz draufgeschnalt und dafür Bestnoten in Lautstärke und wenn möglich mit anständiger Temperatur und dann später mit günstigen Herstellerlösungen arbeiten als wie umgekehrt, NV macht doch vor wie es geht ist doch nix dabei da mal abzukupfern.

boxleitnerb
2013-10-20, 19:51:31
BTW: Du hast nicht die Möglichkeit, mal den Firestrike Extreme @Titandefault zu benchen?

3DMark13:

X4731 Gesamt
X4929 Graphics

P9242 Gesamt
P10541 Graphics

3DMark11:

X4927 Gesamt
X4656 Graphics

P12576 Gesamt
P13897 Graphics

Aber im Leak wurde hauptsächlich 3DMark11 und 3DMark13 Performance gebencht. Das kann ich auch nochmal machen.

haudi
2013-10-20, 20:09:21
94Grad im Furmark ist nichts außergewöhnliches! Und vor allem fern ab jeder Norm!!!!!!!!

haudi
2013-10-20, 20:16:25
Außerdem bei metro liegt der fanspeed bei 20% - dass ist doch das was zählt!
In Furmark war der fanspeed bei 50%!!!
Tipp von mir - zieh dir nen mod bios auf deine Titan falls vorhanden und stelle 1000 gpu takt ein, und stell den lüfter fix auf 50% im furmark - dann sehen wir weiter;)

boxleitnerb
2013-10-20, 20:26:03
Bei den Temperaturwerten wäre ich vorsichtig. Schau mal auf die GPU-Last im GPU-Z Log. Bei Metro sind das nur 10%, das ist also nach dem Benchmark. Heißt, die Karte hatte schon Zeit zum Abkühlen.
Sonst sind es so 55°C bei 100% bzw. 93°C (schwer zu erkennen) im ersten 3DMark-Screenshot bei 43% Fanspeed. Und 43% könnte nicht grad ganz leise sein.

haudi
2013-10-20, 20:27:33
du siehst doch im sensor bereich vom gpu-z ganz gut dass die temps nicht groß höher waren!

Gipsel
2013-10-20, 20:27:41
So dumm können die bei AMD nicht sein!Sind sie nicht.
Wenn sie das wirklich verbocken habenHaben sie nicht.

Also falls es nicht klar geworden ist, das waren OC-Tests mit manueller Wahl der Lüftergeschwindigkeit. Schau dir doch mal an, wie schnell bzw. langsam der Lüfter lief, wenn der automatisch geregelt wurde (das ist bei den Screenshot bei Standardtakt der Fall). ;)

haudi
2013-10-20, 20:30:00
Sie dir doch den furmark an - siehst du sehr gut in den sensoren aufnahme von gpuz dass die temps gleich blieben und der fanspeed bei 50 blieb! Und wer sagt dir dass 43 lüfter sehr laut sind - das ist reine spekulation!!!! bei ner titan sind 43% sehr leise!!

boxleitnerb
2013-10-20, 20:30:24
du siehst doch im sensor bereich vom gpu-z ganz gut dass die temps nicht groß höher waren!

Ich sehe aber auch, dass die GPU-Last bei Metro 2033 die ganze Anzeige lang bei 0% war. Wie geht das?
20% und 70°C ist sportlich, das schaffen sehr gute Custom-Kühler grad so. Hab grad ein paar Karten zum Testen hier, Vapor-X usw.

Sie dir doch den furmark an - siehst du sehr gut in den sensoren aufnahme von gpuz dass die temps gleich blieben und der fanspeed bei 50 blieb! Und wer sagt dir dass 43 lüfter sehr laut sind - das ist reine spekulation!!!! bei ner titan sind 43% sehr leise!!

Äh, ich durfte das selbst erleben vor der Umrüstung auf Wakü. 43% sind nicht leise, schon gar nicht sehr ;)

Angiesan
2013-10-20, 20:31:33
@ Gipsel: Ja ich hoffe immer noch ;)

@Boxleitnerb, dass kann man nicht pauschal beantworten, die GTX die aktuell hier arbeitet ist bei 45% wirklich sehr leise.

Ätznatron
2013-10-20, 20:32:49
3DMark13:

X4731 Gesamt
X4929 Graphics

P9242 Gesamt
P10541 Graphics

3DMark11:

X4927 Gesamt
X4656 Graphics

Aber im Leak wurde hauptsächlich 3DMark11 und 3DMark13 Performance gebencht. Das kann ich auch nochmal machen.

Danke für die Mühe.

Firestrike Performance bringt bei mir inkl. OC 9431 Gesamtpunkte, Graphic Score 11356. (http://www.3dmark.com/fs/1018957)

Jedenfalls bin ich mittlerweile überzeugt, dass eine GTX 780 Ti leistungsmäßig deutlich (>15%) über einer Titan angesiedelt sein müsste, um ernsthaft um die Performacekrone zu kämpfen.

fondness
2013-10-20, 20:34:50
Der Lüfter ist deutlich schwächer als bei vergangenen AMD-Karten High-End-Karten. 50% hier sind also ungleich 50% bei einer 7970 oder so.

haudi
2013-10-20, 20:35:49
@box: sry mach deine Augen auf - Recht hast du was den 2033er bench angeht, dass da der gpu load nichts mehr anzeigt! trotzdem ist die temp bei 70grad längere zeit konstant! Dass die 20% lüfter dort nicht stimmen geb ich dir recht! aber der furmark ist interessant und aussagekräftig! ebenfalls der andere gemessene xtreme run im 11er unter standard takt!! Und das sind für referenz kühler super ergebnisse! Und was die Lautstärke angeht ist das deinerseits immer noch rein spekulativ und vor allem eine subjektive wahrnehmung! Für mich sind 43%lüfter bei der Titan als leise zu bezeichnen!

boxleitnerb
2013-10-20, 20:39:42
@box: sry mach deine Augen auf - Recht hast du was den 2033er bench angeht, dass da der gpu load nichts mehr anzeigt! trotzdem ist die temp bei 70grad längere zeit konstant! Dass die 20% lüfter dort nicht stimmen geb ich dir recht! aber der furmark ist interessant und aussagekräftig! ebenfalls der andere gemessene xtreme run im 11er unter standard takt!! Und das sind für referenz kühler super ergebnisse! Und was die Lautstärke angeht ist das deinerseits immer noch rein spekulativ und vor allem eine subjektive wahrnehmung! Für mich sind 43%lüfter bei der Titan als leise zu bezeichnen!

Klar ist es subjektiv - was meinst, warum ich auf Wakü umgestiegen bin? :smile:
Ich weiß jetzt nicht, ob bei solchen ähnlich aufgebauten Kühlern ähnliche Drehzahlen auch ähnliche Lautstärke ergeben. Aber kann ja mal jemand mit einer 780 oder Titan oder 7970@Refkühlung den Metro Benchmark durchlaufen lassen dreimal und dann berichten, was für Drehzahlen und Temperaturen erreicht werden.

Der Lüfter ist deutlich schwächer als bei vergangenen AMD-Karten High-End-Karten. 50% hier sind also ungleich 50% bei einer 7970 oder so.

Woher weißt du das?

haudi
2013-10-20, 20:41:45
Ne viel interessanter wäre Titan mit mod bios auf 930 gpu takt einstellen - dass war glaub das auf was es gelaufen ist mit der r290x im test und dann bitte den lüfter auf 63% - entspricht dann den 2600 umdrehungen fixen und mal bisschen laufen lassen. Und bitte standard spannung verwenden und nix undervolten!
Danke

fondness
2013-10-20, 20:42:48
Woher weißt du das?

Gab schon ein Bild der Karte wo man die Ampere-Zahl ablesen konnte. Aber frage mich jetzt bitte nicht wo. AFAIK waren das nur irgendwas um 0.43A wenn mich mein Gedächtnis nicht täuscht. Auf jeden Fall war es relativ wenig.

Edit: Sind 1.7A und damit relativ stark:
http://videocardz.com/46741/radeon-r9-290x-pictured-close

boxleitnerb
2013-10-20, 20:45:03
Ne viel interessanter wäre Titan mit mod bios auf 930 gpu takt einstellen - dass war glaub das auf was es gelaufen ist mit der r290x im test und dann bitte den lüfter auf 50%fixen und mal bisschen laufen lassen. Und bitte standard spannung verwenden und nix undervolten!
Danke

Die 290X im Test lief mit 1000 oder 1130 MHz, nicht mit 930 MHz.
Ich kann mit Temperaturmessungen nicht dienen, hab ja Wakü drauf.

@fondness:
Gut zu wissen, danke.

haudi
2013-10-20, 20:47:38
Im furmark lief sie mit 931,7 wenn ich das richtig gesehen habe laut gpu-z. wobei furmark selbst 1000 anzgeit! Ich werde mal mit 1000gpu takt gegen testen mit der titan und fixen 64%lüfter! Kann euch aber schon soviel sagen - habs grad laufen mit 1,1V @ 927hz und hab das temp target von 85 grad schon erreicht mit standard bios!
Dann mach ich das fix selbst!
So, habs mal fix mit standard bios laufen lassen - seht selbst. schaut vor allem auf die volt;) http://s14.directupload.net/images/131020/temp/xpvsddzf.jpg (http://s14.directupload.net/file/d/3416/xpvsddzf_jpg.htm)

fondness
2013-10-20, 20:51:10
Okay habe mich geirrt Lüfter hat 1.7A und dürfte wohl sehr laut sein - zumindest bei maximaler Drehzahl.

Hübie
2013-10-20, 20:52:03
Man haudi. Verwende mal weniger Ausrufezeichen! Das sieht scheiße aus und liest sich scheiße. SCNR. ;D

Also Wunder wird der Kühler auch nicht vollbringen, aber sieht schon besser aus als die Krawallbrüder welche AMD bisher zusammenschustern ließ. Bis jetzt sieht Tahiti nach einem großen Wurf aus. Nur der Start ist schon jetzt verhunzt...

Angiesan
2013-10-20, 20:57:52
Klar ist es subjektiv - was meinst, warum ich auf Wakü umgestiegen bin? :smile:
Ich weiß jetzt nicht, ob bei solchen ähnlich aufgebauten Kühlern ähnliche Drehzahlen auch ähnliche Lautstärke ergeben.

Das was bei so einem Design immer wieder vorkommt ist das das Lüftergehäuse zum Dröhnen neigt, das hört sich dann meist lauter an wie es wirklich ist, eben so ein unangenehmes Geräusch. Das ist sicherlich einer der Gründe warum die Dinger bei NV nun aus Metal sind denn die dröhnen nicht mehr. Es gibt natürlich wie bei anderen Lüftern auch Unterschiede bei Grakalüftern, eben Modelle die leise sind und solche die lauter sind ab und an kommt es vor das auf dem gleichen Model unterschiedliche Lüfter zum Einsatz kommen und das hört man zum Teil und die einen wundern sich warum die Karte immer als leise beschrieben wurde und die anderen sagen die müssen ja super empfindlich sein :-)

Botcruscher
2013-10-20, 20:59:58
Okay habe mich geirrt Lüfter hat 1.7A und dürfte wohl sehr laut sein - zumindest bei maximaler Drehzahl.

Die 5400 U/min werden schon rein hauen.

haudi
2013-10-20, 21:00:15
http://s14.directupload.net/images/131020/temp/xpvsddzf.jpg (http://s14.directupload.net/file/d/3416/xpvsddzf_jpg.htm)
Hier nochmal - man sieht gut dass die Volts richtung 1,0 gehen um die 85 Grad zu halten. und der boost ebenfalls von 1000 auf 914 runtergegangen ist schon.
Ich werde mir den Test nun sparen mit Mod bios und 1.161V @1000gpu takt - da hab ich sonst 100Grad und mehr liegen;)
Nur schade dass man nicht sieht wieviel saft bei der r9 290x anlagen.
5400U/min sind laut ja - aber sind auch top temps damit! 50 Prozent sind mit 65% titan vergleichbar.

Hübie
2013-10-20, 21:04:03
Ist ja auch programmier-bedingt. Gigabyte hatte da ja schon so einige Schoten abgeliefert ;)
nVidia hat bling bling verbaut damits kling kling macht. Plastikkunststoff lässt sich simpler dämmen / isolieren als Magnesium bzw. Aluminium. Vor allem unter Berücksichtigung des Preises.
Wenn ich das richtig verstanden habe soll die Wärmeverteilung durch Al / Mg verbessert werden. Obs stimmt - k.A..

M4xw0lf
2013-10-20, 21:07:37
Ist ja auch programmier-bedingt. Gigabyte hatte da ja schon so einige Schoten abgeliefert ;)
nVidia hat bling bling verbaut damits kling kling macht. Plastikkunststoff lässt sich simpler dämmen / isolieren als Magnesium bzw. Aluminium. Vor allem unter Berücksichtigung des Preises.
Wenn ich das richtig verstanden habe soll die Wärmeverteilung durch Al / Mg verbessert werden. Obs stimmt - k.A..
Worum gehts? ^^ Kann dir grade nicht folgen.

Angiesan
2013-10-20, 21:08:29
lol bling bling damit kling kling sorry für ot:freak:;D Hubie das ist Sig verdächtig :-)

Hübie
2013-10-20, 21:11:22
Worum gehts? ^^ Kann dir grade nicht folgen.

haudi kam dazwischen. Ich meinte die im BIOS hinterlegte Temp-Kurve ist programmier-bedingt mal besser, mal schlechter. Erinnert euch an Gigabyte's Windforce-Desaster auf der HD7970. Da kam ja noch mehr. Bei anderen AIBs gabs ähnliches (XFX...).

@Angiesan: Was meinst du? :naughty: :)

Angiesan
2013-10-20, 21:20:53
Trotzdem hat die Abdeckung aus Metal wohl Vorteile denn sie neigt wirklich weniger zum Dröhnen ob das bei der R9 so sein wird, keine Ahnung ich werde mich eh selbst davon überzeugen denn die Karte interessiert mich einfach.

@Hubie nicht böse sein, mit Sig verdächtig meine ich das ich das gerne in meine Signatur aufnehmen würde der Spruch gefällt mir einfach ich habe eben nieder gelegen :-)

Blediator16
2013-10-20, 21:24:53
Du denkst also, dass dieses "Metall" die Vibrationen besser absorbieren kann als Plastik? Da wette ich dagegen ;)

Angiesan
2013-10-20, 21:31:49
Nein ich sage nur das die Metall-Abdeckung weniger zu Eigenschwingungen neigt wie die ein oder andere Kunstoff-Abdeckung da sie einfach verwindungssteifer ist.

Hübie
2013-10-20, 21:44:11
Kein Ding. Kannst in deine Sig knallen was du willst. ;D

Plastik müsste man mit Gummi abdämpfen, dann wäre es deutlich effektiver mit der Geräuschkulisse. Allerdings rede ich auch nicht von diesen dünnen Plastikdingern...

Blediator16
2013-10-20, 21:46:16
Kein Ding. Kannst in deine Sig knallen was du willst. ;D

Plastik müsste man mit Gummi abdämpfen, dann wäre es deutlich effektiver mit der Geräuschkulisse. Allerdings rede ich auch nicht von diesen dünnen Plastikdingern...

Das Metall muss man ebenfalls mit Gummi unterstützen. Vibrationen werden nicht mal eben so vom "Metall" auf der Titan absorbiert. Da sind sicher absorbierende Gummis o.ä. verbaut.

Hübie
2013-10-20, 21:48:24
Das Gehäuse sieht mir eher wie am Stück gepresst oder gegossen aus. Mit der Verarbeitung von Mg kenne ich mich nicht aus, aber Alu halt. In meiner Ex-Firma haben wir Alu mittels Plastik isoliert.

Edit: Okay die Alu-Variante sieht wie Formgepresst aus. Strang-gepresst wäre hier nicht möglich und gegossen zu aufwändig. Dann wohl mit Granulat gestrahlt, ggf. zusätzlich gebeizt und vielleicht kurz eloxiert. Ich hatte das Teil aber noch nie in den Händen.

StefanV
2013-10-20, 21:56:02
Die 5400 U/min werden schon rein hauen.
Besser bisserl Luft als wenn die Karte mit 100% Lüftergeschwindigkeit bei über 90°C vor sich hin brät, wie es bei der 8800GTX ja der Fall war...

haudi
2013-10-20, 22:04:01
Vor allem kann man wenigstens auch 100% lüfter usen im vergleich zu den 85% der Titan. Titan auf 100% schafft auch über 5000 Umdrehungen mit mod bios;)

Hugo78
2013-10-20, 23:20:56
Besser bisserl Luft als wenn die Karte mit 100% Lüftergeschwindigkeit bei über 90°C vor sich hin brät, wie es bei der 8800GTX ja der Fall war...

Die 8800 GTX blieb unter 80°C, bei moderaten 50 dbA.
http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-ultra/26/

Screemer
2013-10-21, 00:17:30
Die haben da die Karte die meiste Zeit mit 100% Lüfterspeed laufen, die Vögel :freak:
also ich seh da 50% bei 93°C. die 100% ist die gpu-auslastung. darunter ist der lüfter.

ah, jetzt. das ist nur beim furmark-shot.

Skysnake
2013-10-21, 01:08:36
Jup ;)

StefanV
2013-10-21, 01:47:02
Die 8800 GTX blieb unter 80°C, bei moderaten 50 dbA.
http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-ultra/26/
Offener Testaufbau wohl, da sinds dann auch 80°C.
Bei 100% und AFAIR etwa 3500rpm oder so (wenn ichs recht im Hirn hab) wird meine 8800GTX aber sehr schnell 90°C warm. Und ja, WLP hab ich schon getauscht - mehrfach. Kühler ist auch sauber...

Wobei ich auch nicht von der G92/8800GTX sprechen sondern der G80/768MiB 8800GTX (IMO ein Fail, aber lassen wir das jetzt)...

Screemer
2013-10-21, 01:51:37
Wobei ich auch nicht von der G92/8800GTX sprechen sondern der G80/768MiB 8800GTX (IMO ein Fail, aber lassen wir das jetzt)...g92 war 8800gs/gt/gts 512, eine 8800gtx gabs nicht mit g92. es gab allerdings ne 9800gtx mit g92 und ne 9800gtx+ mit g92b.

StefanV
2013-10-21, 02:04:51
Stimmt, jetzt, wo du es sagst...

Ändert aber nichts an den Temperaturen, die ich aus 'meiner' 8800GTX beim Heaven Benchmark raus bekomme...

Dural
2013-10-21, 09:21:36
Offener Testaufbau wohl, da sinds dann auch 80°C.
Bei 100% und AFAIR etwa 3500rpm oder so (wenn ichs recht im Hirn hab) wird meine 8800GTX aber sehr schnell 90°C warm. Und ja, WLP hab ich schon getauscht - mehrfach. Kühler ist auch sauber...

Wobei ich auch nicht von der G92/8800GTX sprechen sondern der G80/768MiB 8800GTX (IMO ein Fail, aber lassen wir das jetzt)...

Das stimmt nicht, meine 8800GTX / 8800 Ultra werden bei 100% Lüfter nie 90°C + auch nicht mit OC. Bin mir nicht mehr so sicher, aber ich glaube die waren so um die 70-80°C
Die GTX280 war dagegen ein komplett anderes Kaliber, aber da lag es auch mehr an fehlerhaften Kühler / Montage / HS.

Dein Kühler ist wohl nicht richtig drauf. Die 8800GTX war gerade für ihren guten Kühler bekannt und extrem leise. Wenn du es nicht glaubst kann ich es gerne Testen, habe beide Karten noch da, die Ultra hat zwar WaKü drauf aber die 8800GTX ist stock und läuft sogar richtig gut (680MHz)

V2.0
2013-10-21, 10:00:04
8800GT Single Slot war der Hitzkopf.

(del676)
2013-10-21, 10:38:08
Bei einem Kuehler ist Metall durch nichts zu ersetzen, ausser durch noch mehr Metall.
Je mehr Waerme man in den Kuehler pumpen kann, bevor sich dieser stark erwaermt, desto mehr Lastspitzen kann man abfangen ohne den Luefter hochdrehen zu lassen.

Aber bezueglich Referenzkuehler weiss man ja bei AMD woran man ist. Beim billigsten vom billigen. :fresse:

M4xw0lf
2013-10-21, 11:15:24
Bei einem Kuehler ist Metall durch nichts zu ersetzen, ausser durch noch mehr Metall.
Je mehr Waerme man in den Kuehler pumpen kann, bevor sich dieser stark erwaermt, desto mehr Lastspitzen kann man abfangen ohne den Luefter hochdrehen zu lassen.

Aber bezueglich Referenzkuehler weiss man ja bei AMD woran man ist. Beim billigsten vom billigen. :fresse:
Als ob die Verschalung um den eigentlichen Kühlkörper einen riesen Impact auf die Kühlleistung der gesamten Konstruktion hätte... Da besteht ja nicht mal Kontakt, auch bei NV nicht (GTX480 "Grillplatten-Edition" mal ausgenommen).

(del676)
2013-10-21, 11:32:00
Ja. Fehlkonstruktionen halt. ;)

Schaffe89
2013-10-21, 11:41:07
Erwähnenswert sind indes auch die Temperaturen, die in Metro 2033 trotz 20 Prozent Geschwindigkeit bei niedrigen 70 °C gelegen haben soll. Einen umfangreichen Test von PC Games Hardware wird es geben, sobald AMD den Vorhang fallen lässt.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-R9-290X-Benchmarks-OC-Ergebnisse-aufgetaucht-1093536/

Palpatin
2013-10-21, 11:43:22
Bei einem Kuehler ist Metall durch nichts zu ersetzen, ausser durch noch mehr Metall.

Doch durch Lüfter. Bei der 7990 hat AMD das super hinbekommen. Leider kommt die 290X wieder nur mit einem. http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/26078-test-amd-radeon-hd-7990.html?start=6

aufkrawall
2013-10-21, 11:46:42
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/AMD-Radeon-R9-290X-Benchmarks-OC-Ergebnisse-aufgetaucht-1093536/
omg, "20% Geschwindigkeit".
Bei PCGH braucht man wohl keinen Schulabschluss?

Skysnake
2013-10-21, 12:32:19
Du musst auch immer gleich beleidigend werden oder?

Dein Avatar passt echt... Sorry, aber das musste jetzt einfach mal gesagt sein. Man kann die Leute doch nicht immer so ankacken wie du das machst :down:

Schaffe89
2013-10-21, 12:33:01
Natürlich ist die Angabe lückenhaft, aber immerhin wird es wohl ein recht aussagekräftiges Gegenargument für die sein, die spekuliert haben die Karte läuft mit 94 Grad, was noch dazu in Furmark völlig nebensächlich ist.

Je nach dem wie die Drehzahlen konfiguriert ( 20% = 1000 rpm oder 20% = 1200RPM, oder was weiß ich)

Kann man trotzdem davon ausgehen, dass die Karte doch nicht so laut und heiß ist wie fast schon für fakt gehalten wurde, dass du da jetzt lieber jemanden von PCGH beleidigst, als die Message gedanklich zu verwerten, ist nicht unerwartet. ;)

Schreib du doch mal X News in ein paar Stunden, wenn man da erst anfängt passieren eben Fehler, ich wollte das auch machen, aber mir fehlte einfach i-wie die Zeit für sowas.

Edit´s Tante:

Zudem lag die GPU wohl bei angenehmen 70 Grad.

fondness
2013-10-21, 12:57:48
Gibt es jetzt eigentlichen schon ein NDA-Datum?

Skysnake
2013-10-21, 12:59:27
24.10 geistert immer wiederum, aber was "offizielles" gibt es noch immer nicht.

Schaffe89
2013-10-21, 13:03:32
Wahrscheinlich zögern sie den Launch so lange raus, bis sie wissen mit welchen Taktraten die 780 Ti läuft, wahrscheinlich gibts 2 Tage vor Launch dann nommal n neues Bios...^^

LSSJBroly
2013-10-21, 13:11:51
wahrscheinlich gibts 2 Tage vor Launch dann nommal n neues Bios...^^

Macht irgendwie keinen Sinn, wenn die ganzen Tester schon exemplare haben und testen;)
http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/Marcos-Gesundheitstipps-beeindruckender-Gehaeusestapel-Hauptplatine-fuer-BVB-Fans-1093298/

Superheld
2013-10-21, 13:40:09
http://us.hardware.info/productinfo/200741/amd-radeon-r9-290x-uber-mode#tab:overview

boxleitnerb
2013-10-21, 13:45:30
Schwierig zu beurteilen, bei solch hohen fps gibts wohl schon ein CPU-Limit teilweise.
Hab mal kurz auf Computerbase geschaut. Das Ding wäre knapp 20% schneller als ein Titan@Basistakt in BF3, wenn man die Skalierung von GTX 770 SLI mit 85% annimmt.

Screemer
2013-10-21, 13:56:51
oder man klick einmal hier: http://us.hardware.info/productinfo/200741/amd-radeon-r9-290x-uber-mode#tab:testresults

dann kann man sich die spiele aussuchen die man vergleichen will und muss nicht viel rechnen. da ist quasi alles online....

boxleitnerb
2013-10-21, 14:02:23
Cool! So ca. 10% flotter als der Titan im Schnitt würde ich schätzen. Man weiß halt nicht, was für Taktraten beide GPUs da hatten.

Verbrauch im Uber Mode:
http://abload.de/thumb/chart5hoyx.png (http://abload.de/image.php?img=chart5hoyx.png)

M4xw0lf
2013-10-21, 14:04:39
Einiges ist da auch nicht so ganz zuverlässig - in zwei-drei Ergebnissen liegt die 7970 GE vor der 290X UND der Titan.
http://us.hardware.info/comparisontable/553923/geen_username/3d-chips-comparison-table-10212013-0800-am

Cool! So ca. 10% flotter als der Titan im Schnitt würde ich schätzen. Man weiß halt nicht, was für Taktraten beide GPUs da hatten.

Verbrauch im Uber Mode:
http://abload.de/thumb/chart5hoyx.png (http://abload.de/image.php?img=chart5hoyx.png)

Auch so ein Fall - die geben für diesen Bench bei der Titan einen Maximalverbrauch an, der 20W unter dem Durchschnittsverbrauch liegt.

haudi
2013-10-21, 14:07:00
Hmm schau dir mal die Tests genauer an;) Bioshock z.b. ist sehr lustig! Ne single Titan schneller als nen 780er sli;) in ultra... Was soll man davon halten?
Alles immer noch leider spekulativ;). Hilft nix - warten ist angesagt!

boxleitnerb
2013-10-21, 14:13:38
Auch so ein Fall - die geben für diesen Bench bei der Titan einen Maximalverbrauch an, der 20W unter dem Durchschnittsverbrauch liegt.

Wo siehst du da was von Maximal- und Durchschnittsverbrauch?

Hmm schau dir mal die Tests genauer an;) Bioshock z.b. ist sehr lustig! Ne single Titan schneller als nen 780er sli;) in ultra... Was soll man davon halten?
Alles immer noch leider spekulativ;). Hilft nix - warten ist angesagt!

Ja, die Seite konnte noch nie (!) MGPU richtig benchen. Ich reg mich jedesmal auf, wenn die dazu was testen :D

M4xw0lf
2013-10-21, 14:17:46
Wo siehst du da was von Maximal- und Durchschnittsverbrauch?
Hier: http://us.hardware.info/productinfo/177515/nvidia-geforce-gtx-titan#tab:testresults

Power consumption (system) - Metro 2033 (max) 364 W
Power consumption (system) - Metro LL (1920x1080 VH, avg.) 383 W


Argh, das sind ja zwei verschiedene Metros ;D

boxleitnerb
2013-10-21, 14:20:14
Duh :D

M4xw0lf
2013-10-21, 14:23:38
Duh :D
Okay, das war also mein Fehler und nicht der der Seite - aber dann gibts immer noch seltsame Testergebnisse in Dirt, Far Cry 3, Hitman und Max Payne, wo die 7970 GE deutlich zu gut abschneidet ;)

boxleitnerb
2013-10-21, 14:26:46
Dirt passt doch. Mit GI ist die 7970 GHz hier so flott wie Titan. Medium ist CPU-Limit.
Was genau findest du sonst noch komisch?

Edit:
Ok, in FC3 ist die 7970 (non GHz) bei 40 fps, die 280X bei 55 fps. Schlussfolgerung: Die würfeln da unterschiedliche Treiberversionen durcheinander und testen wohl nur mit Launchtreibern...:freak:

john carmack
2013-10-21, 14:28:28
Was denkt ihr?
Was für eine CPU wird man min. brauchen um eine 290x zu befeuern?

M4xw0lf
2013-10-21, 14:29:45
Dirt passt doch. Mit GI ist die 7970 GHz hier so flott wie Titan. Medium ist CPU-Limit.
Was genau findest du sonst noch komisch?
Dass die 7970 GE in allen genannten Fällen auch deutlich vor der 290X liegen soll ^^

http://us.hardware.info/productinfo/benchmarks/6/3d-chips?specId=10885&tcId=286&products[]=200741&products[]=177515&products[]=156019
http://us.hardware.info/productinfo/benchmarks/6/3d-chips?specId=10831&tcId=286&products[]=200741&products[]=177515&products[]=156019
http://us.hardware.info/productinfo/benchmarks/6/3d-chips?specId=10884&tcId=286&products[]=200741&products[]=177515&products[]=156019

boxleitnerb
2013-10-21, 14:34:45
Wohl falsch beschriftet? Ich sagte ja, das sind Dilettanten :D

M4xw0lf
2013-10-21, 14:37:04
Schade, an sich sind die Vergleichsmöglichkeiten dieser Seite ziemlich genial... nur der Inhalt fällt qualitativ ab.

Iruwen
2013-10-21, 14:46:34
Was denkt ihr?
Was für eine CPU wird man min. brauchen um eine 290x zu befeuern?
Die Frage ist wohl eher welche Auflösung man benötigt um eine 290X auszulasten. Funktioniert Downsampling bei AMD eigentlich mittlerweile (wieder)?

Schaffe89
2013-10-21, 14:47:11
Sieht nach GTX 780 + 20% aus, aber einige Werte stinken, die Verbrauchswerte sind auch totaler Witz, wieso sollte die 290x 50 Watt mehr benötigen als ne 7970ghz? Was messen die da?

M4xw0lf
2013-10-21, 14:49:15
Die Frage ist wohl eher welche Auflösung man benötigt um eine 290X auszulasten. Funktioniert Downsampling bei AMD eigentlich mittlerweile (wieder)?
Ja, eingeschränkt. http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Downsampling-Bessere-Grafik-in-jedem-Spiel-auch-in-Crysis-2-Update-mit-Geforce-Treiber-29551-817462/

ShadowXX
2013-10-21, 15:32:01
Dass die 7970 GE in allen genannten Fällen auch deutlich vor der 290X liegen soll ^^

http://us.hardware.info/productinfo/benchmarks/6/3d-chips?specId=10885&tcId=286&products[]=200741&products[]=177515&products[]=156019
http://us.hardware.info/productinfo/benchmarks/6/3d-chips?specId=10831&tcId=286&products[]=200741&products[]=177515&products[]=156019
http://us.hardware.info/productinfo/benchmarks/6/3d-chips?specId=10884&tcId=286&products[]=200741&products[]=177515&products[]=156019
Cool, dann kann ich mir ja den Kauf einer neuen Graka verkneifen, meine alte 7970 GHz Ed. ist schneller als die neuen:eek::biggrin::freak::wink:

Superheld
2013-10-21, 15:49:40
oben sind noch paar andere benches gegen die gtx780
http://videocardz.com/47106/amd-radeon-r9-290x-review-charts-leak

boxleitnerb
2013-10-21, 15:51:08
Sieht nach GTX 780 + 20% aus, aber einige Werte stinken, die Verbrauchswerte sind auch totaler Witz, wieso sollte die 290x 50 Watt mehr benötigen als ne 7970ghz? Was messen die da?

Es sind gute 30W. Und du erwartest doch wohl nicht, dass die Karte 35% schneller ist als die 7970 GE, aber weniger verbraucht? :freak:
Zumal das der Über-Mode ist. Inzwischen sollte doch bekannt sein, dass dort die Spannung sehr hoch ist.

Botcruscher
2013-10-21, 18:13:39
Kommt die 290 eigentlich gleich zum Start mit? Weil man liest immer nur 290X...