Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014
Felixxz2
2013-10-15, 00:14:16
800Mhz Base, 1000Mhz Boost
http://forums.anandtech.com/showpost.php?p=35603702&postcount=342
Superheld
2013-10-15, 00:22:08
launch vllt am Freitag..
http://videocardz.com/46741/radeon-r9-290x-pictured-close
.
wieviel schafft Titan in Fire Strike Extreme überhaupt ?
Felixxz2
2013-10-15, 00:43:05
~4600
horn 12
2013-10-15, 06:42:03
Genau zu meinem Geburtstag,- am 19. Oktober dann bestellen
Denke aber es wird die R9 290, OHNE dem X :-)
Loeschzwerg
2013-10-15, 07:25:51
800Mhz Base, 1000Mhz Boost
http://forums.anandtech.com/showpost.php?p=35603702&postcount=342
Warum wird hier immer noch von Boost gesprochen wenn es doch keiner ist?! Die Karte wird versuchen immer mit maximalen Takt zu fahren, sofern es die Auslastung der Einheiten und die gesetzten Power Limits zulassen.
Falls nicht springt die Karte fröhlich in den Taktmodi hin und her. Ich würde eher von einem Max und Min Takt sprechen, nicht von Base und Boost.
Schade dass sich der Launch verschiebt :frown: Bin gestern meinen Gaming Rechner losgeworden, jetzt brauch ich Futter nen neuen.
Schaffe89
2013-10-15, 07:45:37
Warum soll es denn kein Boost sein? Die Karte wird mittels Powertune bei zuviel Hitze und zu viel Stromverbrauch gedrosselt.
Boost 2.0 ist im Endeffekt auch eine Drossel, am Anfang taktet die Karte hoch und wird nachher gedrosselt.
Man kann sichs argumentativ hindrehen wie es beliebt.
@ Loeschzwerg
Am Freitag ist Launch, 100% sicher, hat man ja anhand der Lieferungen der Karten schätzen können.
Loeschzwerg
2013-10-15, 08:05:50
Naja es ist eben kein Boost sondern nur eine Drosselung wenn Limits überschritten wurden. Es liegt quasi immer max Takt an, sieht man auch schön an Bonaire wie sich PT verhält.
Klar ist Hawaii ein anderes Kaliber, ich denke aber mit +20% PT wird es dort ebenfalls keine Drosselung geben.
NVs Technik fährt hier schon deutlich anders bzw. setzt eben freie Leistungskapazitäten in mehr Takt um.
Die Techniken sind umgekehrt zu betrachten wenn ihr mich fragt und deshalb vermeidet AMD auch die Bezeichnung "Boost".
Freitag wo bist du?! ;D
Ätznatron
2013-10-15, 08:24:08
Bei der Titan sinds 5 - da 14SMX. Die 780er haben wohl alle 4.
Ja, die bisherigen GTX 780 Modelle haben allesamt wohl nur 4.
Und für eine (sehr hypothetische) Titan Ultra fällt eine weitere Optimierungshoffnung weg, denn die "alte" Titan verfügt ja schon über 5 voll funktionsfähige GPCs.
M4xw0lf
2013-10-15, 08:24:25
NVs Technik fährt hier schon deutlich anders bzw. setzt eben freie Leistungskapazitäten in mehr Takt um.
Die Techniken sind umgekehrt zu betrachten wenn ihr mich fragt und deshalb vermeidet AMD auch die Bezeichnung "Boost".
Nee, es ist das gleiche in grün. Wenn Temperatur und Stromverbrauch unterhalb des jeweiligen Limits liegen -> Takt rauf.
StefanV
2013-10-15, 08:32:01
Nee, es ist das gleiche in grün. Wenn Temperatur und Stromverbrauch unterhalb des jeweiligen Limits liegen -> Takt rauf.
...nur ist eben das Problem bei nV, dass die Kühler z.T. relativ schwachbrüstig sind und daher eher Richtung min Takt als Max Takt gehen...
Letztendlich bleibt hier nichts anderes übrig als abzuwarten, wie das ganze denn letztendlich ausschaut und die das ganze funktioniert. Der verbaute Kühler ist ja auch nicht so ganz unwichtig...
Hugo78
2013-10-15, 09:13:02
...nur ist eben das Problem bei nV, dass die Kühler z.T. relativ schwachbrüstig sind und daher eher Richtung min Takt als Max Takt gehen...
Der DHE Kühler auf der Titan, kann sehr viel mehr wegkühlen und bleibt dabei immernoch deutlich leiser,
als das DHE Design was AMD zuletzt auf der 7970GHz hatte.
Es sind die engen Grenzen fürs Powertarget, Takt und die Temps die drosseln, nicht der Kühler.
Felixxz2
2013-10-15, 09:32:26
Wärs eigentlich möglich, dass AMD noch nen Konterchip gegen Titan Ultra mit 5 Sahder Engines bringt? Man hat ja noch Fläche.
M4xw0lf
2013-10-15, 09:34:45
Wärs eigentlich möglich, dass AMD noch nen Konterchip gegen Titan Ultra mit 5 Sahder Engines bringt? Man hat ja noch Fläche.
Rein von der Fläche her sicher. Aber den Aufwand betreibt AMD sicher nicht mehr unter 28nm.
AnarchX
2013-10-15, 09:40:56
Heute durften wohl erstmal die Chinesen ihre 280X/270X/260X Reviews veröffentlichen. Damit will man wohl deren sonst üblichen NDA-Bruch vermeiden.
Roy Taylor sprach in einem gelöschten Tweet von "few days" für die 290X: http://videocardz.com/46741/radeon-r9-290x-pictured-close
Wärs eigentlich möglich, dass AMD noch nen Konterchip gegen Titan Ultra mit 5 Sahder Engines bringt? Man hat ja noch Fläche.
Von der Fläche würde das sicher passen. Fragt sich nur ob das Design jenseits von Power of 2 skalierbar ist.
Aber noch einen Big-Chip wird AMD wohl eher nicht veröffentlichen. Eher erscheinen da noch ein paar weitere VI-Varianten (TrueAudio, DX11.2).
Palpatin
2013-10-15, 09:42:01
Der DHE Kühler auf der Titan, kann sehr viel mehr wegkühlen und bleibt dabei immernoch deutlich leiser,
als das DHE Design was AMD zuletzt auf der 7970GHz hatte.
Es sind die engen Grenzen fürs Powertarget, Takt und die Temps die drosseln, nicht der Kühler.
Das die Titan mit dem Stock relativ leise ist stellt eh keiner in Frage, das mit der Kühlleistung ist aber eine Vermutung deinerseits nehme ich an. Man müsste die Titan und die 7970GHZ so laufen lassen das beide gleich viel Strom verbrauchen und dann bei beiden die Lüfter auf 100% stellen und schauen wie Warm die Karten werden, ich bin mir nicht sicher ob da die Titan gewinnen würde.
M4xw0lf
2013-10-15, 09:48:07
Das die Titan mit dem Stock relativ leise ist stellt eh keiner in Frage, das mit der Kühlleistung ist aber eine Vermutung deinerseits nehme ich an. Man müsste die Titan und die 7970GHZ so laufen lassen das beide gleich viel Strom verbrauchen und dann bei beiden die Lüfter auf 100% stellen und schauen wie Warm die Karten werden, ich bin mir nicht sicher ob da die Titan gewinnen würde.
Natürlich würde sie das. Gleicher Stromverbrauch, aber größere Fläche - bessere Kühlung.
Felixxz2
2013-10-15, 09:53:23
Rein von der Fläche her sicher. Aber den Aufwand betreibt AMD sicher nicht mehr unter 28nm.
Wahrscheinlich nicht, ja. Aber mich würds brennend interessieren wie der Chip bei 550mm² abgeht.
Superheld
2013-10-15, 10:19:49
die machen immer so viel wie nötig ist, um mitzuhalten..
Wahrscheinlich nicht, ja. Aber mich würds brennend interessieren wie der Chip bei 550mm² abgeht.
Wahrscheinlich wie Schmidts Katze. Oder doch eher wie geschnitten Brot? :D
http://www.youtube.com/watch?v=fZUNZbhnoX4
AnarchX
2013-10-15, 10:22:20
Hands-on:
http://tieba.baidu.com/p/2651428774?pn=1
http://tieba.baidu.com/photo/p?kw=%CF%D4%BF%A8&flux=1&tid=2651428774&pic_id=12bf908fa0ec08fabb0079835bee3d6d54fbdacb&pn=1&fp=2&see_lz=1
Hält wohl im 3DMark die 1GHz, aber auch ~90°C.
Loeschzwerg
2013-10-15, 10:23:51
Nee, es ist das gleiche in grün. Wenn Temperatur und Stromverbrauch unterhalb des jeweiligen Limits liegen -> Takt rauf.
Mehr oder weniger läuft es auf ein ähnliche Ergebnis raus, ja, der Ansatz ist aber dennoch anders. Top-Down und Bottom-Up um es jetzt mal komplett zu vereinfachen :biggrin: Daher kann man auch nicht von Boost sprechen ;)
4Fighting
2013-10-15, 10:30:02
Hm erfreulich sind doch die 40% Lüfter...1900 RPM dürfte ja noch erträglich sein.
90°C ist natürlich viel zu heiß, aber zumindest mit einem ordentlichen Kühler werden da wohl nochmal 10-15°C runtergehen
M4xw0lf
2013-10-15, 10:30:25
Hands-on:
http://tieba.baidu.com/p/2651428774?pn=1
http://tieba.baidu.com/photo/p?kw=%CF%D4%BF%A8&flux=1&tid=2651428774&pic_id=12bf908fa0ec08fabb0079835bee3d6d54fbdacb&pn=1&fp=2&see_lz=1
Hält wohl im 3DMark die 1GHz, aber auch ~90°C.
Was gibts beim zweiten Link zu sehen? Mein NoScript aufm Arbeitsrechner mag die Seite nicht :usad:
Superheld
2013-10-15, 10:31:19
GPU-Z brauch wiedern update :down:
4Fighting
2013-10-15, 10:36:57
habs mal bei abload hochgeladen
http://abload.de/img/9c8d0b55b319ebc40f2d17gsrl.png (http://abload.de/image.php?img=9c8d0b55b319ebc40f2d17gsrl.png)
http://abload.de/img/12bf908fa0ec08fabb007g4s02.png (http://abload.de/image.php?img=12bf908fa0ec08fabb007g4s02.png)
http://abload.de/img/c091d52a2834349b0fa733ls3u.png (http://abload.de/image.php?img=c091d52a2834349b0fa733ls3u.png)
Superheld
2013-10-15, 10:39:09
is aber schön über 2 wochen her als die gebencht haben:freak:
4Fighting
2013-10-15, 10:41:13
is aber schön über 2 wochen her als die gebencht haben:freak:
das verstehe ich ehrlich gesagt auch nicht, warum dort september steht im Windows
dargo
2013-10-15, 10:44:05
93°C an der GPU finde ich aber schon heftig. :freak:
4Fighting
2013-10-15, 10:45:30
Hat sich erledigt mit dem September.
Er nutzt CPUZ 1.6.7, was erst am 12.10.13 released wurde....Sollte dann also doch stimmen
Superheld
2013-10-15, 10:45:40
warum ist der zweite x wert (X5728) höher ?
..gibt mir mal die Karte, ich mach dat für euch ihr Luschen:tongue:
4Fighting
2013-10-15, 10:47:47
warum ist der zweite x wert höher ?
beim ersten steht kein prozessor drin. Da scheint wohl was falsch gelaufen zu sein. Das ist auch beim P-Wert erkennbar, der ohne CPU Bezeichnung im 3D Mark steht, wobei der PT(Physics Test) eigentlich gleiche Zahlen liefert
Warum...k.A:confused::freak:
is aber schön über 2 wochen her als die gebencht haben:freak:
das verstehe ich ehrlich gesagt auch nicht, warum dort september steht im Windows
Hat sich erledigt mit dem September.
Er nutzt CPUZ 1.6.7, was erst am 12.10.13 released wurde....Sollte dann also doch stimmen
Ein falsch eingestelltes BIOS/Windows kommt mal vor.
MfG,
Raff
Felixxz2
2013-10-15, 10:54:55
Also der P und der zweite X Wert sind aber ziemlich hoch. Vor allem dafür, dass der 3DM11 nVidia vorzieht.
Superheld
2013-10-15, 11:04:30
Hat sich erledigt mit dem September.
Er nutzt CPUZ 1.6.7, was erst am 12.10.13 released wurde....Sollte dann also doch stimmen
warum kann das nicht richtig auslesen sch. programm..:(
Sandra oder so kann das bestimmt besser .
4Fighting
2013-10-15, 11:05:55
warum kann das nicht richtig auslesen sch. programm..:(
Verwechselst Du gerade CPUZ und GPUZ miteinander ?:)
Das frische CPUZ liefert doch korrekte Daten
Superheld
2013-10-15, 11:15:16
meinte dat GPU-Z, da steht ja nur *********** drin.
der 3dmark zeigt das Datum an, nix CPUZ.
Aber noch einen Big-Chip wird AMD wohl eher nicht veröffentlichen. Eher erscheinen da noch ein paar weitere VI-Varianten (TrueAudio, DX11.2).Jo, kleinere Chips, aber die wären dann auch prädestiniert um damit 20nm einzufahren.
4Fighting
2013-10-15, 11:28:25
Die Angaben zu der 290XT sind wohl frei erfunden hier oder ?:freak:
8GB Vram und die hohen Clocks sehen schon sehr heftig aus. Wie soll das gekühlt werden ?
http://abload.de/thumb/d6cb44bd_wfe74a2k36wnqsmm.jpeg (http://abload.de/image.php?img=d6cb44bd_wfe74a2k36wnqsmm.jpeg)
Botcruscher
2013-10-15, 11:32:35
Selbst wenn man selektiert bekommt man mal eben keine 200MHz mehr raus. Die Sache mit dem Speichertakt muss sich auch noch zeigen.
Superheld
2013-10-15, 11:38:49
der Weihnachtsmann lügt.
vllt kommt nächstes Jahr nur nen refresh mit höheren taktraten, wie bei der 7970 ghz edition.
Duplex
2013-10-15, 11:42:16
Selbst für eine "Radeon Titan" wäre der Takt zu hoch, 3072 Shader & 48 CUs, hab ich was übersehen?
1,1Ghz GPU & 8GB kann ich mir aber vorstellen.
Im Desktop Markt sind die 4 GB schon fast zu viel.
Hugo78
2013-10-15, 11:55:08
Man müsste die Titan und die 7970GHZ so laufen lassen das beide gleich viel Strom verbrauchen
Da hast du:
- http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/14/
Übertaktete "Titan (max)" mit 949-979Mhz mit etwas mehr Gesamtsystemverbauch ggü. der Referenz 7970GHz.
Verbrauch und Lautstärke.
http://www7.pic-upload.de/thumb/15.10.13/4oiwtlq1ijvv.jpg (http://www.pic-upload.de/view-21021577/titan.jpg.html)
Der Titankühler ist wie gesagt nicht das Problem, nur die kurze Leine die Nvidia der GTX Titan verpasst hat.
Felixxz2
2013-10-15, 12:13:00
Naja es könnte schon sein, dass es eigentlich 12 CUs pro Shader Engine sind (11 sind ja eine bisl krumme Zahl) und dann käme man auf 3072 Shader. Wäre kein großes Ding, aber kommt halt auf keiner der Slides vor.
M4xw0lf
2013-10-15, 12:17:33
Solches Geschmarri kommt auch jede Generation wieder auf. RV770/790 hatte angeblich schon inaktive Einheiten, genauso Cayman, Tahiti und jetzt Hawaii... BS.
boxleitnerb
2013-10-15, 12:18:56
93°C an der GPU finde ich aber schon heftig. :freak:
Temp Target sitzt bei...94°C ;)
Ich hab ja gesagt, dass AMD hier bis an die Grenzen gegangen ist und die Karten deutlich wärmer werden lässt @stock als Nvidia.
Felixxz2
2013-10-15, 12:19:06
Klar ist es Schmarrn, nur ist es vom rein technischen Standpunkt her leicht möglich. Aber natürlich haben die AMD Slides die 2816 schon bestätigt.
fondness
2013-10-15, 12:19:49
Temp Target sitzt bei...94°C ;)
Ich hab ja gesagt, dass AMD hier bis an die Grenzen gegangen ist und die Karten deutlich wärmer werden lässt @stock als Nvidia.
Hm, damit verschenkt man einiges an Verlustleistungeffizienz. Nicht unbedingt klug IMO.
BTW, sollte heute noch zumindest ein Folien-NDA fallen? Oder war die Folie mit dem Datum ein Fake?
Duplex
2013-10-15, 12:20:37
Vielleicht hat man wie bei GK110 einiges deaktiviert, könnte sein das nächstes Jahr ein Refresh mit 3072 Shader, mehr Takt & weniger Verbrauch folgen wird?
@M4xw0lf
Ausschließen würde ich das nicht, vorher hat auch fast keiner an 64 Rops oder 512 Bit gedacht...
M4xw0lf
2013-10-15, 12:24:13
Vielleicht hat man wie bei GK110 einiges deaktiviert, könnte sein das nächstes Jahr ein Refresh mit 3072 Shader, mehr Takt & weniger Verbrauch folgen wird?
@M4xw0lf
Ausschließen würde ich das nicht, vorher hat auch fast keiner an 64 Rops oder 512 Bit gedacht...
Was soll denn noch alles in den 438mm² versteckt sein? Das Bernsteinzimmer? :freak:
Felixxz2
2013-10-15, 12:29:50
Eigentlich ist noch ein zweiter Hawaii draufgestackt ;D
Schaffe89
2013-10-15, 12:51:02
3072 Shader würden sich jedenfalls runder anhören...^^
Ne, aber 93 Grad sind schon etwas hoch, vielleicht hat der Tester auch bei 30 Grad getestet oder sein Gehäuse war nicht gekühlt, ich glaub kaum, dass die Karten i.d.R. so heiß werden.
Aber schaden tuts nicht, meine GTX 480 im Rechner von meiner Freundin läuft immernoch.^^
LSSJBroly
2013-10-15, 12:56:35
Wen die 93°C aber wirklich dadurch zu stande kommen, dass AMD da das Temp-Target hinsetzt, bedeutet das entweder,
a) das Ding ist schwer zu kühlen und mit 80°C würde man sehr schnell ins Limit rennen und daher Takt runter. Oder
b) AMD will das Ding so leise wie möglich halten und pfeift etwas auf die Leistungsaufnahme und Temperatur.
Mit wieviel RPM dreht eigentlich der Radiallüfter der 7970 (GE?
fondness
2013-10-15, 12:58:47
b), die Drehzahl liegt unter 2000rpm, das sollte nicht sehr laut sein. Trotzdem glaube ich nicht dass das besonders klug ist, die Leute werden sich wegen der Leistungsaufnahme aufregen die bei so hohen Temperaturen deutlich zunimmt.
Spasstiger
2013-10-15, 12:59:53
Wenn die Nutzerbenchmarks in 3DMark 11 stimmen, dann muss Nvidia wohl mit einer Titan Ultra kontern, sofern sie die Performancekrone halten wollen. Mit den gezeigten Ergebnissen wird eine Titan mit maximierten Leistungs- und Temperatur-Target geschlagen. Was aber durchaus zu den Specs der Radeon R9-290X passt.
LSSJBroly
2013-10-15, 13:01:06
b), die Drehzahl liegt unter 2000rpm, das sollte nicht sehr laut sein.
b) halte ich auch am warscheinlichsten. Nur die 43% irritieren mich halt. Da hat AMD wohl ne völlig andere Lüfterkennlinie eingebaut. Bei der 7970 drehte der Lüfter schließlich auch mit etwa 43% :freak:
boxleitnerb
2013-10-15, 13:01:11
Wen die 93°C aber wirklich dadurch zu stande kommen, dass AMD da das Temp-Target hinsetzt, bedeutet das entweder,
a) das Ding ist schwer zu kühlen und mit 80°C würde man sehr schnell ins Limit rennen und daher Takt runter. Oder
b) AMD will das Ding so leise wie möglich halten und pfeift etwas auf die Leistungsaufnahme und Temperatur.
b)
M4xw0lf
2013-10-15, 13:03:46
b)
Boxi weiß zu viel und erzählt uns zu wenig :ubash2: :freak:
mironicus
2013-10-15, 13:06:37
Was verbraucht denn weniger?
Ein Chip bei 80 Grad und hoher Lüfterdrehzahl.
Ein Chip bei 93 Grad und niedriger Lüfterdrehzahl.
Boxi weiß zu viel und erzählt uns zu wenig :ubash2: :freak:
denk ich auch;-)
http://fudzilla.com/home/item/32818-amd-rx200-series-launch-hurt-nvidia-sales
Der Grafikkartenmarkt steht derweil...
fondness
2013-10-15, 13:15:40
Was verbraucht denn weniger?
Ein Chip bei 80 Grad und hoher Lüfterdrehzahl.
Ein Chip bei 93 Grad und niedriger Lüfterdrehzahl.
Natürlich a. Der Lüfter benötigt nicht so viel. Der Chip-Verbrauch hängt allerdings relativ stark von der Temperatur ab.
matty2580
2013-10-15, 13:17:54
thx MR 2 für den Link.
Diese News gefällt mir sehr...^^
Superheld
2013-10-15, 13:19:47
Wenn die Nutzerbenchmarks in 3DMark 11 stimmen, dann muss Nvidia wohl mit einer Titan Ultra kontern, sofern sie die Performancekrone halten wollen. .
bei AMD dauerts immer etwas länger bis sie kontern..
die müssen schneller als Titan sein, ...sonst gibts haue:P
mironicus
2013-10-15, 13:21:35
Seit den Preissenkungen bei AMD und den neuen Karten belegen sie alle Plätze der Top Ten bei Geizhals und Co. :D
Zwischen einer 7970 GHZ/R280 und einer gleich schnellen GTX 770 liegen immerhin 70-80 Euro, AMD hat mehr Speicher und noch Sachen wie Mantle in der Hinterhand, von der auch die alten 7000er-Karten profitieren werden.
y33H@
2013-10-15, 13:23:09
Natürlich a. Der Lüfter benötigt nicht so viel.Da wäre ich vorsichtig, das hängt stark vom Lüfter und der kühlenden Karte/GPU ab.
Skysnake
2013-10-15, 13:24:05
Wärs eigentlich möglich, dass AMD noch nen Konterchip gegen Titan Ultra mit 5 Sahder Engines bringt? Man hat ja noch Fläche.
Nein, ziemlich unwahrscheinlich. 5 lässt sich eher schlecht/ungünstig verdrahten. Ist meiner Meinung nach auch gar nicht nötig. Man sollte die freie Fläche lieber in ein wieder vergrößertes SI für mehr Takt und eben mehr L2 Cache plus mehr CUs packen. 11 (12?) CUs sind nicht wirklich viel. Tahiti hatte 16. Da kann man durchaus wieder hin. Alternativ falls 1:2 DP:SP fehlt eben dieses bringen.
Die Angaben zu der 290XT sind wohl frei erfunden hier oder ?:freak:
8GB Vram und die hohen Clocks sehen schon sehr heftig aus. Wie soll das gekühlt werden ?
http://abload.de/thumb/d6cb44bd_wfe74a2k36wnqsmm.jpeg (http://abload.de/image.php?img=d6cb44bd_wfe74a2k36wnqsmm.jpeg)
hm.... Also die Taktraten sehen schon extrem hoch aus.
Die 48CUs gefallen mit aber ganz ehrlich deutlich!!! mehr als die 44 CUs von Tahiti. Das sieht einfach extremst seltsam aus mit den 11CUs je Shader Engine... 48 wäre da einfach viel viel viel schöner und 4 CUs mehr sind jetzt auch nichts, was man nicht noch unter bekommen würde. Damit sinken halt nur noch weiter die Chancen auf 1:2 DP:SP :(
Naja es könnte schon sein, dass es eigentlich 12 CUs pro Shader Engine sind (11 sind ja eine bisl krumme Zahl) und dann käme man auf 3072 Shader. Wäre kein großes Ding, aber kommt halt auf keiner der Slides vor.
Ja, das sehe ich auch so. Könnte schon sein. Wie gesagt, wäre für mich sogar viel viel logischer als 11 CUs pro Shader Engine.
Solches Geschmarri kommt auch jede Generation wieder auf. RV770/790 hatte angeblich schon inaktive Einheiten, genauso Cayman, Tahiti und jetzt Hawaii... BS.
Wo kam das bei Tahiti? Das ist doch klar, dass das nen "schönes" Design ist, was überhaupt nicht erwarten lässt, dass da noch Einheiten sind, die nicht aktiviert sind. Genau so bei Cayman mit seinen 2x12 CUs. Das passt auch alles wunderbar.
Nur Hawaii sieht mit den 4x11 CUs EXTREM hässlich aus.
Was soll denn noch alles in den 438mm² versteckt sein? Das Bernsteinzimmer? :freak:
Naja, an der Packdichte würde sich ja nichts ändern. Es wäre ja der gleiche Chip. Es würde sich "nur" der Transistorcount pro CU verkleinern.
Je mehr CUs wirklich drauf sind, desto unwahrscheinlicher wird halt 1:2 DP:SP. Inzwischen glaube ich da auch nicht mehr dran. Das wird wohl bei 1:4 DP:SP bleiben, es sei denn Tahiti hatte bereits 1:2 DP:SP, welches aber "kaputt" war. Das kann ich aber nicht so wirklich glauben.
Eventuell bekommen wir sogar 1:16 DP:SP, was natürlich schon ein herber Rückschlag wäre :(
Was verbraucht denn weniger?
Ein Chip bei 80 Grad und hoher Lüfterdrehzahl.
Ein Chip bei 93 Grad und niedriger Lüfterdrehzahl.
Wahrscheinlich der kühlere Chip. Man wird wohl von >=13W für den kühleren Chip ausgehen. So viel wird der Lüfter wohl nicht verbrauchen.
mironicus
2013-10-15, 13:28:40
Wahrscheinlich der kühlere Chip. Man wird wohl von >=13W für den kühleren Chip ausgehen. So viel wird der Lüfter wohl nicht verbrauchen.
Die Frage habe ich mir gestellt, weil ich ich noch im Kopf hatte das die Radiallüfter nicht gerade wenig Strom verbrauchen bei hoher Drehzahl - im Gegensatz zu den üblichen 12 cm-Lüftern mit maximal 1000 Umdrehungen im PC laufen die Grafikkartenlüfter mit 3-4 facher Drehzahl.
fondness
2013-10-15, 13:29:41
Wenn die Nutzerbenchmarks in 3DMark 11 stimmen, dann muss Nvidia wohl mit einer Titan Ultra kontern, sofern sie die Performancekrone halten wollen. Mit den gezeigten Ergebnissen wird eine Titan mit maximierten Leistungs- und Temperatur-Target geschlagen. Was aber durchaus zu den Specs der Radeon R9-290X passt.
Habe ich mir auch schon gedacht. Die Werte sind höher als von mir erwartet. Da muss sich NV selbst mit einer Titan Ultra ordentlich strecken.
Superheld
2013-10-15, 13:38:14
Habe ich mir auch schon gedacht. Die Werte sind höher als von mir erwartet. Da muss sich NV selbst mit einer Titan Ultra ordentlich strecken.
sind doch nur ~200 Punkte bei 3dmark11 xtreme mehr bei der 290x ..?
dargo
2013-10-15, 13:43:11
Temp Target sitzt bei...94°C ;)
Ich hab ja gesagt, dass AMD hier bis an die Grenzen gegangen ist und die Karten deutlich wärmer werden lässt @stock als Nvidia.
Dann hoffe ich auf gute Custom-Designs. Die Temperatur wäre mir zu hoch.
Duplex
2013-10-15, 13:45:37
Habe ich mir auch schon gedacht. Die Werte sind höher als von mir erwartet. Da muss sich NV selbst mit einer Titan Ultra ordentlich strecken.
Vielleicht kommt ein GK110 "A2".
fondness
2013-10-15, 13:46:00
sind doch nur ~200 Punkte bei 3dmark11 xtreme mehr bei der 290x ..?
Naja eine Titan mit max Leistungs- und Temperatur-Target taktet bereits relativ hoch. Das eine zusätzliche SMX wird maximal für einen knappen Gleichstand reichen. Da muss also noch mehr Takt her wenn man vorne liegen will.
boxleitnerb
2013-10-15, 13:50:08
Natürlich a. Der Lüfter benötigt nicht so viel. Der Chip-Verbrauch hängt allerdings relativ stark von der Temperatur ab.
Wenn man den Boost außer Acht lässt, ja. Aber da die Temperatur in das Boostverhalten bei beiden IHVs mit eingeht, klar b)
Iruwen
2013-10-15, 13:50:44
Was soll denn noch alles in den 438mm² versteckt sein? Das Bernsteinzimmer? :freak:
:biggrin:
mironicus
2013-10-15, 13:55:29
Was soll denn noch alles in den 438mm² versteckt sein? Das Bernsteinzimmer? :freak:
Eine Projektions- "fläche" für alle deine Sehnsüchte, Wünsche und Träume. :freak:
Superheld
2013-10-15, 13:56:50
da is noch der Uniqine Heaven Benchmark dabei, bissel niedrig ?
http://videocardz.com/46785/amd-radeon-r9-290x-performance-charts-emerge
4Fighting
2013-10-15, 14:02:25
Der Chinese macht weiter:biggrin:
http://abload.de/img/76afb17eca806538145bfyzjzr.png (http://abload.de/image.php?img=76afb17eca806538145bfyzjzr.png)
http://abload.de/img/55c2cb8065380cd788affz3j5i.png (http://abload.de/image.php?img=55c2cb8065380cd788affz3j5i.png)
Locuza
2013-10-15, 14:03:48
11 (12?) CUs sind nicht wirklich viel. Tahiti hatte 16. Da kann man durchaus wieder hin.
Damit man insgesamt wieder ein vielleicht zu schwaches Front-End hat? :tongue:
Nur Hawaii sieht mit den 4x11 CUs EXTREM hässlich aus.
Ja und was sehen wir denn dort? Aufgeteilt als 2 x 4 + 1 x 3 Compute-Unit Gruppe pro Shader-Engine . :P
Naja, nicht so schlimm, Cape Verde und Pitcairn waren ebenfalls schon bisschen krumm.
Superheld
2013-10-15, 14:13:13
Der Chinese macht weiter:biggrin:
http://abload.de/img/76afb17eca806538145bfyzjzr.png (http://abload.de/image.php?img=76afb17eca806538145bfyzjzr.png)
http://abload.de/img/55c2cb8065380cd788affz3j5i.png (http://abload.de/image.php?img=55c2cb8065380cd788affz3j5i.png)
3dmark99 wäre interessanter;)
fanspeed is auch nur auf 43%..da geht noch was..
Palpatin
2013-10-15, 14:21:29
Der Chinese macht weiter:biggrin:
Wenn die tatsächlich @ Stock 9500 im Firestrike erreicht hat AMD bei der Präsentation aber ordentlich einen auf Understatement gemacht. ;). Da könnte sogar die 290 mit Titan@Stock gleichziehen.
Gipsel
2013-10-15, 14:23:02
Nur Hawaii sieht mit den 4x11 CUs EXTREM hässlich aus.Ach komm, sieh die Sea Islands-Generation einfach als die "Prime"-Islands an!
Hainan/Sun hat eine Shaderengine mit 5 CUs, Bonaire hat zwei Shaderengines mit je 7 CUs und Hawaii hat vier Shaderengines mit je 11 CUs. Alles wunderschöne Primzahlen! :D
Felixxz2
2013-10-15, 14:23:54
Wäre 690 Niveau.
dildo4u
2013-10-15, 14:23:59
Wenn die tatsächlich @ Stock 9500 im Firestrike erreicht hat AMD bei der Präsentation aber ordentlich einen auf Understatement gemacht. ;). Da könnte sogar die 290 mit Titan@Stock gleichziehen.
Die könnten einfach mit ihren Schrott CPU gebencht haben was natrülich Blödsinnig ist wenn man für die Karten Werbung machen will.
Wäre 690 Niveau.
690 schafft 10000.
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r7-260x-r9-270x-und-280x-im-test/16/
4Fighting
2013-10-15, 14:25:21
Wenn die tatsächlich @ Stock 9500 im Firestrike erreicht hat AMD bei der Präsentation aber ordentlich einen auf Understatement gemacht. ;). Da könnte sogar die 290 mit Titan@Stock gleichziehen.
bei 93°C:freak:
Viele User haben keine ordentliche Belüftung im Case. Da werde die CPU Temps dann auch mal schnell ein paar Grad wärmer
Gipsel
2013-10-15, 14:28:23
Wenn die tatsächlich @ Stock 9500 im Firestrike erreicht hat AMD bei der Präsentation aber ordentlich einen auf Understatement gemacht. ;). Da könnte sogar die 290 mit Titan@Stock gleichziehen.Ist der Graphics Score (knapp 11000) nicht vergleichbarer, wenn man unterschiedliche Systeme hat?
ellevit
2013-10-15, 14:29:17
Wieso werden eigentlich immer wieder Firestrike Werte der Praesentation gebracht, wenn da keine klaren Werte gezeigt worden sind, sondern einfach ueber 8000 abgeschnitten wurde?
Damit laesst man schoen die Konkurrenz im Unklaren, hat aber wohl nicht mit gerechnet, dass die Leute ploetzlich Werte von 8000/8300 fuer bare Muenze nehmen.
Gipsel
2013-10-15, 14:29:34
bei 93°C:freak:
Viele User haben keine ordentliche Belüftung im Case. Da werde die CPU Temps dann auch mal schnell ein paar Grad wärmerDa stellt sich die Frage, wie hoch der Lüfter dreht, um die Temperatur zu halten, bevor der Takt zurückgenommen wird. ;)
Palpatin
2013-10-15, 14:36:08
690 schafft 10000.
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r7-260x-r9-270x-und-280x-im-test/16/
Ja aber nicht mit der @3,9GHZ CPU des Chinesen sondern mit der @4,4GHZ CPU von Computerbase.
Zergra
2013-10-15, 14:37:55
Da stellt sich die Frage, wie hoch der Lüfter dreht, um die Temperatur zu halten, bevor der Takt zurückgenommen wird. ;)
Ab 100% ist doch klar :D Wieso kann der Sonst so schnell drehen :freak::freak:
Iruwen
2013-10-15, 14:38:33
bei 93°C:freak:
Viele User haben keine ordentliche Belüftung im Case. Da werde die CPU Temps dann auch mal schnell ein paar Grad wärmer
Dann dreht der Lüfter halt etwas höher. Wozu die GPU kühler laufen lassen als notwendig, AMD wird sich über das Verhältnis von Temperatur zu Leistungsaufnahme schon Gedanken gemacht haben. Ist mir wesentlich lieber als NVs dreckiges Limit das schon bei unter 80°C anfängt zu drosseln, vor allem wenn die Spawas trotzdem bei 120°C vor sich hin glühen.
Superheld
2013-10-15, 14:41:20
Ist der Graphics Score (knapp 11000) nicht vergleichbarer, wenn man unterschiedliche Systeme hat?
wenn man die grafikleistung vergleichen will ja, ansonsten kommt noch cpu/speicher leistung usw. mit in das ergebnis..
oder so:D
Wenn die tatsächlich @ Stock 9500 im Firestrike erreicht hat AMD bei der Präsentation aber ordentlich einen auf Understatement gemacht. ;). Da könnte sogar die 290 mit Titan@Stock gleichziehen.
Vielleicht haben die Treiber im September noch heftig gesuckt und man hat die Bremse nun gefunden und gekickt. :ugly:
MfG,
Raff
Superheld
2013-10-15, 14:51:47
der Praktikant ist schuld..:D
aufkrawall
2013-10-15, 15:02:25
der Praktikant ist schuld..:D
Ich glaub, bei AMD teilen auch gestandene Developer-Größen durch 0.
scnr :biggrin:
fondness
2013-10-15, 15:52:17
Wenn die tatsächlich @ Stock 9500 im Firestrike erreicht hat AMD bei der Präsentation aber ordentlich einen auf Understatement gemacht. ;). Da könnte sogar die 290 mit Titan@Stock gleichziehen.
Es war doch für jeden klar und offensichtlich, dass AMD die Skala abgeschnitten hat, und die wahre Leistung noch nicht verraten wollte.
Aber die Leistung liegt tatsächlich höher als erwartet, erstaunlich was da alles in 438mm² Platz hat. Wenn jetzt auch noch die 1:2 DP stimmen wäre das schon ziemlich beeindruckend.
tm0975
2013-10-15, 15:58:15
...Wenn jetzt auch noch die 1:2 DP stimmen wäre das schon ziemlich beeindruckend.
Ich bin mir sicher, dass der geneigen Anwenderschaft so schnell nicht die Ideen und Wünsche ausgehen werden. 20 Watt weniger, 10 °C kühler oder am besten gleich passiv.... 2 zum Preis von einer. mehr spiele, mehr shader, mehr takt, buntere Verpackung, edlere Materialien...
Skysnake
2013-10-15, 16:12:31
Damit man insgesamt wieder ein vielleicht zu schwaches Front-End hat? :tongue:
Und?
Wird am Ende wohl dennoch ausgewogener sein als mit ner fünften ShaderEngine. Wenn dann bitte gleich auf 6 oder am Besten 8 hoch und dafür halt etwas schwachbrüstiger auslegen.
Ja und was sehen wir denn dort? Aufgeteilt als 2 x 4 + 1 x 3 Compute-Unit Gruppe pro Shader-Engine . :P
Naja, nicht so schlimm, Cape Verde und Pitcairn waren ebenfalls schon bisschen krumm.
Ja und da ist das auch schon ziemlich hässlich, wobei es halt noch kleine Chips sind, und man hier auch einfach auf Leistung XY kommen wollte. Da kann! es durchau Sinn machen, einfach weil man die großen Volumina hat. Die hat man bei Hawaii aber nicht, und es ist halt der TopDog. Da mach ich doch nicht freiwillig ein krummes Design :ugly:
4 CUs könnten durchaus Redundanz sein. Das Ding packt ja doch ziemlich dicht.
Ach komm, sieh die Sea Islands-Generation einfach als die "Prime"-Islands an!
Hainan/Sun hat eine Shaderengine mit 5 CUs, Bonaire hat zwei Shaderengines mit je 7 CUs und Hawaii hat vier Shaderengines mit je 11 CUs. Alles wunderschöne Primzahlen! :D
JA super... -_-
Das sind dennoch alles andere als "schöne" Designs. Versteh echt nicht, warum die sowas machen. Da liegt doch jedes mal massig Zeug brach. Effizient ist was anderes.
Im Gegensatz zu Hawaii kann ich mir aber nicht so recht vorstellen, das man soviel Redundanz reinpackt, nur um die Yiealds hoch zu ziehen...
Wäre echt mal interessant, AMD darauf an zu sprechen, warum Sie so krumme Designs machen.
mironicus
2013-10-15, 16:22:51
Wäre echt mal interessant, AMD darauf an zu sprechen, warum Sie so krumme Designs machen.
Die machen das mit Absicht nur um DICH zu ärgern! :freak:
Auf AMDs "To-Do-Liste"
(x) Slysnake ärgern :ulol5:
Bei der nächsten Karte gibt es dann 13! ;D
Locuza
2013-10-15, 16:27:26
Ja und da ist das auch schon ziemlich hässlich, wobei es halt noch kleine Chips sind, und man hier auch einfach auf Leistung XY kommen wollte. Da kann! es durchau Sinn machen, einfach weil man die großen Volumina hat. Die hat man bei Hawaii aber nicht, und es ist halt der TopDog. Da mach ich doch nicht freiwillig ein krummes Design :ugly:
Ich wollte Anfangs nicht an 44 CUs glauben, ich dachte AMDs Liebe zur Schönheit verbietet eine krumme Aufstellung beim Top-Dog, vielleicht war es auch meine eigene Liebe dazu. :tongue:
JA super... -_-
Das sind dennoch alles andere als "schöne" Designs. Versteh echt nicht, warum die sowas machen. Da liegt doch jedes mal massig Zeug brach. Effizient ist was anderes.
Was liegt den brach?
Duplex
2013-10-15, 16:30:49
Ich kann mich noch an Ailuros errinern mit seinen +15% gegenüber der 7970 Ghz, ist aber schon sehr lange her.
Nakai
2013-10-15, 16:38:25
AMD hat noch nie Redundanz in der Form von brachliegenden Rechenknechten eingebaut. Das waren immer Redundanzeinheiten, welche nicht benutzt werden konnten.
Das sind dennoch alles andere als "schöne" Designs. Versteh echt nicht, warum die sowas machen. Da liegt doch jedes mal massig Zeug brach. Effizient ist was anderes.
Mhh, was liegt den brach? Pro CU-Block gibt's ja einen Datacache/Instructioncache. Evtl ist die Auslastung der einzelnen CU-Blöcke weniger gut.
4 CUs könnten durchaus Redundanz sein. Das Ding packt ja doch ziemlich dicht.
Jap, Hawaii ist wirklich dicht 14MioTrans/mm². Und dann noch 1GHz Takt.
41% mehr Transistoren bei etwa 25% mehr Diesize im Vergleich zu Tahiti.
Entweder das Ding hat jedenfalls genug Transistoren.
komplettes Shader-Array aus 44 CUs | 241,3
Pad-Area des Speicherinterface | ~40
Frontend, Raster | ~40
L2, ROPs, Speichercontroller | ~60
->~380
+Rest = ~450
Wenn man von Tahit einfach hochskaliert und hier und da etwas abschätzt.
Durch die höhere Packdichte(12 -> 14) würde man bei etwa ~380mm² landen. Also nicht den Kopf hängen lassen, irgendwas frisst da etwas mehr Fläche weg. DP1:2?;)
Skysnake
2013-10-15, 18:01:04
Ich wollte Anfangs nicht an 44 CUs glauben, ich dachte AMDs Liebe zur Schönheit verbietet eine krumme Aufstellung beim Top-Dog, vielleicht war es auch meine eigene Liebe dazu. :tongue:
Kann sein, für mich sprechen da aber wirklich Gründe dagegen.
Was liegt den brach?
siehe unten
AMD hat noch nie Redundanz in der Form von brachliegenden Rechenknechten eingebaut. Das waren immer Redundanzeinheiten, welche nicht benutzt werden konnten.
AMD hat bisher auch keine SIMD Units gebaut ;)
Das kann sich durchaus ändern. Vor allem wenn es eben wie bei SIMD im Vergleich zu VLIW viel einfacher wird, die zusätzlichen Einheiten auch zu verwenden. Der Compiler muss ja nicht entsprechend angepasst werden um die Datenabhängigkeiten zu lösen.
Mhh, was liegt den brach? Pro CU-Block gibt's ja einen Datacache/Instructioncache. Evtl ist die Auslastung der einzelnen CU-Blöcke weniger gut.
Ja mit weniger CU-Blöcken sinkt wahrscheinlich die D/I-Cache Hitrate, womit dann eben mehr Datentransfers nötig sind, was wiederum mehr Verbrauch bedeutet. Ist zwar nur ein Bruchteil, aber warum? Man hat ja genug Platz um den DIE minimal auf zu pumpen.
Dazu kommt halt noch, das man bei Tahiti 32 CUs hatte in zwei Blöcken mit jeweils 16 CUs. Das sind genau 2^4 Variationen. Das lässt sich also gut auf nen Crossbar mappen. Die 12 gehen auch noch relativ gut zu mappen, 11 aber nicht. In den Verbindungsnetzwerken hätte man also unnötige Komplexität.
Man muss ja bedenken, dass die eben nur nen 4er Block designen werden und beim 3er nur etwas weg lassen. Die werden wohl eher nicht beide Varianten extra implementieren. Würde ja auch nicht wirklich was bringen. Man muss ja eh die selben Latenzen einhalten. Man will ja ein homogenes System haben.
Das zieht sich halt durch alle Ebenen der internen Kommunikationsnetze durch. Und nicht nur da! Man muss ja auch die ganzen Kontrollbits auf die 4er Blöcke auslegen. Deswegen war Tahiti ja auch so schön. Man kam mit 2^4 Bits aus für die jeweils 16 CUs. Man hatte ja 2 Raserizer, ACEs usw. Alternativ waren es halt 2^5 Bits.
Gut mit den 2^5 Bits würde man jetzt auch noch auskommen, aber man kann kein so schönes Mapping mehr hinbekommen bei den niederwertigen Bits. Ergo man muss mehr Bits durchschleifen als unbedingt nötig.
Mit den 12 bei Hawaii wäre das auch schon hässlich, aber 8 sind halt zu wenig und 16 zu viel gewesen. 12 kann man dann aber dennoch noch relativ gut mappen. Nimmt man die höherwertigen Bits für den 4er CU Block, und die unteren dann für die Auswahl der konkreten CU. Das funktioniert mit 12 gut, mit 11 eher weniger...
Kurz um, mit den ganzen Primzahlen macht man sich nur ärger und hässliche Designs, und das obwohl GCN an sich ein einfach wunderschönes Design vom Grundaufbau ist.
Jap, Hawaii ist wirklich dicht 14MioTrans/mm². Und dann noch 1GHz Takt.
41% mehr Transistoren bei etwa 25% mehr Diesize im Vergleich zu Tahiti.
Entweder das Ding hat jedenfalls genug Transistoren.
komplettes Shader-Array aus 44 CUs | 241,3
Pad-Area des Speicherinterface | ~40
Frontend, Raster | ~40
L2, ROPs, Speichercontroller | ~60
->~380
+Rest = ~450
Wenn man von Tahit einfach hochskaliert und hier und da etwas abschätzt.
Durch die höhere Packdichte(12 -> 14) würde man bei etwa ~380mm² landen. Also nicht den Kopf hängen lassen, irgendwas frisst da etwas mehr Fläche weg. DP1:2?;)
hm...
Ich will nicht mehr so recht dran glauben an 1:2. Es klingt einfach ZU! Gut.
Du solltest bei deiner Rechnung auch berücksichtigen, dass das 512 Bit Interface kleiner als das 384 Bit Interface von Tahitit ist :ugly:
Das entschäft die Sache etwas.
Ich versteh aber wirklich nicht, warum man bei 128 kB L2/MC geblieben ist :(
256 kB L2/MC wären schon ziemlich cool gewesen und hätten halt nochmals das SI entlastet. So wird man wohl nicht mehr reale Leistung aus den theoretischen Flops quetschen können bei GPGPU als bei Tahiti. Das ist ziemlich schade.
Platz genug hätte man ja gehabt mit dem <450mm² die -.-
Locuza
2013-10-15, 18:30:51
Kurz um, mit den ganzen Primzahlen macht man sich nur ärger und hässliche Designs, und das obwohl GCN an sich ein einfach wunderschönes Design vom Grundaufbau ist.
Mal einfach ein fun-fact und alle Faktoren mal ausgenommen.
Der einzig schön gerade Chip von der GCN Flotte war Tahiti und der Chip, der von der Effizienz aus der Reihe gesprungen ist, war Tahiti. :tongue:
Es war wirklich nur der Top-Dog gerade, jedenfalls auf dem Schaubild.
Irgendetwas hat Dave dazu gesagt, dass die Schaubilder nicht mit der Realität übereinstimmen, ich weiß allerdings nicht mehr was.
Ailuros
2013-10-15, 18:39:20
http://www.fudzilla.com/home/item/32826-radeon-r9-290-and-290x-allegedly-benchmarked
Was sonst ist neu? :rolleyes:
AnarchX
2013-10-15, 20:07:35
290X Preview bei PConline.cn:
http://diy.pconline.com.cn/363/3631256.html
http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks Backup
Wohl 300W Kartenverbrauch im FurMark?
dildo4u
2013-10-15, 20:12:24
War wohl zu verlockend Titan zu erreichen egal wie der Verbrauch aussieht.
Nightspider
2013-10-15, 20:15:13
Wieso steht bei der Titan nur der Basistakt in den Klammern? Die boostet doch auch.
Oder ist 1000Mhz jetzt doch der Basistakt der 290X?
Gibt Schlimmeres, sparsamer und langsamer machen kann man die Dinger innerhalb der Garantie ja. ;) Gute Custom-Designs werden indes die Temperatur in den Griff bekommen, wenn man höher gehen mag.
MfG,
Raff
LSSJBroly
2013-10-15, 20:17:01
Oder ist 1000Mhz jetzt doch der Basistakt der 290X?
Die 290X hat keinen Basistakt mehr. Das ding taktet stock mit 1.000MHz. Wird das PT oder TT erreicht, geht halt der takt runter. Wie weit, werden reviews zeigen.
Die haben wohl einfach den Takt übernommen, der rechts in GPU-z steht :)
Wohl 300W Kartenverbrauch im FurMark?
War wohl zu verlockend Titan zu erreichen egal wie der Verbrauch aussieht.
Hat doch die 7970 auch schon. Btw. Wer spielt Furmark?
horn 12
2013-10-15, 20:19:00
Sagte doch, AMD bekommt es nicht geschi..en die Leute noch stillhalten zu können.
Nun wird AMD´s Launch nach und nach zerlegt bis nix mehr übrig bleibt
(was die richtig harte Arbeit und fleißigen Online Tester, 3D Center, CB , PCGH, Forumdeluxx)
als sich ins Knie zu beißen für die hießigen, unter NDA gehaltenen Testberichte!
Felixxz2
2013-10-15, 20:19:47
War wohl zu verlockend Titan zu erreichen egal wie der Verbrauch aussieht.
War wohl egal wie der Inhalt ist, Hauptsache man hat gepostet. Bitte spar dir dein geflame, vor allem bei inoffiziellen Daten.
Sagte doch AMD bekommt es nicht geschixxen die Leute noch stillhalten zu können.
Nun wird AMD´s Launch nach und nach zerlegt bis nix mehr übrig bleibt
(was die richtig harte Arbeit und fleißigen Online Tester, 3D Center, CB , PCGH, Forumdeluxx)
als sich ins Knie zu beißen für dies hießigen Testberichte!
Jedes Mal der selbe Mist, ja.
MfG,
Raff
Dural
2013-10-15, 20:22:24
Hat doch die 7970 auch schon. Btw. Wer spielt Furmark?
sind trotzdem 60watt mehr als Titan :rolleyes:
dildo4u
2013-10-15, 20:23:49
Viehleicht sind die Nvidia's auch auf Baseclock begrenzt und deshalb der große Unterschied im Verbrauch.Die GTX780 erscheint mir im Verglich zur R280 zu langsam.
boxleitnerb
2013-10-15, 20:24:50
Es deutet zumindest darauf hin, dass der Verbrauch höher ist. Müssen in Spielen jetzt nicht auch 60W sein, klar. Es hätte mich aber verwundert, wenn AMD gleich effizient gewesen wäre. Ausgehend von der 7970 GHz wäre das einfach ein zu krasser Schritt gewesen. Wetten, die Boost-Spannung ist wieder jenseits von Gut und Böse? (vermutlich so 1.2+ V)
LSSJBroly
2013-10-15, 20:25:50
Die TDP der Karte liegt ergo bei 300 Watt. Das bedeutet aber auch, dass das Ding in Games auch bis zu 300 Watt ziehen darf.
Das gute: Warscheinlich sogut wie kein Power-Target-Limit und immer voll anliegende 1.000MHz.
Ronny145
2013-10-15, 20:26:51
Sagte doch AMD bekommt es nicht geschixxen die Leute noch stillhalten zu können.
Man könnte es auch anders formulieren: Auf die Chinesen ist Verlass!
Der Verbrauch und die Temperatur sieht unschön aus wenn sich das in Spielen so bestätigt. Effizient sieht anders aus. Bei der reinen Performance definitiv über der GTX780 den Werten zu urteilen. Auf Augenhöhe mit Titan oder etwas drüber, das kann sich sehen lassen wenn man den Verbrauch ausklammert.
Dural
2013-10-15, 20:28:05
umso höher die pack dichte eines chips ist umso höher ist der verbrauch bei hohem takt? hab ich das falsch in erinnerung oder ist es wirklich so? das würde den verbrauch im vergleich zu GK110 erklären, beide Chips sollen ja rund 7miliarden schwer sein.
sind trotzdem 60watt mehr als Titan :rolleyes:
Who cares? Bei den 300€ Ersparnis zu Titan kannst Du die Stromrechnung doch sicher bezahlen.
Locuza
2013-10-15, 20:30:38
Jedes Mal der selbe Mist, ja.
MfG,
Raff
Mal eine Frage dazu, hat das Nvidia jemals/öfters/meistens geschafft?
boxleitnerb
2013-10-15, 20:32:20
Who cares? Bei den 300€ Ersparnis zu Titan kannst Du die Stromrechnung doch sicher bezahlen.
Wenn AMD effizienter ist, wird es gefeiert, wenn es umgekehrt ist, ist es egal? :confused:
Thermi wurde deshalb in der Luft zerrissen. Ich begebe mich ja hier auf gefährliches Terrain, aber...der war auch spät (aber keine 8 Monate, sondern nur 6), heiß und hungrig und hatte im Schnitt einen wahrscheinlich größeren Vorsprung vor der 5870 als die R290X ggü. Titan hat. Hm...
Dural
2013-10-15, 20:32:47
Who cares? Bei den 300€ Ersparnis zu Titan kannst Du die Stromrechnung doch sicher bezahlen.
mir sind die 300watt eigentlich egal, jedoch bedeutet das in der regel auch weniger OC und das geht gar nicht.
NV wird's aber sicher freuen...
Nightspider
2013-10-15, 20:41:29
Wieso weniger OC?
Eine GTX480 unter Wasser ging auch gut ab.
Eine 290X unter Wasser wird hoffentlich auch gut abgehen. An Bandbreite dürfte es ihr ja nicht mangeln.
Duplex
2013-10-15, 20:42:53
Mit WaKü & Mod Bios sind bestimmt über 1300 GPU möglich.
Die GTX780 Classified von EVGA kann man auch auf 1300-1400 GPU übertakten!
gnahr
2013-10-15, 20:43:42
eine 480 wurde vom amd-marketing lächerlich gemacht ob der temperaturen und verbrauch...
dildo4u
2013-10-15, 20:45:03
Wieso weniger OC?
Die Karte hat ne TDP Begrenzung,die man vermutlich nur mit Mod Bios umgehen kann,wenn sie bei 1Ghz schon MAX TDP nutzt gibt's ohne Mod wenig Spielraum.
Duplex
2013-10-15, 20:45:09
Nvidias Antwort wird interessant, wird man die GTX780 & Titan weiterhin so lassen oder durch neue Modelle (GK110 "A2 Stepping") ersetzen?
horn 12
2013-10-15, 20:48:39
Hoffe der brave Chinese bringt heute noch einige Spiele Benchmarks, zudem Lüftergeschwindigkeit, Temperatur und Verbrauch unter den Neuesten Games, wie Metro LL, Crysis 3, Battlefield 4, Tomb Raider udg.
Der Launch ist soweit eh schon vermurkst, dann nutzt auch ein NDA nix mehr :-)
Duplex
2013-10-15, 20:50:51
EVGA Classified GTX780 (Luft) mit 1415 Mhz GPU @1.35v http://abload.de/image.php?img=vantagez5o7m.jpg
Da sieht man wie perfekt die GK110 Chips sein können!
Nvidia kann bei 300W TDP die R9-290x abziehen!
Sven77
2013-10-15, 20:51:19
Wegen eines Chinesen ist der Launch vermurkst? So ein Blödsinn, solche Leaks gibt's immer und interessieren mich nicht die Bohne, ich will Tests von CB, PCGH, Luxx usw.
Blediator16
2013-10-15, 20:51:37
Jede Veröffentlichung das selbe. Eine Doktor Arbeit könnte man darüber schreiben. Menschen sind ein echt merkwürdiges Völkchen^^
Who cares? Bei den 300€ Ersparnis zu Titan kannst Du die Stromrechnung doch sicher bezahlen.
Bei der 300 € Preisdifferenz wird es wohl kaum bleiben wenn Nvidia auf die R 290X reagiert
Nightspider
2013-10-15, 20:53:13
EVGA Classified GTX780 (Luft) mit 1415 Mhz GPU @1.35v http://abload.de/image.php?img=vantagez5o7m.jpg
Da sieht man wie perfekt die GK110 Chips sein können!
Nvidia kann bei 300W TDP die R9-290x abziehen!
GK180 mit 1,4 Ghz wäre hart. :biggrin: :cool:
Duplex
2013-10-15, 20:54:00
GK180 mit 1,4 Ghz wäre hart. :biggrin: :cool:
Naja, wenn Nvidia tatsächlich eine neue Maske in 28nm HPM plant, dann wird es für AMD schwierig :smile:
Ich denke die kontern dann nächstes Jahr mit einer neuen Karte, wahrscheinlich packen die 100-150Mhz noch drauf.
boxleitnerb
2013-10-15, 20:54:59
EVGA Classified GTX780 (Luft) mit 1415 Mhz GPU @1.35v http://abload.de/image.php?img=vantagez5o7m.jpg
Da sieht man wie perfekt die GK110 Chips sein können!
Nvidia kann bei 300W TDP die R9-290x abziehen!
Ob das noch in 300W geht...zweifelhaft ;)
Zergra
2013-10-15, 20:55:12
Nvidias Antwort wird interessant, wird man die GTX780 & Titan weiterhin so lassen oder durch neue Modelle (GK110 "A2 Stepping") ersetzen?
Stimmt Mitte 2014 kommt dann Maxwell in 20nm und kurz danach wohl was von AMD, aber wer wirklich an einen Titan Ultra oder Co noch glaubt... Das lohnt sich einfach nicht mehr
Duplex
2013-10-15, 20:56:18
Ob das noch in 300W geht...zweifelhaft ;)
Das war nur ein Beispiel, ein GK110 Vollausbau mit 1050-1100 Mhz Boost kann ich mit aber mit mehr Leistungsaufnahme vorstellen, nicht zwingend viel mehr.
Duplex
2013-10-15, 20:57:26
Stimmt Mitte 2014 kommt dann Maxwell in 20nm und kurz danach wohl was von AMD, aber wer wirklich an einen Titan Ultra oder Co noch glaubt... Das lohnt sich einfach nicht mehr
Ich glaube nicht mehr an Maxwell vor Q4/14, vielleicht überspringen beide Seiten den 20nm Prozess und warten auf 16nm FF Proben!
AMD hat seit fast 2 Jahren nichts mehr neues rausgehauen, außer eine Ghz Edition, außerdem ist AMD gerade kräftig am sparen, vor 2015 wird das evtl. nichts mehr mit neuer Gen.
Nightspider
2013-10-15, 20:59:24
Stimmt Mitte 2014 kommt dann Maxwell in 20nm und kurz danach wohl was von AMD, aber wer wirklich an einen Titan Ultra oder Co noch glaubt... Das lohnt sich einfach nicht mehr
Wieso, wäre doch günstiges Prestige.
GK180 wird sowieso produziert. Ob NV jetzt noch eine Variante davon für die Gamer auf den Markt wirft ist kostentechnisch relativ egal.
Ich glaube nicht mehr an Maxwell vor Q4/14, vielleicht überspringen beide Seiten den 20nm Prozess und warten auf 16nm FF Proben!
AMD hat seit fast 2 Jahren nichts mehr neues rausgehauen, außer eine Ghz Edition, außerdem ist AMD gerade kräftig am sparen, vor 2015 wird das evtl. nichts mehr mit neuer Gen.
Small Kepler Maxwell kommt doch in 28nm in groß in Q2 2014 wenn die Gerüchte stimmen.
Duplex
2013-10-15, 21:02:38
Small Kepler kommt doch in 28nm in groß in Q2 2014 wenn die Gerüchte stimmen.
Nur wenn Nvidia für Broadwell auch kleine Maxwell GPUs in 28nm plant, sollte das nicht zutreffen wird es schwierig.
dargo
2013-10-15, 21:06:04
Nvidia kann bei 300W TDP die R9-290x abziehen!
Ja... und vor allem dein Portemonnaie.
http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks
Paar Games sind schon drin.
horn 12
2013-10-15, 21:08:02
@Raff
Wird es noch gravierende Unterschied zu dem gerade verlinkten Preview zur R9 290X geben,- oder ist schon alles raus?
Das wird er Dir sicher sagen: "Nein, kauf das Heft nicht mehr, die Benches stimmen 1zu1."
Duplex
2013-10-15, 21:10:19
10-15% mehr Boost & 15 SMX kann man bereits nächsten Monat erwarten, das muss nicht umbedingt unter den Namen "Titan Ultra" laufen, lasst euch mal überraschen ;)
Duplex
2013-10-15, 21:12:30
Wird es noch gravierende Unterschied zu dem gerade verlinkten Preview zur R9 290X geben,- oder ist schon alles raus?
Als ob in der Vergangenheit alles Reviews gleich wären...
Es wird wie immer Unterschiede geben, primär wegen den Test System.
Peter Gräber
2013-10-15, 21:12:43
Könnte man sich vielleicht mal darauf einigen, dass "Boost" nur ein Marketing-Instrument ist. Das gibt es nicht. Es gibt einfach nur bei beiden Herstellern einen Maximal-Takt und der wird von Beginn an angelegt und danach heruntergefahren, wenn die Kriterien nicht passen. Bislang haben NV und AMD deutlich unterschiedliche Kriterien zum herunterfahren und bislang hält AMD seine maximalen Taktraten deutlich länger, als das bei NV der Fall ist (sei es nun Boost 1.0 oder 2.0). Für den Endkunden war PowerTune bislang weit ehrlicher und das nur aus meiner Testpraxis. Doch sei es drum - es würde mich nicht wundern, wenn PT 2.0 Rügen von mir erhalten wird.
Und zudem: eine "Base-Clock" hat AMD nie genannt und was da so aus BIOS-Versionen ausgelesen wird, ist dann auch nicht weiter hilfreich zum PT-Verstädnis, wenn man sieht, dass ne 280X durchaus auch mal unter extremer Last (Furmark) auf 500 MHz absenkt.
Wer nach bisherigem Kenntnisstand davon ausgegangen ist, dass R9 290(X) ein Sparwunder im Hinblick auf Leistungsaufnahme wird, der dürfte recht blauäugig durch die Welt marschieren. Mich verwundern zumindest diese geleakten Resultate aktuell wenig und wenn man eine höhere TDP zu Grunde legt, kann man jetzt schon davon ausgehen, dass auch die Thematik Lautstärke ein lustiger Punkt werden wird. Die schnellste Karte um jeden Preis? Das hat NV mit der 590 einst versucht und da wurde erstmals bewusst, welche Vorteile AMD sich mit PT erarbeitet hatte - da wurde es mir auch erstmals bewusst, nachdem ich es zuvor belächelt hatte.
Gespannt bin ich allerdings weiterhin auf einige Dinge, wenngleich ich nicht mehr wirklich mit Überraschungen rechne. Da find ich es aus sich einer Produktpalette aktuell deutlich besser, dass man tatsächlich die Preispunkte überarbeitet und wirklich alte Modelle ausrangieren kann (Stichwort: 240 und 250). Darüber hinaus bin ich mir recht sicher, dass sich nach der Vorstellung der R9 290X hier viele Beiträge einfinden werden, welche "fail" schreien werden. Wobei ich das wirklich nur aus "Erwartungen" schlussfolgere, nicht aus eigenen Erkenntnissen.
boxleitnerb
2013-10-15, 21:15:44
^ da stimme ich überhaupt nicht zu.
Nvidias Boost ist ehrlicher, denn nur hier wird ein Basistakt garantiert (und gehalten). Alles darüber ist Bonus und wurde nie garantiert. Vermutlich erscheint dir das "unehrlich", weil du eben diese Garantie irgendwo vorausgesetzt hast. Dem ist aber nicht so. Bei Powertune (1.0 und dann 2.0) wird hingegen ein Takt angegeben, der u.U. nicht gehalten werden kann. Bei Powertune 1.0 passiert das recht selten zugegeben, da muss man schon nach Fällen suchen. Bei 2.0 wird es aber wohl häufiger passieren vermute ich.
Ich hoffe, dass man CF direkt auf MR untersucht und guckt ob sich was getan hat...
Blaire
2013-10-15, 21:16:18
Der Verbrauch und die Temperatur sieht unschön aus wenn sich das in Spielen so bestätigt. Effizient sieht anders aus. Bei der reinen Performance definitiv über der GTX780 den Werten zu urteilen. Auf Augenhöhe mit Titan oder etwas drüber, das kann sich sehen lassen wenn man den Verbrauch ausklammert.
Seit wann bieten Metro Last Light,Tomb Raider oder Sleeping Dogs denn 4xMSAA-Support? LOL...
dildo4u
2013-10-15, 21:21:33
Karten kommen vermutlich am 25.10.
http://www.computerbase.de/news/2013-10/amd-verraet-termin-fuer-radeon-r9-290x-bf4-edition/
dargo
2013-10-15, 21:26:25
Seit wann bieten Metro Last Light,Tomb Raider oder Sleeping Dogs denn 4xMSAA-Support? LOL...
Das wird leider von vielen Reviewern falsch interpretiert.
horn 12
2013-10-15, 21:34:33
Viel interessanter wird wohl auch die R9 290 (OHNE X)
Wird wohl etwas kühler bleiben, vielleicht gute 10% langsamer und hoffentlich auch etwas weniger Strom Verbrauchen.
Könnte auf etwa 85-88 Grad kommen und falls der Verbrauch stimmt, auf knappe 40 Watt Mehrverbrauch gegenüber Titan kommen, welcher immer noch viel zu viel wäre!
Dort hätte AMD ansetzen müssen, aber auch bereits bei der R9 280X Karte.
PS: Dies immer fall das geleakte zutrifft, ansonsten kann man nur hoffen!
@Box
Was hälst Du vom verlinkten, entspricht der Wahrheit oder kommt noch Besserung zwecks Verbrauch und Temperatur?
Performance wäre mir gut genug, wird ja auch nur der kleine Bruder ... `
Dank Dir!
Bei Powertune 1.0 passiert das recht selten zugegeben, da muss man schon nach Fällen suchen. Bei 2.0 wird es aber wohl häufiger passieren vermute ich.Vor allem war V. 1.0 immerhin völlig deterministisch. So oder so halte ich dieses Gebooste für eine Seuche, ich finde es relativ übel, dass bei der 290X von 800 "base" und 1000 boost gesprochen wird (auch wenn es keinen Base-Takt geben *sollte*) - derartige Schwankungen müssen sich einfach auf die gefühlte Framerate auswirken. Sofern es um Runtertakten bei zu hoher Last geht jedenfalls - wenn es um Runtertakten bei VSync + niedriger Last geht hingegen, dann wäre es was Anderes :)
Wenn AMD effizienter ist, wird es gefeiert, wenn es umgekehrt ist, ist es egal? :confused:
Thermi wurde deshalb in der Luft zerrissen. Ich begebe mich ja hier auf gefährliches Terrain, aber...der war auch spät (aber keine 8 Monate, sondern nur 6), heiß und hungrig und hatte im Schnitt einen wahrscheinlich größeren Vorsprung vor der 5870 als die R290X ggü. Titan hat. Hm...Effizienz ist King - drum gibt's auch erst bei 20nm die nächste Karte :) Bei Launch war die 7970 noch sehr gut diesbezüglich, während es bei der 480 damals von Anfang an einen schlechten Eindruck vermittelte. Bei AMD ist im höheren Performance-Bereich inzwischen ist das Bild durch die GHz-Editionen wesentlich schlechter geworden und durch die GTX 780 erst recht.
boxleitnerb
2013-10-15, 21:45:08
@Box
Was hälst Du vom verlinkten, entspricht der Wahrheit oder kommt noch Besserung zwecks Verbrauch und Temperatur?
Performance wäre mir gut genug, wird ja auch nur der kleine Bruder ... `
Dank Dir!
Zur Performance hab ich keine eigenen Infos. Beim Verbrauch hieß es zwar, dass man weniger verbraucht als Titan/780, aber das ist zu sehr vom Boost abhängig bei beiden Karten, man kann unmöglich sagen wo und wie genau das gemessen wurde. Ergo: Auf Tests warten.
Tobe1701
2013-10-15, 22:19:41
Mich verwundern zumindest diese geleakten Resultate aktuell wenig und wenn man eine höhere TDP zu Grunde legt, kann man jetzt schon davon ausgehen, dass auch die Thematik Lautstärke ein lustiger Punkt werden wird. Die schnellste Karte um jeden Preis? Das hat NV mit der 590 einst versucht und da wurde erstmals bewusst, welche Vorteile AMD sich mit PT erarbeitet hatte - da wurde es mir auch erstmals bewusst, nachdem ich es zuvor belächelt hatte.
This! Schon die aktuellen Reviews zur den 280X-Karten finde ich enttäuschend in der Hinsicht, auch wenn es dort wohl noch moderat zugeht und ich mir z.B. hohe Lastlautstärke vlt. mit Never Settle noch versüßen lasse. Bin sehr gespannt was die Reviews dazu sagen.
aufkrawall
2013-10-15, 22:23:16
This! Schon die aktuellen Reviews zur den 280X-Karten finde ich enttäuschend in der Hinsicht, auch wenn es dort wohl noch moderat zugeht und ich mir z.B. hohe Lastlautstärke vlt. mit Never Settle noch versüßen lasse.
Gibt kein Never Settle für < Hawaii.
Hat man denn bei den custom designs von zB asus oder sapphire hohe Lastlautstärke?
@aufkrawall
Wird aber vorbereitet
http://www.fudzilla.com/home/item/32817-never-settle-coming-back-to-rx200-cards
dildo4u
2013-10-15, 22:29:04
Hat man denn bei den custom designs von zB asus oder sapphire hohe Lastlautstärke?
Bei dem Verbrauch wirds sehr schweig mit Luft wirklich leise zu sein.Leiser als der AMD Referenz Müll aber mit Sicherheit.MSI baur gerade sehr leise Karten.(Gameing Serie)
Aufkrawall schrieb von der 280x. Die Tahiti PCs+ ist eine der leisesten Karten überhaupt, deswegen frag ich.
Armaq
2013-10-15, 22:44:04
^ da stimme ich überhaupt nicht zu.
Nvidias Boost ist ehrlicher, denn nur hier wird ein Basistakt garantiert (und gehalten). Alles darüber ist Bonus und wurde nie garantiert. Vermutlich erscheint dir das "unehrlich", weil du eben diese Garantie irgendwo vorausgesetzt hast. Dem ist aber nicht so. Bei Powertune (1.0 und dann 2.0) wird hingegen ein Takt angegeben, der u.U. nicht gehalten werden kann. Bei Powertune 1.0 passiert das recht selten zugegeben, da muss man schon nach Fällen suchen. Bei 2.0 wird es aber wohl häufiger passieren vermute ich.
Auf meiner Sapphire Ghz hab ich nen Button, wenn der gedrückt wird liegt immer der Maximaltakt an. :)
dildo4u
2013-10-15, 22:44:33
Aufkrawall schrieb von der 280x. Die Tahiti PCs+ ist eine der leisesten Karten überhaupt, deswegen frag ich.
Laut dem Chinatest zieht 290X 60 Watt mehr als R280 ist also nicht vergleichbar.
Bei der R280 muss man schon aufpassen wenn man ne leise Karte baut kanns zum trotteln kommen.
http://ht4u.net/news/28453_artikel-update_msi_radeon_r9_280x_oc/
Botcruscher
2013-10-16, 00:05:50
Und zudem: eine "Base-Clock" hat AMD nie genannt und was da so aus BIOS-Versionen ausgelesen wird, ist dann auch nicht weiter hilfreich zum PT-Verstädnis, wenn man sieht, dass ne 280X durchaus auch mal unter extremer Last (Furmark) auf 500 MHz absenkt.
Das wird wohl einfach auch die Drossel mit eingebaut sein. Es ist ja schön wenn andere Karten(inkl. NV) da nicht runter takten, dafür wird die Karte per Treiber und Anwendungserkennung gebremst. Erst mal Test abwarten.
fondness
2013-10-16, 00:06:40
Es war klar, dass die Karte bei 94°C nicht wenig verbrauchen wird. AMD opfert Leistungsaufnahme für einen leisen Kühler. Lass den Kühler hoch drehen damit die so warm wird wie eine Titan und der Verbrauch wird schnell mal deutlich niedriger liegen. Allerdings kann es bei Furmark natürlich auch nur daran liegen, dass NV früher drosselt, also Games abwarten.
OBrian
2013-10-16, 00:11:36
umso höher die pack dichte eines chips ist umso höher ist der verbrauch bei hohem takt? hab ich das falsch in erinnerung oder ist es wirklich so? das würde den verbrauch im vergleich zu GK110 erklären, beide Chips sollen ja rund 7miliarden schwer sein.Wäre jedenfalls logisch: Mehr Einheiten auf gleicher Fläche bedeuten mehr Wärmeenergie auf gleicher Fläche, bei gleicher Kühlleistung pro Fläche bedeutet das höhere Temperaturen. Und die bedeuten höheren Verbrauch.
Aber so einfach ist es ja auch nicht, GK110 könnte viel Fläche für etwas verwenden, was wenig Transistoren enthält und auch wenig verbraucht und was in Hawaii gar nicht oder nicht in dem Maße vorhanden ist, womit dann die verbleibende Fläche ähnlich dicht gepackt wäre mit ähnlich abwärmestarken Schaltungen.
Pentium M
2013-10-16, 00:29:28
Welche Reviews messen eigentlich noch mit Furmark,und warum riegelt der Treiber nicht ab?
Schaffe89
2013-10-16, 01:11:16
Wenn AMD effizienter ist, wird es gefeiert, wenn es umgekehrt ist, ist es egal?
Die GTX 480 brauchte in der Praxis auch 100 bis 150 Watt mehr Strom für 15% mehr Leistung, wenn die 290x 60 Watt mehr Saft zieht aber 10% schneller ist als die Titan, dürfte das eigentlich ok sein, solange Lautstärke und Temperatur nicht durch die Decke gehen.
Ich begebe mich ja hier auf gefährliches Terrain,
Ja der Vergleich ist ziemlicher Käse, zumal die 290 pro wohl deutlich sparsamer wird.
Könnte man sich vielleicht mal darauf einigen, dass "Boost" nur ein Marketing-Instrument ist. Das gibt es nicht. Es gibt einfach nur bei beiden Herstellern einen Maximal-Takt und der wird von Beginn an angelegt und danach heruntergefahren, wenn die Kriterien nicht passen.
Ganz genauso sieht es aus, wobei bei Nvidia die Limits bei Titan eben enger gesetzt sind und Titan eben aufgrund dessen den Takt nicht halten kann, dafür aber sparsamer ist.
Eine Titan mit max PT und höherer Max. Temp ist auch nicht sparsamer.
Nvidias Boost ist ehrlicher, denn nur hier wird ein Basistakt garantiert (und gehalten). Alles darüber ist Bonus und wurde nie garantiert. Vermutlich erscheint dir das "unehrlich", weil du eben diese Garantie irgendwo vorausgesetzt hast.
Hier von ehrlicher zu sprechen ist wohl schon sehr weitab irgend eines nachvolziehbaren Argumentes.
In der Praxis taktet Nvidia bei wenig Last und Kühler Karte hoch, was einer Schwanzverlängerung für Benchmarks gleichkommt, bei AMD wird es jetzt wieder als schlecht deklariert, weil die Karte vermutlich dank höherer maximalen Temperatur und weniger eng eingestellten Powertunes kaum runtertaktet oder vielleicht eher gar nicht runtertaktet und da dient als Grundlage auch noch Furmark, lächerlich.
Hier einen "Boost" als besser oder schlechter einzustufen halteich schon für sehr gewagt, stell bei Nvidia die Regler hoch und schon zieht die Karte ebenso mehr Strom, wird heißer und lauter.
Man kann bestimmt Powertune drosseln und dann hat man eine leisere und stromverbrauchsärmere Karte je nach belieben, genauso wie nach Belieben wie bei Titan.
Ich finde deine negative Grundhaltung und den Nvidia ist Besser Käse recht merkwürdig.
Bei der R280 muss man schon aufpassen wenn man ne leise Karte baut kanns zum trotteln kommen.
Warum sollte man aufpassen müssen? In Furmark trotteln sogut wie alle Karten oder werden irgendwie ausgebremst.
Ich wüsste nicht, warum du diese Belanglosigkeit als Argument ausstaffierst.
mczak
2013-10-16, 01:17:00
Welche Reviews messen eigentlich noch mit Furmark,und warum riegelt der Treiber nicht ab?
Wie kommst du darauf dass der Treiber nicht darauf reagiert? Diese Spezialerkennung von früher was ja wirklich bloss ein billiger Hack, bei diesen neuen Karten sollte einfach das Power Target gehalten werden und wenn das so um die 300W sind dürfte das etwa hinkommen. Der Takt der da bei Furmark erreicht wird steht halt nicht.
(Uebrigens sieht auch die 7970 Ghz Edition oder die 280X ziemlich alt aus beim Stromverbrauch gegenüber der Titan, in Spielen ist das etwas weniger der Fall, die Titan hat in Spielen oft sogar leicht höheren Verbrauch als in Furmark, woran das genau liegt weiss ich aber nicht vielleicht arbeitet der Boost nicht so genau.)
Schaffe89
2013-10-16, 01:18:50
:facepalm:Das Power Target der 290x liegt sicher nicht bei 300 Watt, die TDP hat AMD doch schon genannt.
Pentium M
2013-10-16, 01:47:50
Trozdem bleibt die Frage Furmark Realität willkommen in der Matrix.
Schaffe89
2013-10-16, 01:56:03
Furmark ist nicht relevant, die HD 7970 brauchte zu Release dort auch 300 Watt, das taugt absolut nicht für Einschätzungen.
Aber den Wendehälsen hier ist das scheinbar wurscht, hauptsache das Getrolle geht wieder in die nächste Runde.
Es deutet zumindest darauf hin, dass der Verbrauch höher ist. Müssen in Spielen jetzt nicht auch 60W sein, klar. Es hätte mich aber verwundert, wenn AMD gleich effizient gewesen wäre.
Würde ich so nicht sagen, siehe HD 7970. Die Standard HD 7970 zieht nicht mehr wie Titan, aber auch 300 watt im Furmark, ich tippe daher auf eine ähnlich hohe Leistungsaufnahme, Stichwort 28nm HPM.
Selbst wenn man Powertune belässt, zog die 7970 statt 210 Watt 245 Watt, also 35 Watt mehr im Furmark.
Furmark hat absolut keine Relevanz.
Shakti
2013-10-16, 02:45:26
Was mich wirklich wundert, das hier auf 259 Seiten immer die selben Trolle ihr Gift gegen AMD verspritzen duerfen und ihnen niemand mal die rote Karte in den Arsch schiebt. Das faende ich mal sehr erfrischend, statt mich durch 259 Seiten billige Polemik und banale Strom, Hitze und allgemein ist AMD ja sowieso und ueberhaupt und waren schon immer und werden es immer sein scheisse "Argumente" durchlesen zu muessen.
Pentium M
2013-10-16, 02:52:41
Was du nun wieder willst.Wir können Rennen wir dürfen Stolpern.
AFAIK hat Titan zwar 5 Rasterizer aber nur mit 8 Pixeln/Takt/Rasterizer, was eben nur 25% mehr als auf GK104 sind. Bin natürlich jetzt nicht so in die Praxis involviert, hab jetzt nur die theoretischen Werte übertragen. Da wäre Hawaii mit 64 Pixeln/Takt deutlich vorn.
Die Rohleistung ist da sowieso wenig ausschlaggebend.
Wenn AMD nicht auf eine ordentliche Sort-Middle-Architektur wie NVIDIA umgestiegen ist, dann prognostiziere ich da weiterhin gravierende Nachteile.
Tobe1701
2013-10-16, 05:49:10
Hat man denn bei den custom designs von zB asus oder sapphire hohe Lastlautstärke?
Das ist nicht so einfach rauszukriegen, allein Asus baut ja schon mehrere 280X-Versionen die nicht alle einzeln getestet werden. Die Bewertung der CUII Top reicht von "total leise" bis "zu laut unter Last", "zu laut im Idle". Jeder neue Test kommt da irgendwie zu anderen Ergebnissen. Und dann gibts z.B. noch die MSI-Variante wo nicht jeder Review die Temperaturen mit erfasst. Hoffe die größeren Webseiten nutzen die Verschiebung der 290er für ausführliche Vergleichstests.
horn 12
2013-10-16, 06:43:35
Hoffe AMD besinnt sich und lässt fas komplette NDA inkl. Testberichten diesen Freitag fallen, ansonsten stiehlt Ihnen NV vielleicht gar noch di Show!
Bis Freitag sollten es alle Seiten schaffen, die Karte ausgiebig getestet zu bekommen!
Hoffe AMD besinnt sich und lässt fas komplette NDA inkl. Testberichten diesen Freitag fallen, ansonsten stiehlt Ihnen NV vielleicht gar noch di Show!
Bis Freitag sollten es alle Seiten schaffen, die Karte ausgiebig getestet zu bekommen!
Womit soll NV Ihnen die Show stehlen?
Schaffe89
2013-10-16, 07:36:06
Ich denke nicht, dass der GK 110 mit allen SMX schon fertig ist, schließlich war das Titan auch nicht, obwohl man von der Performance her etwas hinten lag.
Die 15 SMX Varianten dürften recht teuer sein, ansonsten wären die nicht erst jetzt im HPC und GPGPU Markt gekommen, viel wahrscheinlicher finde ich ne 780 Ti mit etwas mehr Verbrauch und leicht über Titan Leistung.
Die Titan geht EOL und in ein paar Wochen/Monaten kommt ne neue Speespitze alias Atlas oder sowas.
Hübie
2013-10-16, 08:36:02
Womit soll NV Ihnen die Show stehlen?
Mit Mantle in auf CUDA :freak:
nVidia sitzt nicht nur doof rum. Jensen liest jeden morgen was so abgeht ;)
Edit: Zum Rasterizer: War es bei der GTX780 nicht so, dass es einmal 4 und einmal 5 Raster-Engines gab? Je nach "Glück" des Käufers?
Mantle scheint ja auch immer fraglicher in seiner Sinnhaftigkeit, wenn nun MS und Sony sagen, dass es auf den Konsolen nichts verloren hat.
john carmack
2013-10-16, 08:54:43
Mantle scheint ja auch immer fraglicher in seiner Sinnhaftigkeit, wenn nun MS und Sony sagen, dass es auf den Konsolen nichts verloren hat.
Ich sagte ja bereits das es mich nicht wundern würde wenn uns AMD mal wieder enttäuscht.
Mantle scheint ja auch immer fraglicher in seiner Sinnhaftigkeit, wenn nun MS und Sony sagen, dass es auf den Konsolen nichts verloren hat.
Mantle auf einer Konsole wird doch eh nicht benötigt, hier wird doch schon Hardware nah programiert.
Aber auf der xbox1 ist es wohl ein optimiertes DX11.2 und auf der PS eine Sony-Kiste. Die Mantle-API wird auf beiden nicht laufen, so gesehen dass Mantle eigentlich ein zusätzlicher Port sein dürfte. Wie oft man das machen wird, wenn AMD nicht dafür bezahlt ist fraglich.
tm0975
2013-10-16, 09:16:36
(Uebrigens sieht auch die 7970 Ghz Edition oder die 280X ziemlich alt aus beim Stromverbrauch gegenüber der Titan, in Spielen ist das etwas weniger der Fall, die Titan hat in Spielen oft sogar leicht höheren Verbrauch als in Furmark, woran das genau liegt weiss ich aber nicht vielleicht arbeitet der Boost nicht so genau.)
Ich kann solche Argumentationen einfach nicht ernst nehmen. was denn bitte machst du mit deiner grafikkarte? mir ist Furmark im Ergebnis und im Verbrauch total egal. Es zählt einzig und allein die spieleperformance und der verbrauch.
die spannende frage ist, ob die mantle-API mit leistungssteigerungen bei den FPS auch den verbrauch beeinflußt. wie war das damals zu 3dfx etc-zeiten?
Schaffe89
2013-10-16, 09:18:33
Ich kann solche Argumentationen einfach nicht ernst nehmen. was denn bitte machst du mit deiner grafikkarte? mir ist Furmark im Ergebnis und im Verbrauch total egal. Es zählt einzig und allein die spieleperformance und der verbrauch.
Wart ab, dakommen noch mehr geistige Ergüsse aus dem grünen Lager.
Felixxz2
2013-10-16, 09:27:12
Die Rohleistung ist da sowieso wenig ausschlaggebend.
Wenn AMD nicht auf eine ordentliche Sort-Middle-Architektur wie NVIDIA umgestiegen ist, dann prognostiziere ich da weiterhin gravierende Nachteile.
Könntest du das kurz erklären? Hat sich bei Hawaii da was verbessert (mit den neuen Shader Engines)?
Skysnake
2013-10-16, 10:09:26
Die GTX 480 brauchte in der Praxis auch 100 bis 150 Watt mehr Strom für 15% mehr Leistung, wenn die 290x 60 Watt mehr Saft zieht aber 10% schneller ist als die Titan, dürfte das eigentlich ok sein, solange Lautstärke und Temperatur nicht durch die Decke gehen.
hm....
Also 60W Mehrverbrauch für 10% Mehrleistung wären durchaus grenzwertig. Würde meiner Meinung nach stark davon abhängen, wie auf Kante genäht die Karte ist. Wenn AMD typisch viel zu viel Spannung anliegt, und man ohne Spannungserhöhung 10% OCen kann, dann sind die 60W ok. Wenn nur 10MHz oder so OC gehen ohne Spannungserhöhung, dann sind die 60W zu viel. 30W wären absolut ok.
Man wird halt auch schauen müssen, wie sehr sich die eventuell sehr hohen Temps beim Verbrauch rächen...
Schwieriges Thema.
Womit soll NV Ihnen die Show stehlen?
Frag ich mich auch :freak:
Titan (Ultra) kanns nicht sein, denn das ist einfach nur *GÄHN
Mantle scheint ja auch immer fraglicher in seiner Sinnhaftigkeit, wenn nun MS und Sony sagen, dass es auf den Konsolen nichts verloren hat.
Ja, das ist wirklich so ne Sache. Das wird die Verwendung von Mantle stark einschränken.
Am Ende wirds wohl drauf raus laufen, das Mantle in Frostbite und nochmal 1-2 großen Engines drin sein wird. Eben weil die Engines lizenziert werden für sehr sehr viele Spiele und sich da die Investitionen dann auch amortisieren. Man kann das ja dann als Systemseller verwenden, weil die Engine an sich eben "leistungsfähiger" ist.
Damit lässt sich mehr Optik generieren. Im Prinzip halt genau wie bei PhysX. Es sind zwar nicht alle die das auch nutzen können, aber ein Werbeeffekt gibt es dennoch.
boxleitnerb
2013-10-16, 10:11:09
Auf meiner Sapphire Ghz hab ich nen Button, wenn der gedrückt wird liegt immer der Maximaltakt an. :)
Der Bios-Schalter oder ein anderer? So oder so, es wird ja gerne darauf verwiesen, mit Standardeinstellungen ohne Modifikationen zu testen. Auf diesen Zustand bezog sich auch mein Kommentar.
Die GTX 480 brauchte in der Praxis auch 100 bis 150 Watt mehr Strom für 15% mehr Leistung, wenn die 290x 60 Watt mehr Saft zieht aber 10% schneller ist als die Titan, dürfte das eigentlich ok sein, solange Lautstärke und Temperatur nicht durch die Decke gehen.
Ja der Vergleich ist ziemlicher Käse, zumal die 290 pro wohl deutlich sparsamer wird.
Nun, die Karte kommt spät, wird heiß und evtl. laut und hat wahrscheinlich einen hohen Verbrauch. Zudem trennen 15% und 100-150W und 10% und 60W jetzt nicht gerade Welten...im Ansatz scheint es durchaus Parallelen zu geben.
TDP wurde übrigens nirgendwo genannt, und ob es 28 HPM ist oder noch 28HP, ist ebenfalls noch nicht klar.
Hier von ehrlicher zu sprechen ist wohl schon sehr weitab irgend eines nachvolziehbaren Argumentes.
Du hast nicht verstanden, was gemeint war. Peter sagte, er findet AMDs Implementierung ehrlicher, dem widersprach ich auf Basis dessen, was garantiert ist und entsprechend beworben wird. Und hier unterscheiden sich eben Boost 2.0 und Powertune 2.0. (jedenfalls nach aktuellem Kenntnisstand), ganz einfach. Bei NV ist der Basistakt garantiert, bei AMD wird wohl nur der maximale Boost genannt. Wie genau der beworben wird, bleibt aber noch abzuwarten. Wenn es so wird wie bei Bonaire, ist es zumindest etwas undurchsichtig, weil außer den 1 GHZ, die aber nicht zwangsläufig anliegen müssen, sonst kein Takt genannt wird. Da musst du keine negative Grundhaltung monieren, es geht schlicht um diese Diskrepanz.
Superheld
2013-10-16, 10:26:40
290X Preview bei PConline.cn:
http://diy.pconline.com.cn/363/3631256.html
http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks Backup
Wohl 300W Kartenverbrauch im FurMark?
R9 290X vs NVIDIA GTX TITAN: 1%
..
sie verliert aber in BF3 , Farcry3 , Crysis3 usw :(
Iruwen
2013-10-16, 10:36:13
Was mich wirklich wundert, das hier auf 259 Seiten immer die selben Trolle ihr Gift gegen AMD verspritzen duerfen und ihnen niemand mal die rote Karte in den Arsch schiebt. Das faende ich mal sehr erfrischend, statt mich durch 259 Seiten billige Polemik und banale Strom, Hitze und allgemein ist AMD ja sowieso und ueberhaupt und waren schon immer und werden es immer sein scheisse "Argumente" durchlesen zu muessen.
Der Thread ist doch absolut zivilisiert und was du schreibst findet sich so gut wie gar nicht, und wenn dann vernünftig formuliert und begründet. Ganz im Gegensatz zu den billigen Einzeilern von V2.0 z.B. (obvious Troll ist obvious). Guck mal in den Thread zum GTX 480 Release oder einer vergleichbar miesen Karte von AMD. Klingt eher so als wolltest du persönlich vorab keine kritischen Stimmen hören.
Gipsel
2013-10-16, 10:38:42
Könntest du das kurz erklären? Hat sich bei Hawaii da was verbessert (mit den neuen Shader Engines)?
Mal ein Blick zurück zur Diskussion von Fermi (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8163466#post8163466). Ich sehe das übrigens nicht ganz so kritisch wie Coda. AMD hat meiner damaligen Meinung (steht auch da im Thread) bereits eine sort middle-Architektur, nur eine im Vergleich zu nV etwas grobe Variante mit ein paar Einschränkungen.
AMDs Block-Diagramm zu Hawaii (mit der anderen Anordnung der einzelnen Teile) entspricht praktisch übrigens exakt dem Schaubild einer Sort-middle Architektur in dem Pomegranate Paper. ;)
Crossbar zwischen Geometrieprocessing und Rasterizer:
http://abload.de/img/sort_middleziur3.png
Und was sieht man hier? ;)
http://www.hardwareluxx.de/images/stories/videocardz_blockdiagramme_hawaii.jpg
Felixxz2
2013-10-16, 10:39:40
Die Benches bis jetzt sind aber alle extrem undurchsichtig. Bei CB und PCGH heulen schon alle, dass der Takt und die steigerung bei OC nicht passt, weil eben die Boost Modi sehr schlecht dargestellt werden. Titan wird ja mit 837 und Hawaii mit 1000Mhz angegeben, aber beide werden wohl nicht damit takten in realen Spielen.
Deswegen find ich eben nur den Bench mit beiden bei 1100 wirklich interessant. Und da liegt Hawaii vorne. Letzten endes zählt doch nur IPC, taktbarkeit und der Strom den du dazu brauchst.
Wilhelm
2013-10-16, 10:42:22
In einem Dokument auf Servern von AMD wird der 25. Oktober 2013 für den Beginn der Bundle-Aktion aus Battlefield 4 und der Grafikkarte Radeon R9 290X angegeben. Spätestens zu diesem Zeitpunkt dürfte die Karte auch ohne das Spiel erhältlich sein
http://www.golem.de/news/bf4-edition-amd-bestaetigt-25-oktober-fuer-start-der-radeon-r9-290x-1310-102158.html
Schaffe89
2013-10-16, 10:43:04
Du hast nicht verstanden, was gemeint war. Peter sagte, er findet AMDs Implementierung ehrlicher, dem widersprach ich auf Basis dessen, was garantiert ist und entsprechend beworben wird.
Klar verstand ich, was gemeint war, aber du wirst doch nicht glauben, dass AMD 1ghz verspricht, wenn auf den Folien up to steht...., da ist gar nichts ehrlicher, weder bei AMD noch bei Nvidia, vor allem wenn man noch nicht mal Details kennt.
Nun, die Karte kommt spät, wird heiß und evtl. laut und hat wahrscheinlich einen hohen Verbrauch.
Dass Karten in Fumark heiß werden, wenn sie offensichtlich nicht besonders drosseln, dürfte wohl auf der Hand liegen, das gleiche Spiel bei der 7970.
Nvidias GTX 780 zieht in Furmark nicht mehr Strom und bleibt dann natürlich leiser.
Die 60 Watt in Furmark sind eal wahrscheinlich eher +10 bis 20 Watt.
boxleitnerb
2013-10-16, 10:46:23
Klar verstand ich, was gemeint war, aber du wirst doch nicht glauben, dass AMD 1ghz verspricht, wenn auf den Folien up to steht...., da ist gar nichts ehrlicher, weder bei AMD noch bei Nvidia, vor allem wenn man noch nicht mal Details kennt.
Wenn es "up to" ist, ok. Das macht Peters Aussage immer noch nicht richtiger. Und darum ging es mir ja letztendlich. Wie man es dreht oder wendet, es passt nicht.
Botcruscher
2013-10-16, 10:48:11
Ich verstehe die Aufregung auch nicht. Die 480 hat mehr gezogen als die 5870 Dualkarte, bei 15% Mehrleistung zur 5870. Der Spitzname Thermi hat absolut seine Berechtigung.
Dieses mal gibt es bei der Leistung Gleichstand, Spielverbrauch kennen wir nicht und die 60W Fur sind erst mal unwichtig. Wenn das Temperaturziel bei 90° liegt und die Spannung wie bei der 780 angepasst wird, dann sind da locker auch die 60W mit anderen Kühlern drin. Ohne richtigen Test ist doch eh keine Aussage möglich.
M4xw0lf
2013-10-16, 10:54:27
Glasklar - die Leaker werden von Nvidia geschmiert! :udevil:
Iruwen
2013-10-16, 11:06:20
Deshalb kommen die Leaks auch immer aus Asien.
http://i.imgur.com/zDRBloH.png
Felixxz2
2013-10-16, 11:10:11
Mal ein Blick zurück zur Diskussion von Fermi (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8163466#post8163466). Ich sehe das übrigens nicht ganz so kritisch wie Coda. AMD hat meiner damaligen Mainung (steht auch da im Thread) bereits eine sort middle-Architektur, nur eine im Vergleich zu nV etwas grobe Variante mit ein paar Einschränkungen.
AMDs Block-Diagramm zu Hawaii (mit der anderen Anordnung der einzelnen Teile) entspricht praktisch übrigens exakt dem Schaubild einer Sort-middle Architektur in dem Pomegranate Paper. ;)
Ah, vielen Dank. Habs zumindest im groben kapiert.
Und wollte auch grad schreiben, dass das Diagramm von Hawaii ja genau das zeigt und natürlich auch große Ähnlichkeiten zu den GPCs von nVidia hat.
tm0975
2013-10-16, 11:38:53
Bundle 290X + BF4 also doch in Deutschland kaufbar:
http://www.mindfactory.de/Highlights/AMD_Radeon_R9_290X
ShadowXX
2013-10-16, 12:20:37
Aber auf der xbox1 ist es wohl ein optimiertes DX11.2 und auf der PS eine Sony-Kiste. Die Mantle-API wird auf beiden nicht laufen, so gesehen dass Mantle eigentlich ein zusätzlicher Port sein dürfte. Wie oft man das machen wird, wenn AMD nicht dafür bezahlt ist fraglich.
Ich hab von Anfang an gesagt das Mantle nicht auf den Konsolen läuft / laufen wird...wollte ja keiner glauben.
Ja, das ist wirklich so ne Sache. Das wird die Verwendung von Mantle stark einschränken.
Am Ende wirds wohl drauf raus laufen, das Mantle in Frostbite und nochmal 1-2 großen Engines drin sein wird. Eben weil die Engines lizenziert werden für sehr sehr viele Spiele und sich da die Investitionen dann auch amortisieren. Man kann das ja dann als Systemseller verwenden, weil die Engine an sich eben "leistungsfähiger" ist.
Selbst DICE hat gesagt das es Mantle-Support nur für BF4 erstmal geben wird. Mantle ist nicht in die "normale" Frostbite Engine mit integriert, nur im BF4 Build (und da wohl auch noch nicht so lange, sonst müsste man nicht extra auf einen Mantlepatch warten).
Momentan gehe ich davon aus, das Mantle AMDs PhysX werden wird....ja, es gibt ab und zu mal nen Game was das unterstützt, aber richtig verbreiten tut es sich nicht.
..
sie verliert aber in BF3 , Farcry3 , Crysis3 usw :(
Wenn man sich die Benchmarks mal betrachtet, kommt es darauf hinaus, das bei Games die mehr nV liegen die 290X gegen die 780GTX antritt und in Games die sowieso schon eher ATI lagen mit der Titan mithalten kann.
Wenn ich mir den geschätzten Preis und anderes angucke, sieht man IMHO ganz gut warum ATI sagt das der Gegner die GTX780 ist und nicht die Titan.
Bundle 290X + BF4 also doch in Deutschland kaufbar:
http://www.mindfactory.de/Highlights/AMD_Radeon_R9_290X
Kaufbar ist das falsch Wort...es gibt Werbung dafür.
Felixxz2
2013-10-16, 12:27:37
Also bei den Leaks die ich ansehe, steht dass die 290X im Schnitt schneller als Titan ist.
Armaq
2013-10-16, 12:32:08
Der Bios-Schalter oder ein anderer? So oder so, es wird ja gerne darauf verwiesen, mit Standardeinstellungen ohne Modifikationen zu testen. Auf diesen Zustand bezog sich auch mein Kommentar.
Du hast nicht verstanden, was gemeint war. Peter sagte, er findet AMDs Implementierung ehrlicher, dem widersprach ich auf Basis dessen, was garantiert ist und entsprechend beworben wird. Und hier unterscheiden sich eben Boost 2.0 und Powertune 2.0. (jedenfalls nach aktuellem Kenntnisstand), ganz einfach. Bei NV ist der Basistakt garantiert, bei AMD wird wohl nur der maximale Boost genannt. Wie genau der beworben wird, bleibt aber noch abzuwarten. Wenn es so wird wie bei Bonaire, ist es zumindest etwas undurchsichtig, weil außer den 1 GHZ, die aber nicht zwangsläufig anliegen müssen, sonst kein Takt genannt wird. Da musst du keine negative Grundhaltung monieren, es geht schlicht um diese Diskrepanz.
BIOS Schalter? Ein Button auf der Oberseite - drücken und man hat immer 1050/1500 anliegen. Der Lüfter dreht dabei übrigens echt frei, aber mit TRIXX kann man sich nette Profile basteln, die funktionieren und es auch von der Lautstärke her passen lassen. Ist übrigens auch mMn. die einzig echte Art so einen Boost anzubieten. Freund hat die 7970 Gigabyte Windforce OC und da liegen die 1000 nur dann und wann an.
ShadowXX
2013-10-16, 12:50:10
Also bei den Leaks die ich ansehe, steht dass die 290X im Schnitt schneller als Titan ist.
Dann guck noch mal hier rein: http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks
Wenn du Cherry-Picking betreibst, dann ist die 290X vor Titan, wenn du durch die Benchmarks aber mal durchgehst wirst du sehen das das nur dadurch zustande kommt, das die ATI in manchen Games eben leicht vor Titan-Level ist, in vielen aber auch nur 780GTX....gemittelt sind das dann 1% vor Titan, aber eben mehr durch positive ausreisser.
Ich finde es momentan echt schwer die Karte vom Speed einzuordnen.
BIOS Schalter? Ein Button auf der Oberseite - drücken und man hat immer 1050/1500 anliegen. Der Lüfter dreht dabei übrigens echt frei, aber mit TRIXX kann man sich nette Profile basteln, die funktionieren und es auch von der Lautstärke her passen lassen. Ist übrigens auch mMn. die einzig echte Art so einen Boost anzubieten. Freund hat die 7970 Gigabyte Windforce OC und da liegen die 1000 nur dann und wann an.
Also ich hab ebenfalls ne Gigabyte Windforce OC und da liegen durchgehen 1100 MHz an....
Armaq
2013-10-16, 12:59:52
Dann guck noch mal hier rein: http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks
Also ich hab ebenfalls ne Gigabyte Windforce OC und da liegen durchgehen 1100 MHz an....
1100 Mhz? Dann ist es eine andere Karte, die hat 1000, ist ja auch keine Ghz-Edition und ich rede von ab Werk, nicht ab Nachhilfe vom User. Kannst natürlich den Knopf auch als Nachhilfe sehen. Mir geht es nur darum, dass diese Zusatztakt-Diskussion generell nervig ist, Realperformance entscheidet und wenn bspw. MSI ne Karte rausbringt, die im Furmark noch 500 Mhz macht, dann erwachsen handfeste Nachteile für den Kunden, denn er kann es ja auch nicht mehr "sehen".
Die neue AMD-Serie hat hoffentlich auch einen Garantietakt - das wollte ich sagen.
Felixxz2
2013-10-16, 13:05:27
Dann guck noch mal hier rein: http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks
Wenn du Cherry-Picking betreibst, dann ist die 290X vor Titan, wenn du durch die Benchmarks aber mal durchgehst wirst du sehen das das nur dadurch zustande kommt, das die ATI in manchen Games eben leicht vor Titan-Level ist, in vielen aber auch nur 780GTX....gemittelt sind das dann 1% vor Titan, aber eben mehr durch positive ausreisser.
Ich finde es momentan echt schwer die Karte vom Speed einzuordnen.
Also ich hab ebenfalls ne Gigabyte Windforce OC und da liegen durchgehen 1100 MHz an....
Das ist kein Cherrypicking, sondern der normale Spielealltag. Manche Games laufen da besser, manche da. Das ist normal. :confused:
Gibt auch bei aktuellen Karten genügend Extrembeispiele wie Dirt Showdown oder AC3. Deswegen bildet man ja nen Mittelwert.
Aber man kann alles schlechtreden, ich weiß....Titan ist eigentlich auch blöd, weil sie in Tomb Raider schwach performnt :freak:
Außerdem ergeben die Benches von PC Online keinen Sinn. Da sind so viele Fehler im Bezug auf bereits erschienene Karten drin (Tomb Raider GK110 viel zu schnell, 280X sparsamer als Titan etc.), dass ich das eher nicht für bare Münze nehme.
Aber prinzipiell kannst du genauso durch die 280X Benches gehen und wirst feststellen, dass es die selben Schwankungen auch dort gibt.
Iruwen
2013-10-16, 13:27:56
Die neue AMD-Serie hat hoffentlich auch einen Garantietakt - das wollte ich sagen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9959775#post9959775
Das wird bei den Top Dogs jawohl nicht anders sein.
Aber man kann alles schlechtreden, ich weiß....Titan ist eigentlich auch blöd, weil sie in Tomb Raider schwach performnt :freak:
Das war mal. Nach unzähligen Patches und Treibertweaks läuft das Spiel auf einer Titan angemessen. Bioshock Infinite und Grid 2 übrigens auch ... ;)
MfG,
Raff
Nightspider
2013-10-16, 14:40:27
Momentan gehe ich davon aus, das Mantle AMDs PhysX werden wird....ja, es gibt ab und zu mal nen Game was das unterstützt, aber richtig verbreiten tut es sich nicht.
Alleine durch die Frostbite Engine 3 wird es in nächster Zeit mehr Mantle Games geben als alle PhysX Games die in 2 Jahren erscheinen.
Und so wie es scheint, scheint AMD auch andere Studios schon überredet zu haben wie Chris Roberts mit Star Citizen.
M4xw0lf
2013-10-16, 14:41:52
Star Citizen soll TrueAudio unterstützen, mehr wurde bisher nicht gesagt.
(Ansonsten könnte Coda sicher mehr zum Thema CryEngine und Mantle sagen; aber selbst unter der Voraussetzung dass er wollte, dürfte die Geschichte mit BF4 und der temporären Mantle-PR-Exklusivität da im Weg stehen...)
ShadowXX
2013-10-16, 14:51:29
Alleine durch die Frostbite Engine 3 wird es in nächster Zeit mehr Mantle Games geben als alle PhysX Games die in 2 Jahren erscheinen.
Mantle-Support ist nicht allgemein in die Frostbite 3 mit eingebaut. Nur in BF4 haben Sie Mantle-Support mit drinne. Das hat DICE selbst gesagt.
Und so wie es scheint, scheint AMD auch andere Studios schon überredet zu haben wie Chris Roberts mit Star Citizen.
Alle andere bekannten Ankündigungen bezogen sich nur rein auf TrueAudio support (und der ist wahrscheinlich nicht so schwer zu implementieren...davon abgesehen das ich nicht glaube das das Zeug besser wird als gutes (echtes) EAX).
Wilhelm
2013-10-16, 14:52:41
TrueAudio arbeitet doch über Fmod etc.. Muss die Grafikengine denn überhaupt angepasst werden?
Palpatin
2013-10-16, 14:52:41
Dann guck noch mal hier rein: http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks
Wenn du Cherry-Picking betreibst, dann ist die 290X vor Titan, wenn du durch die Benchmarks aber mal durchgehst wirst du sehen das das nur dadurch zustande kommt, das die ATI in manchen Games eben leicht vor Titan-Level ist, in vielen aber auch nur 780GTX....gemittelt sind das dann 1% vor Titan, aber eben mehr durch positive ausreisser.
Ich finde es momentan echt schwer die Karte vom Speed einzuordnen.
In den verlinkten Tests liegt die Titan im Schnitt 35% vor der 280X das ist eigentlich krasses pro NV Cherry Picking. Vergleich das mal mit 1600P @ HT4U oder selbst bei Computerbase liegt die Titan nur 22% vor der 280X was wiederum bedeuten würde das die 290X bei Computerbase bis zu 13% vor der Titan liegen könnte.
Wilhelm
2013-10-16, 14:54:20
...davon abgesehen das ich nicht glaube das das Zeug besser wird als gutes (echtes) EAX).
Was ist für dich echtes EAX? Und TrueAudio sollte besser sein da es echtes 3D ist und nicht nur Pseudo 3D wie EAX.
Botcruscher
2013-10-16, 15:20:59
Alleine durch die Frostbite Engine 3 wird es in nächster Zeit mehr Mantle Games geben als alle PhysX Games die in 2 Jahren erscheinen.
Das eine ist jenseits der Exklusivverträge tot und das andere mit Exklusivverträgen noch ein Furz im Wind. Beides nicht wert drüber zu schreiben.
boxleitnerb
2013-10-16, 15:32:37
Ich verstehe die Aufregung auch nicht. Die 480 hat mehr gezogen als die 5870 Dualkarte, bei 15% Mehrleistung zur 5870. Der Spitzname Thermi hat absolut seine Berechtigung.
Dieses mal gibt es bei der Leistung Gleichstand, Spielverbrauch kennen wir nicht und die 60W Fur sind erst mal unwichtig. Wenn das Temperaturziel bei 90° liegt und die Spannung wie bei der 780 angepasst wird, dann sind da locker auch die 60W mit anderen Kühlern drin. Ohne richtigen Test ist doch eh keine Aussage möglich.
Dass Furmark heute irrelevant ist, ist mit Boost 2.0 bzw. vermutlich auch Powertune 2.0 nicht mehr so:
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index18.php
und
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index19.php
250W bzw. 266W bei 100 bzw. 106% Powertarget, die sowohl in Furmark als auch im Spiel (Anno 2070, evtl. auch andere) erreicht wurden.
Daher ist es nicht abwegig zu glauben, dass die 60W sich so auch in (manchen) Spielen niederschlagen dürften.
BIOS Schalter? Ein Button auf der Oberseite - drücken und man hat immer 1050/1500 anliegen. Der Lüfter dreht dabei übrigens echt frei, aber mit TRIXX kann man sich nette Profile basteln, die funktionieren und es auch von der Lautstärke her passen lassen. Ist übrigens auch mMn. die einzig echte Art so einen Boost anzubieten. Freund hat die 7970 Gigabyte Windforce OC und da liegen die 1000 nur dann und wann an.
Hast du da mal ein Bild von? Also von dem Button. Die AMDs haben ja Dual-Bios seit der 6970 - ist das jetzt wieder was anderes? Bin da nicht auf dem Laufenden :)
Armaq
2013-10-16, 15:41:21
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9959775#post9959775
Das wird bei den Top Dogs jawohl nicht anders sein.
Ich hoffe. Die MSI Karte geht einfach auf 500 Mhz runter - eine absolute Frechheit. Sowas kann jederzeit in SW umgesetzt werden und bemerken wird es nur ein versierter Nutzer.
Hast du da mal ein Bild von? Also von dem Button. Die AMDs haben ja Dual-Bios seit der 6970 - ist das jetzt wieder was anderes? Bin da nicht auf dem Laufenden :)
Der kleine Knopf da (mit dem S drauf):
http://media.bestofmicro.com/computex2012-sapphire,X-U-340770-13.jpg
Ich hab das beim Kauf nicht gemerkt, sondern in der Bedienungsanleitung gesehen. Funktioniert aber.
ShadowXX
2013-10-16, 15:52:41
Was ist für dich echtes EAX? Und TrueAudio sollte besser sein da es echtes 3D ist und nicht nur Pseudo 3D wie EAX.
Wirklich ausprogrammiertes EAX4 oder 5. Das ist dann auch kein Pseudo 3D, sondern man kann damit auch echtes 3D machen (alle 128 Soundkanäle könne im Prinzip frei im "Raum" plaziert werden).
EAX ist nur wegen MS hops gegangen (kein Hardwaresound mehr seit Win Vista). Und ATI macht da eigentlich jetzt auch ein bisserl "von hinten durchs knie"...Sie umgehen wohl das "kein Hardwaresound" indem Sie den Sound auf der Graka rechnen lassen und so wieder Hardware-Sound bekommen.
Der Vorteil von TrueAudio ist allerdings das das Zeug auch in der XBox One und PS4 mit drinne steckt und wirklich von MS und Sony benutzt wird...der Audio-Part sich dann wohl wirklich relativ einfach von Konsole auf PC übertragen lässt.
Ordentlich implementiert werden muss es aber trotzdem...
Ich frage mich aber immer noch wie Sie das in schon vorhandene Soundsysteme ein"hooken" wollen. Laut AMD soll es ja quasi mit jedem schon vorhandenen Soundsystem (egal ob USB-Soundkarte, OnBoard oder dedizierte Chip auf Karte) funktionieren.
Ich glaube da aber irgendwie noch nicht dran (vielleicht gibts da aber wirklich ne ganz einfache Möglichkeit innerhalb der API...man wird sehen).
boxleitnerb
2013-10-16, 15:53:27
Thx. Scheint ja was Spezielles zu sein und gehört wohl nicht zum Referenzdesign?
M4xw0lf
2013-10-16, 15:55:20
Thx. Scheint ja was Spezielles zu sein und gehört wohl nicht zum Referenzdesign?
Das dürfte einfach Sapphires Umsetzung des Dual-Bios-Schalters sein.
Duplex
2013-10-16, 15:56:11
Solche Schalter gibt es auch bei MSI (Lightning).
Armaq
2013-10-16, 15:58:25
Thx. Scheint ja was Spezielles zu sein und gehört wohl nicht zum Referenzdesign?
Ist halt die VaporX - sind ja eh schon etwas teurer etc. Aber meine 4870 VaporX lebt heute noch und das tun die Referenz Nvidia/ATI nicht mehr. ;)
Der Knopf ist definitiv eine Sapphire-Erfindung, üblich ist ein kleiner Dip-Switch.
MfG,
Raff
mczak
2013-10-16, 16:14:43
Ich kann solche Argumentationen einfach nicht ernst nehmen. was denn bitte machst du mit deiner grafikkarte? mir ist Furmark im Ergebnis und im Verbrauch total egal. Es zählt einzig und allein die spieleperformance und der verbrauch.
Du hast offenbar nicht verstanden was ich gesagt habe.
Fakt ist dass alle neueren Highend Karten in Furmark bei maximalem Takt (Boost oder wie auch immer der Hersteller das jetzt nennt) einen Wert über ihrer TDP erreichen würden. Da sollte dann eben der Takt limitiert werden dass das nicht passiert, was so wie's aussieht auch gemacht wird. Darüber hinaus eine künstliche Beschränkung extra für Furmark zu implementieren wäre einfach bloss hirnrissig. Interessanterweise haben allerdings die nvidia-Karten einen tieferen Verbrauch in Furmark als in manchen Spielen was seltsam ist. Könnte aber auch bloss daran liegen dass die CPU-Last in Furmark tiefer ist, denn da wurde Systemleistungsaufnahme gemessen.
Dass Furmark für den effektiven Stromverbrauch relevant ist habe ich überhaupt nicht behauptet, ist es nicht (ist aber trotzdem nett um herauszufinden wo die maximale Leistungsaufnahme liegt bzw. ob die dynamischen Boost-Techniken vernünftig funktionieren, falls denn das Programm nicht einfach erkannt wird und künstlich zusätzlich limitiert wird).
Blediator16
2013-10-16, 17:44:16
http://www.techpowerup.com/reviews/ASUS/R9_280X_Direct_Cu_II_TOP/24.html
Wenn man sich die Avg.(crysis2) Verbrauchswerte anschaut, so verbraucht die 280x knapp 20watt mehr als die 680 und bei Maximum(Furmark) sinds dann 60 watt mehr.
Furmark Tests sind einfach Müll und nichtmal der Rede wert.
N0Thing
2013-10-16, 17:47:33
EAX ist nur wegen MS hops gegangen (kein Hardwaresound mehr seit Win Vista). Und ATI macht da eigentlich jetzt auch ein bisserl "von hinten durchs knie"...Sie umgehen wohl das "kein Hardwaresound" indem Sie den Sound auf der Graka rechnen lassen und so wieder Hardware-Sound bekommen.
"Hardwaresound" war auch in Vista und Win7 möglich. Nur nicht mehr über die bisher von allen verwendete Schnittstelle in DirectSound. Über OpenAL war das kein Problem, einige ID-Spiele haben das z.B. genutzt, oder auch Codemasters über Rapture3D. Mit Alchemy können die Aufrufe in der Software auf OpenAL umgeleitet, womit dann auch wieder EAX nutzbar wird.
Das Problem war eher, daß MS diese Änderung scheinbar sehr spät bekannt gemacht hat und/oder Creative ganz typisch zu lange für ein Workaround gebraucht hat. Dadurch hat sich die Meinung gefestigt, daß unter Vista kein EAX mehr möglich sei.
Wenn AMD nun ebenfalls eine eigene Schnittstelle benutzt, spricht auch hier nichts gegen TrueAudio unter Windows Vista oder Windows 7.
Ich frage mich aber immer noch wie Sie das in schon vorhandene Soundsysteme ein"hooken" wollen. Laut AMD soll es ja quasi mit jedem schon vorhandenen Soundsystem (egal ob USB-Soundkarte, OnBoard oder dedizierte Chip auf Karte) funktionieren.
Ich glaube da aber irgendwie noch nicht dran (vielleicht gibts da aber wirklich ne ganz einfache Möglichkeit innerhalb der API...man wird sehen).
Warum sollte das nicht klappen? Könnte man doch genauso lösen wie bei einem Audioprogramm für Musik- oder Videowiedergabe. TrueAudio-Programm gibt die auszugebenden Daten an Soundkarte weiter, anstatt das von einem Teil der Spielsoundengine machen zu lassen. ;)
dildo4u
2013-10-16, 17:48:22
http://www.techpowerup.com/reviews/ASUS/R9_280X_Direct_Cu_II_TOP/24.html
Wenn man sich die Avg.(crysis2) Verbrauchswerte anschaut, so verbraucht die 280x knapp 20watt mehr als die 680 und bei Maximum(Furmark) sinds dann 60 watt mehr.
Furmark Tests sind einfach Müll und nichtmal der Rede wert.
Es gibt immer mehr Games die Ingame SSAA anbieten dort ist der Verbrauch dichter an Furmark.
Blediator16
2013-10-16, 17:49:08
Es gibt immer mehr Games die Ingame SSAA anbieten dort ist der Verbrauch dichter an Furmark.
Gibts da Tests oder glaubst du da nur dran?
LSSJBroly
2013-10-16, 17:56:37
Gibts da Tests oder glaubst du da nur dran?
OGSSAA oder SGSSAA beanspruchen die GPU stärker, daher auch höhere Leistungsaufnahme.
Die selbe Szene in Crysis 3:
1080p
85% PT @1.072/3.600MHz @1,112V
(213 Watt)
1600p
89% PT @1.072/3.600MHz @1,112V
(223 Watt)
fondness
2013-10-16, 18:00:27
Das war mal. Nach unzähligen Patches und Treibertweaks läuft das Spiel auf einer Titan angemessen. Bioshock Infinite und Grid 2 übrigens auch ... ;)
MfG,
Raff
Vor allem nach unzähligen Monaten. Auf AMD-Karten laufen die Spiele eben out-of-the-box ordentlich. :)
tm0975
2013-10-16, 18:08:27
Vor allem nach unzähligen Monaten. Auf AMD-Karten laufen die Spiele eben out-of-the-box ordentlich. :)
Na bei den Super-Treibern ja auch kein Wunder :biggrin:
BTW: Ist der 18. als Veröffentlichungsdatum schon bestätigt worden von irgend jemandem?
Blediator16
2013-10-16, 18:13:19
Na bei den Super-Treibern ja auch kein Wunder :biggrin:
BTW: Ist der 18. als Veröffentlichungsdatum schon bestätigt worden von irgend jemandem?
Eher der 24 oder 25. BF4 Launch
fondness
2013-10-16, 18:14:05
Na bei den Super-Treibern ja auch kein Wunder :biggrin:
Ist jedenfalls nicht so wie bei NV wo eine ganze Kartenserie seit über einen halben Jahr einfach am Desktop abstürzt.
aufkrawall
2013-10-16, 18:15:50
TR lief schon 2-3 Wochen nach Release bei den meisten Leuten problemlos auf ner Geforce und schon zu Release war es nicht wirklich langsam.
Man kann auch viel Quark erzählen, vor allen Dingen immer wieder...
Dass Forward+ Spiele erstmal aufholen mussten, war auch klar. Der Code dürfte wohl stark auf AMD optimiert sein (immerhin stammt der von dort...), da muss NV es halt über den Treiber richten.
Kann man Nvidia dafür kritisieren? Klar, wenn man sich als roter Fanboy outen möchte...
Edit: omg, und gleich der nächste geistige Dünnschiss einen Post über mir...
redpanther
2013-10-16, 18:16:53
Ist jedenfalls nicht so wie bei NV wo eine ganze Kartengeneration seit über einen halben Jahr einfach am Desktop abstürzt.
Kann Sich schlecht um eine Kartengeneration handeln, wenn meine 480er da kein Problem haben.
aufkrawall
2013-10-16, 18:19:07
Kann Sich schlecht um eine Kartengeneration handeln, wenn meine 480er da kein Problem haben.
Und stell dir vor: Man liest auch von 460/560-Besitzern, bei denen es ebenfalls keine Probs gibt. :D
Das weiß fondness auch, aber man muss ihm ja nicht glauben.
fondness
2013-10-16, 18:19:24
Kann man Nvidia dafür kritisieren? Klar, wenn man sich als roter Fanboy outen möchte...
Würdest du natürlich umgekehrt niemals nicht machen. :)
Edit: omg, und gleich der nächste geistige Dünnschiss einen Post über mir...
Und gleich mal persönlich beleidigen, sauber. :)
Kann Sich schlecht um eine Kartengeneration handeln, wenn meine 480er da kein Problem haben.
Okay war unklar ausgedrückt. Dann eben eine "Kartenserie".
aufkrawall
2013-10-16, 18:27:18
Ich erinnere mich btw. gerade, wie ich mal sagte, dass etwas wie das F+ von AMD sicherlich auf NV ähnlich effizient oder sogar noch effizienter laufen könnte.
Man kann sich bei den Performanceverbesserungen durch den NV-Treiber ausmalen, wie das laufen könnte, wenn das Feature von NV selbst gekommen wäre.
Gut, ist es nicht. Dank AMD sehen Spiele mit der Engine sicherlich etwas besser aus, keine Frage.
Bevor wieder in das Horn gestoßen wird, muss man nicht für hellsehen können...
LSSJBroly
2013-10-16, 18:28:52
Zu den Treibern: Beide haben mal patzer - ich erinnere gerne mal an BF3 - das hat gut ein 3/4 Jahr gedauert, dass es vernümpftig auf Geforce-Niveau lief :freak:
Andersrum hat es eben auch ein paar anläufe gebraucht. Wie schon gesagt wurde, Bioshok und Tomb-Raider liefen eben am Start nicht optimal. Nun tun sie's aber auch.
Blediator16
2013-10-16, 18:46:41
Zu den Treibern: Beide haben mal patzer - ich erinnere gerne mal an BF3 - das hat gut ein 3/4 Jahr gedauert, dass es vernümpftig auf Geforce-Niveau lief :freak:
Andersrum hat es eben auch ein paar anläufe gebraucht. Wie schon gesagt wurde, Bioshok und Tomb-Raider liefen eben am Start nicht optimal. Nun tun sie's aber auch.
OT: BF3 und Nvidia waren auch nicht immer unproblematisch. Schattenflackern/Flackern war da auch nicht selten. Gibt genügend Threads in verschiedenen Foren.
LSSJBroly
2013-10-16, 18:48:29
OT: BF3 und Nvidia waren auch nicht immer unproblematisch. Schattenflackern/Flackern war da auch nicht selten. Gibt genügend Threads in verschiedenen Foren.
Die Performance stimmte aber seit release;)
Blediator16
2013-10-16, 18:49:16
Die Performance stimmte aber seit release;)
Na Korinthenkacker du :freak:
Iruwen
2013-10-16, 19:04:11
Seit den 320ern beschweren sich die Leute über Mikroruckler, aber das konnte ich nie nachvollziehen. Anyway, BF3 ist Geschichte. Gibt ja jetzt BF3.54 :freak:
Es gibt immer mehr Games die Ingame SSAA anbieten dort ist der Verbrauch dichter an Furmark.
Spiele, bei denen Hawaii bestimmt glänzen, aber auch brüllen wird. Ich setze da bis auf Weiteres auf gute Custom-Designs.
MfG,
Raff
Peter Gräber
2013-10-16, 20:04:53
Du hast nicht verstanden, was gemeint war. Peter sagte, er findet AMDs Implementierung ehrlicher, dem widersprach ich auf Basis dessen, was garantiert ist und entsprechend beworben wird. Und hier unterscheiden sich eben Boost 2.0 und Powertune 2.0. (jedenfalls nach aktuellem Kenntnisstand), ganz einfach. Bei NV ist der Basistakt garantiert, bei AMD wird wohl nur der maximale Boost genannt. Wie genau der beworben wird, bleibt aber noch abzuwarten. Wenn es so wird wie bei Bonaire, ist es zumindest etwas undurchsichtig, weil außer den 1 GHZ, die aber nicht zwangsläufig anliegen müssen, sonst kein Takt genannt wird. Da musst du keine negative Grundhaltung monieren, es geht schlicht um diese Diskrepanz.
Nein, du hast offenbar mich nicht verstanden oder nicht verstehen wollen. Ich sprach von meinen Testüberprüfungen und meinen Erkenntnissen und nicht von Marketing.
Stecke ich eine 7970 GHz Edition ins Gehäuse und führe dort die gleichen Benchmarks, auch bei höheren Temperaturen durch, dann nimmt sich PT 1.0 kaum etwas gegenüber dem offenen Teststand. Es bleibt eigentlich bei dem gleichen Resultat und da wiederum - bei festgesetzten Taktraten - kommen höchstens Performance-Abweichungen von 1 Prozent zwischen PT0 und PT+20 heraus. Und wenngleich der Boost dort dann im Graphen zappelt, bleibt es bei diesen Resultaten (ohne dass man Ruckler im Spiel wahrnehmen kann).
Bei NV ist das eben deutlich anders, aber ich muss nicht erneut die Unterschiede zwischen Boost und Base aufzeigen, dass in einigen Fällen oft nur noch der Base-Takt dort anliegt und dies ins Feld führen. Richtig ist, dass NV nur den Base-Takt garantiert. Diskussionen und Vergleiche zur Performance, werden aber immer nur mittels Ergebnissen zum Boost-Takt geführt.
Von daher meine Einschätzung, dass AMDs PT bislang ehrlicher für den Endkunden sind und er dann die in Benchmarks präsentierten Resultate in der Praxis auch erhält. Eigentlich wollte ich dazu mal einen Artikel präsentieren, aber leider kommt immer irgendwie, irgendwas dazwischen. Vielleicht heb ich mirs auf bis PT2.0 bei AMD da ist, dann habe ich wenigstens mehr zu meckern ;).
Darüber hinaus bin ich sicher, dass du anderer Meinung bist. :)
-/\-CruNcher-/\-
2013-10-16, 20:32:02
Ich erinnere mich btw. gerade, wie ich mal sagte, dass etwas wie das F+ von AMD sicherlich auf NV ähnlich effizient oder sogar noch effizienter laufen könnte.
Man kann sich bei den Performanceverbesserungen durch den NV-Treiber ausmalen, wie das laufen könnte, wenn das Feature von NV selbst gekommen wäre.
Gut, ist es nicht. Dank AMD sehen Spiele mit der Engine sicherlich etwas besser aus, keine Frage.
Bevor wieder in das Horn gestoßen wird, muss man nicht für hellsehen können...
Ja aber du musst mal die Engine Balance vergleichen die ist absolut auf Nvidias seite, das Performance Ratio sieht besser für Nvidia aus ganz klar und den verlust in TR CDE haben sie ja wohl mal extreme schnell gefixed das war ein absolutes AMD Marketingversagen (und zeigt wieder was für top leute in Nvidias Treiber Team arbeiten) und Hitman absolution Glacier2 läuft eh sehr performant von anfang an die Abweichungen sind so minimial das sie nicht mal der rede wert sind wenn man den Reviewern ihren Daten vertrauen kann. :)
Wie schon so oft erwähnt Abnormal sind die AC3 (Anvil Next) Daten da hat Nvidia einen extremen Vorsprung den AMD so gut wie nirgends einfährt, mit der selben zielgruppen Karte, wenn ich die Daten noch in Errinerung hab lag die differenz da bei ~50% so eine hohe differenz hab ich bei keinem AMD Ergebniss gesehen und wie gesagt TR ging nach hinten los .
Blediator16
2013-10-16, 20:52:32
Ja aber du musst mal die Engine Balance vergleichen die ist absolut auf Nvidias seite, das Performance Ratio sieht besser für Nvidia aus ganz klar und den verlust in TR CDE haben sie ja wohl mal extreme schnell gefixed das war ein absolutes AMD Marketingversagen (und zeigt wieder was für top leute in Nvidias Treiber Team arbeiten) und Hitman absolution Glacier2 läuft eh sehr performant von anfang an die Abweichungen sind so minimial das sie nicht mal der rede wert sind wenn man den Reviewern ihren Daten vertrauen kann. :)
Wie schon so oft erwähnt Abnormal sind die AC3 (Anvil Next) Daten da hat Nvidia einen extremen Vorsprung den AMD so gut wie nirgends einfährt, mit der selben zielgruppen Karte, wenn ich die Daten noch in Errinerung hab lag die differenz da bei ~50% so eine hohe differenz hab ich bei keinem AMD Ergebniss gesehen und wie gesagt TR ging nach hinten los .
:freak: Was soll man dazu noch sagen
Armaq
2013-10-16, 20:57:13
Nein, du hast offenbar mich nicht verstanden oder nicht verstehen wollen. Ich sprach von meinen Testüberprüfungen und meinen Erkenntnissen und nicht von Marketing.
Stecke ich eine 7970 GHz Edition ins Gehäuse und führe dort die gleichen Benchmarks, auch bei höheren Temperaturen durch, dann nimmt sich PT 1.0 kaum etwas gegenüber dem offenen Teststand. Es bleibt eigentlich bei dem gleichen Resultat und da wiederum - bei festgesetzten Taktraten - kommen höchstens Performance-Abweichungen von 1 Prozent zwischen PT0 und PT+20 heraus. Und wenngleich der Boost dort dann im Graphen zappelt, bleibt es bei diesen Resultaten (ohne dass man Ruckler im Spiel wahrnehmen kann).
Bei NV ist das eben deutlich anders, aber ich muss nicht erneut die Unterschiede zwischen Boost und Base aufzeigen, dass in einigen Fällen oft nur noch der Base-Takt dort anliegt und dies ins Feld führen. Richtig ist, dass NV nur den Base-Takt garantiert. Diskussionen und Vergleiche zur Performance, werden aber immer nur mittels Ergebnissen zum Boost-Takt geführt.
Von daher meine Einschätzung, dass AMDs PT bislang ehrlicher für den Endkunden sind und er dann die in Benchmarks präsentierten Resultate in der Praxis auch erhält. Eigentlich wollte ich dazu mal einen Artikel präsentieren, aber leider kommt immer irgendwie, irgendwas dazwischen. Vielleicht heb ich mirs auf bis PT2.0 bei AMD da ist, dann habe ich wenigstens mehr zu meckern ;).
Darüber hinaus bin ich sicher, dass du anderer Meinung bist. :)
Dem kann ich nur vorbehaltlos zustimmen.
Karten die selektiert an Tester gehen, dort 110 fps bringen und mit 950 Mhz Garantietakt ausgeliefert werden, dann im heimischen PC aber nur 100 fps schaffen, sind eine Möglichkeit von diesen Powertargets - daher auch mein Sapphire Einwand.
Btw. Custom Design - der VaporX Kühler ist zu schwach für die 7970 Ghz mit Garantietakt, wenn ich meine Lüftersteuerung auslasse [TRIXX] (er will die karte scheinbar auf 6x°C bringen), die Karte wird dann zum Monster. Es sei denn es ist etwas kaputt.
dargo
2013-10-16, 21:52:42
Btw. Custom Design - der VaporX Kühler ist zu schwach für die 7970 Ghz mit Garantietakt...
Kann ich mir kaum vorstellen. Ich habe "nur" eine Dual-X und dieser Kühler schafft spielend die 1050/1500Mhz. Lass mich raten... deine Vapor-X GE hat mehr als 1,2V?
Die haben 1,256 Volt. Der Kühler sollte mit Standardsteuerung aber locker reichen. Laut brüllend, bei geringer Temperatur.
MfG,
Raff
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.