PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

Gipsel
2013-09-27, 18:07:24
Selbst wenn das gezeigte nur mit 30fps lieft sollten selbst bei 2560*1600 noch 60 drin sein.Doppelte Framerate bei nur 34% weniger Pixeln? :|

Ailuros
2013-09-27, 18:12:29
Wieviel schneller es wird, weißt Du doch noch gar nicht. Und auch nicht, wo man gespart oder investiert hat (HPC-Features z.B.). Die Idee mit irgendwas doppelt auslegen für Mantle und DX11 ist schonmal totaler Käse. Mantle wird auf allen GCN-Karten laufen. Da kommt man nur über weniger Umwege etwas direkter an die Hardware, das war's schon.

Man kann unter dem gleichen Herstellungsprozess keine Wunder erwarten selbst wenn es hypothetisch von 28HP auf 28HPM geht.

V2.0
2013-09-27, 18:13:20
Das Quad-Front-End könnte einige Umbauten nach sich ziehen. Dazu wird noch Half-Rate-DP spekuliert und eventuell ist der L2-Cache auch verdoppelt wurden, was zur erhöhten Packdichte passen würde.

Aber den DSP würde ich auch nicht so groß sehen, der X-Fi Chip hat sich wohl mit 50 Mio. Transistoren begnügt.

Die Packdichte würde ich hinterfragen. Der 512BIT SI bringt sie nähmlich wieder näher an eine Padlimtierung.

Gipsel
2013-09-27, 18:16:53
Die Packdichte würde ich hinterfragen. Der 512BIT SI bringt sie nähmlich wieder näher an eine Padlimtierung.
Noch nicht gehört, daß 512Bit 5GBps Interface weniger Fläche benötigt (die Pads liegen da auch dichter zusammen) als 384Bit 6-7GBps? Es steht effektiv also etwas mehr Fläche für Einheiten/Cache zur Verfügung, als man naiverweise beim Vergleich der Diegrößen erwarten würde. Man müßte die Diegrößen nach Abzug der externen Interfaces mit den platzraubenden SerDes vergleichen (und Packdichten machen auch nur beim Vergleich dieser "korrigierten" Fläche Sinn).

uweskw
2013-09-27, 18:22:27
...... Mantle wird auf allen GCN-Karten laufen......

Wuste ich nicht. Gibts dazu ne Quelle?

Greetz
U.S.

Gipsel
2013-09-27, 18:29:48
Wuste ich nicht. Gibts dazu ne Quelle?

Greetz
U.S.
http://abload.de/img/dsc_2848a-pcghg3su6.jpg

Das dicke fette rote Feld unten in der Mitte.

uweskw
2013-09-27, 18:31:20
Thanks!

Greetz
U.S.

edit: Ist schon näheres über die "new rendering techniques" bekannt?

Duplex
2013-09-27, 19:13:25
AMD hat keine absoluten Firestrike Punkte zur 290X veröffentlicht, das sollte man nicht vergessen. Das Diagramm ist nach oben abgeschnitten, die 290X ist die einzige Karte, bei welcher auf der extra Folie keine Firestrike-Punkte angegeben sind.
Vielleicht wartet AMD noch auf neue Treiber damit die Peformance dann in eingen Tests besser ausfällt.
Hoffentlich wird in den Reviews dann auch mit neuen Treiber getestet!

S940
2013-09-27, 19:50:11
edit: Ist schon näheres über die "new rendering techniques" bekannt?Mir nicht, gesagt haben sie beim Vortrag auch nichts. Koduri meinte, dass Johan was dazu erzählt hätte aber ... hmm nö.
Falls Du es DIr selbst anschauen willst:
https://www.youtube.com/watch?v=Xo1jJJGhneg

Gipsel
2013-09-27, 20:29:06
Mir nicht, gesagt haben sie beim Vortrag auch nichts. Koduri meinte, dass Johan was dazu erzählt hätte aber ... hmm nö.
Falls Du es DIr selbst anschauen willst:
https://www.youtube.com/watch?v=Xo1jJJGhneg
Na, man kann da schon was rauslesen, wenn man die Punkte verbindet (ab ~2h23min oder so, wo er die PC Challenges und den Unterschied zu Konsolen darstellt). Und später auch noch mal, wenn ich mich richtig erinnere.

Edit: Also wirklich benannt oder vorgestellt haben sie natürlich keine. Damit können jetzt die Entwickler ankommen. Das ist also eher so eine allgemeine Aussage, daß mit erweiterten Möglichkeiten und weniger Einschränkungen, sich natürlich auch neue Techniken umsetzen lassen, die bisher z.B. nicht performant genug waren oder weil man schlicht an einige Features der GPU nicht rankam.

robbitop
2013-09-27, 20:38:31
Da ja ggü. Pitcairn alles verdoppelt zu sein scheint, könnte ein guter Anhaltspunkt sein, die doppelte Leistung anzunehmen. Dann wäre man leicht über Titan.

M4xw0lf
2013-09-27, 20:49:17
Da ja ggü. Pitcairn alles verdoppelt zu sein scheint, könnte ein guter Anhaltspunkt sein, die doppelte Leistung anzunehmen. Dann wäre man leicht über Titan.
Ich bin ja Anhänger von boxleitnerb's 2816 SPs - I want to believe :D

boxleitnerb
2013-09-27, 20:56:20
Me too :D
Es wird noch die ein oder andere Überraschung geben, lang ist es nicht mehr hin. Die zusammengefassten Specs auf der Hauptseite stimmen...fast ;)

Jedenfalls sollte man einer Titan@1GHz ein paar Prozent voraus sein, je nach Spieleauswahl und Boost natürlich.

horn 12
2013-09-27, 21:00:14
Es bleibt bei Mittwoch dem 02. Oktober 2013 für die Vorstellung der R9 290X Karte!
Zudem Downsampling im Treiber integriert, Jawohl !!

http://www.tweaktown.com/news/33154/we-preview-dirt-3-spanned-across-three-4k-monitors-via-the-r9-290x/index.html

boxleitnerb
2013-09-27, 21:01:50
Für Downsampling ist es zu früh, da kommt (noch) nix.

LSSJBroly
2013-09-27, 21:03:22
Für Downsampling ist es zu früh, da kommt (noch) nix.

Aber der release am 2. Oktober soll stimmen?

boxleitnerb
2013-09-27, 21:03:53
Das weiß ich nicht.

dildo4u
2013-09-27, 21:32:19
Aber der release am 2. Oktober soll stimmen?
Unwahrscheinlich laut AMD kann man am 3 erst vorbestellen.

http://www.legitreviews.com/fullimage?id=125069

Duplex
2013-09-27, 21:35:57
Es wird noch die ein oder andere Überraschung geben, lang ist es nicht mehr hin.
AF "High Qualität" auf Nvidia Niveau?
Wie siehts aus mit AA Bits?

TheCounter
2013-09-27, 21:48:52
BF4 auf 290X in 5.760 x 1.080.

http://youtu.be/MDiOSbQRUgo

Wenn das eine Karte stemmt,würde ich mir keine großen Sorgen um die Performance machen,egal ob man NV oder AMD hat.Selbst wenn das gezeigte nur mit 30fps lieft sollten selbst bei 2560*1600 noch 60 drin sein.

Krasse scheiße wenn das stimmt :eek:

Wenn jetzt noch der Preis stimmt, dann Day 1 ;D

aufkrawall
2013-09-27, 21:52:24
AF "High Qualität" auf Nvidia Niveau?
Wie siehts aus mit AA Bits?
Zu etwaigen Änderungen an den TMUs ist afaik überhaupt nichts bekannt, würde nicht mit Änderungen rechnen.
"AA-Bits" halte ich für ausgeschlossen. Die App soll alles machen und es würd mich nicht wundern, wenn man mit Mantle quasi gar nichts mehr über den Treiber forcieren wird können.

boxleitnerb
2013-09-27, 22:00:07
AF "High Qualität" auf Nvidia Niveau?
Wie siehts aus mit AA Bits?

Hardwaremäßig meinte ich. Software scheint es nichts Neues zu geben.

M4xw0lf
2013-09-27, 22:15:21
Me too :D
Es wird noch die ein oder andere Überraschung geben, lang ist es nicht mehr hin. Die zusammengefassten Specs auf der Hauptseite stimmen...fast ;)

Jedenfalls sollte man einer Titan@1GHz ein paar Prozent voraus sein, je nach Spieleauswahl und Boost natürlich.
Du hältst mein Hype-meter konstant hoch :freak:
Und doch 48 ROPs statt den komischen 44? ;)

Sven77
2013-09-27, 22:24:09
Krasse scheiße wenn das stimmt :eek:

Wenn jetzt noch der Preis stimmt, dann Day 1 ;D

dito, dann kann Knuddelbaerli meine Titan für 500Eur haben ;D

Iruwen
2013-09-27, 22:27:26
Krasse scheiße wenn das stimmt :eek:

Wenn jetzt noch der Preis stimmt, dann Day 1 ;D

Erst wenns passende Wasserkühler gibt :D

Duplex
2013-09-27, 22:28:47
dito, dann kann Knuddelbaerli meine Titan für 500Eur haben ;D
Mantle sollte man nicht überbewerten, es kommt von AMD...
Bis sich das durchsetzt könnte AMD schon längst zerschlagen worden sein (Übernahme).

Rente
2013-09-27, 22:34:37
Erst wenns passende Wasserkühler gibt :D
Seh' ich absolut genau so, wenn schon wieder AMD, dann auch direkt mit Wakü. :freak:

Duplex
2013-09-27, 22:49:52
"AA-Bits" halte ich für ausgeschlossen. Die App soll alles machen und es würd mich nicht wundern, wenn man mit Mantle quasi gar nichts mehr über den Treiber forcieren wird können.
Ihr tut ja so als ob AMD damit gleich zum Monopolisten gemacht wird, so einfach wird das nicht sein, AMD ist kleiner als Nvidia, AMD hat seit Anfang 2012 nur Verlust gemacht, Widerstand von Nvidia oder Intel ist nur eine Frage der Zeit.

Nakai
2013-09-27, 22:58:28
Du hältst mein Hype-meter konstant hoch :freak:
Und doch 48 ROPs statt den komischen 44? ;)

Die 44 ROPs klingen so abstrus, dass die wieder stimmen sollten.;D

Was bietet GCN 2.0 noch?

€: Wenn die ROPs(weil 44ROPs) näher an die CUs wandern, dann werden wir evtl bessere Modi für Speicherzugriffe und Cachezugriffe sehen.

S940
2013-09-27, 23:23:48
Mantle sollte man nicht überbewerten, es kommt von AMD...
Bis sich das durchsetzt könnte AMD schon längst zerschlagen worden sein (Übernahme).Dice übernimmt AMD? :biggrin:

AMD hat DS im Treiber gekillt und SGSSAA-Enhance für DX11 nur arg widerwillig eingeführt. Man wird sich kaum die Mühe machen, bei Mantle weiter gegen den Willen der App-Entwickler rumzuhacken.Bin gerade nicht in Eurem Kontext, aber falls es weiterhilft: Auf der Mantle-Präsentation sprach Johan von SSAA. Steht auch auf ner Folie.

Leonidas
2013-09-28, 06:13:58
http://forums.overclockers.co.uk/showpost.php?p=25014060&postcount=2770
I've checked my details more closesly:-

R270X is a cripped HD 7950, 2GB and 256-bit reduced from 3GB and 384-Bit. R270X will be £155-£175, whereas were selling the faster HD 7950 for £170ish, they should be £200+ and are now EOL, so a deal whilst they last. When they are gone, that is it just like the 670 deals. Don't miss out. Think HD 7950 GPU on a 7870 PCB/RAM config.
:|


Was passt zu 2GB & 256Bit und Performance bestätigt +10% zu 7870?
Ein Curacao-Chip, kein heruntergesetzter Tahiti.

Nebenbei würde es bei einem Rebranding die Karten schneller geben, weil es ja nur Rebrandings sind. Genau die 270er stand aber nicht in der früheren HIS-Liste. Da standen nur 240+250+280X drin - die exakten Rebrandings. Alles andere scheint kein Rebranding zu sein. Ausnahme für die 260X, was eine 7790 ist mit aber TrueAudio aufm Board, ergo doch eine neue Karte.

Skysnake
2013-09-28, 12:03:52
Ich frage mich warum man gerade bei der schnellsten Karte sich so bedeckt hält? Bei dem Stream gabs bei der R9 290X auch keine genauen Preisangaben. Hält man sich hier eventuell noch eine Tür offen für eine "Titan Ultra"? :D
Wahrscheinlich. Die Taktraten kann man ja je nachdem etwas absenken/anziehen. Also im geringen Maße.

Noch nicht gehört, daß 512Bit 5GBps Interface weniger Fläche benötigt (die Pads liegen da auch dichter zusammen) als 384Bit 6-7GBps? Es steht effektiv also etwas mehr Fläche für Einheiten/Cache zur Verfügung, als man naiverweise beim Vergleich der Diegrößen erwarten würde. Man müßte die Diegrößen nach Abzug der externen Interfaces mit den platzraubenden SerDes vergleichen (und Packdichten machen auch nur beim Vergleich dieser "korrigierten" Fläche Sinn).
Das Interface für die Crossfire-Brücken sollte auch wegfallen. Das wird nicht sooo viel Platz fressen, aber doch einiges.

Wie siehts aus mit AA Bits?
Wird es nicht geben, und das ist auch gut so...

Gipsel
2013-09-28, 12:05:47
Jetzt würge ich die AF-Diskussion ab.

Weitere Diskussion dazu bitte im passenden AF-Thread.

reaperrr
2013-09-28, 12:47:35
Was passt zu 2GB & 256Bit und Performance bestätigt +10% zu 7870?
Ein Curacao-Chip, kein heruntergesetzter Tahiti.

Meine Vermutung: Curacao hat, wie in der Vergangenheit ja auch Gerüchte und Spekulationen besagt haben, gegenüber Pitcairn halt 8 zusätzliche CUs und ein auf höhere Taktraten optimiertes Speicherinterface.

Für 7870 + 8% (Curacao Pro) und damit fast 7950 V1-Level (daher wohl diese seltsame Aussage es sei eine kastrierte 7950) würden wohl schon 24 CUs @ ~900 MHz sowie ~5 GHz Speichertakt @256-bit reichen, dieser Chip scheint in der 270X zum Einsatz zu kommen.
Als 280 ohne X wird später meiner Ansicht nach auch nicht ein weiterer Tahiti, sondern Curacao XT kommen, da erwarte ich 28 CUs @ ~1 GHz und ~6 GHz Speichertakt.

Nakai
2013-09-28, 13:03:22
Meine Vermutung: Curacao hat, wie in der Vergangenheit ja auch Gerüchte und Spekulationen besagt haben, gegenüber Pitcairn halt 8 zusätzliche CUs und ein auf höhere Taktraten optimiertes Speicherinterface.

Für 7870 + 8% (Curacao Pro) und damit fast 7950 V1-Level (daher wohl diese seltsame Aussage es sei eine kastrierte 7950) würden wohl schon 24 CUs @ ~900 MHz sowie ~5 GHz Speichertakt @256-bit reichen, dieser Chip scheint in der 270X zum Einsatz zu kommen.
Als 280 ohne X wird später meiner Ansicht nach auch nicht ein weiterer Tahiti, sondern Curacao XT kommen, da erwarte ich 28 CUs @ ~1 GHz und ~6 GHz Speichertakt.

Was immer die R7 260-Serie ist, es ist ein VI-Chip, da der Sound-DSP integriert ist. Laut der Präsi sinds etwa 3,8K bei Firestrike. Bonaire liegt etwa bei 3,8k. Komisch nicht? Ich glaube kaum, dass AMD Bonaire jetzt schon ersetzt...

http://www.hardwareheaven.com/reviewimages/sapphire-hd-7790-dual-x/BonaireDieShot_downres.jpg

Mhh, jämmerlicher Dieshot. Kann man darauf eine Unregelmäßigkeit bei GCN entdecken? Also den DSP?;D

reaperrr
2013-09-28, 13:47:07
Was immer die R7 260-Serie ist, es ist ein VI-Chip, da der Sound-DSP integriert ist. Laut der Präsi sinds etwa 3,8K bei Firestrike. Bonaire liegt etwa bei 3,8k. Komisch nicht? Ich glaube kaum, dass AMD Bonaire jetzt schon ersetzt...
260X ist zu 99% Bonaire "XTX", wahrscheinlich mit homöopathischer Taktsteigerung und eben standardmäßig 2 GB (bei der 7790 war zum Launch ja 1 GB Standard) und aktiviertem DSP.

Das mit dem DSP muss nicht zwingend heißen, dass der Chip schon ein "echter" VI-Chip ist. Die Designs sind heutzutage relativ modular, kann durchaus sein, dass man den DSP bei der Sea Islands-Generation einfach nur in Bonaire verbaut und in der 7790 noch nicht aktiviert hat, um ihn intern schonmal testen und die Treiber schreiben zu können.

Nakai
2013-09-28, 14:08:47
260X ist zu 99% Bonaire "XTX", wahrscheinlich mit homöopathischer Taktsteigerung und eben standardmäßig 2 GB (bei der 7790 war zum Launch ja 1 GB Standard) und aktiviertem DSP.

Das mit dem DSP muss nicht zwingend heißen, dass der Chip schon ein "echter" VI-Chip ist. Die Designs sind heutzutage relativ modular, kann durchaus sein, dass man den DSP bei der Sea Islands-Generation einfach nur in Bonaire verbaut und in der 7790 noch nicht aktiviert hat, um ihn intern schonmal testen und die Treiber schreiben zu können.

Gut, dachte ich mir schon fast.
Mhh, dann frage ich mich, was VI bzw. Hawaii noch bringt. Ich bin gespannt. Achja, Bonaire wird dadurch noch viel effektiver bzgl Perf/mm².;)

Gipsel
2013-09-28, 14:58:24
AF-Diskussion bitte gerne hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9937656#post9937656).

Die entsprechenden Posts wurden dahin verschoben. Hier ist das OT.

S940
2013-09-28, 15:02:20
260X ist zu 99% Bonaire "XTX", wahrscheinlich mit homöopathischer Taktsteigerung und eben standardmäßig 2 GB (bei der 7790 war zum Launch ja 1 GB Standard) und aktiviertem DSP.

Das mit dem DSP muss nicht zwingend heißen, dass der Chip schon ein "echter" VI-Chip ist. Die Designs sind heutzutage relativ modular, kann durchaus sein, dass man den DSP bei der Sea Islands-Generation einfach nur in Bonaire verbaut und in der 7790 noch nicht aktiviert hat, um ihn intern schonmal testen und die Treiber schreiben zu können.

Wer flasht seine 7790 mit nem R260X-BIOS? Freiwillige vor :freak:

TheCounter
2013-09-28, 15:54:19
Erst wenns passende Wasserkühler gibt :D

Ach es geht auch mal 1 oder 2 Monate ohne, aber es kommt auf jedenfall einer drauf ;)

M4xw0lf
2013-09-28, 16:21:00
Ich hab ja Hoffnungen, meinen AC Xtreme 5870 Edition (der auf meiner 6970 sitzt ^^) weiterverwenden zu können.

horn 12
2013-09-28, 18:38:36
@Boxleitnerb

Was weisst Du bezüglich Release Termin und Fall des NDA der R9 290X Karte?
Im Rag...3D schwirren wieder Gerüchte zwecks Performance rum.
Aber Release Termin ist auch da fraglich ...

boxleitnerb
2013-09-28, 18:42:59
Leider nein :(

mboeller
2013-09-28, 18:47:46
Meine Vermutung: Curacao hat, wie in der Vergangenheit ja auch Gerüchte und Spekulationen besagt haben, gegenüber Pitcairn halt 8 zusätzliche CUs und ein auf höhere Taktraten optimiertes Speicherinterface.


Wenn Curacao eine neue GPU ist, warum enthält er dann keinen True-Audio DSP?

Knuddelbearli
2013-09-28, 19:08:27
weill sie zwar neu ist aber nicht so neu? ^^

crux2005
2013-09-28, 19:08:55
Also doch keine Rebrands? :D

None of these products announced are rebrands.

M4xw0lf
2013-09-28, 19:12:25
Also doch keine Rebrands? :D
Hmjaa, auf die gleiche Art, wie die GTX770 kein Rebrand ist - ein bisschen veränderte Taktraten, neuer Name. Zumindest im Fall der R9 280(X) wird das fast sicher so sein.

OBrian
2013-09-28, 19:26:38
den Spruch kriegt er sicher in ein paar Tagen noch wieder unter die Nase gerieben, wenn sich dann doch herausstellt, daß außer dem Aufkleber auf dem Karton sich die Unterschiede in Grenzen halten.

Ich mein, ich hätte nichts dagegen, wenn er tatsächlich recht hätte. Tahiti weiterzubenutzen wundert mich ehrlich gesagt, ist ja die ineffizienteste Lösung der ganzen Generation.

reaperrr
2013-09-28, 20:35:06
Wenn Curacao eine neue GPU ist, warum enthält er dann keinen True-Audio DSP?

weill sie zwar neu ist aber nicht so neu? ^^
Sowas vermute ich auch.

Ich denke, Curacao ist schon lange fertig, möglicherweise länger als Bonaire (vielleicht sogar noch ein GCN 1.0-Chip, wie Oland und Hainan ja auch). AMD hat nur noch keine Karten mit diesem Chip rausgebracht weil der Sea Islands/8xxx-Refresh, der Ende letzten/Anfang diesen Jahres geplant war, aus marketing-technischen Gründen gecancelt wurde.

M4xw0lf
2013-09-28, 23:02:46
Seit dem Techday ist die Warterei noch deutlich frustrierender. I want teh Reviews!

Pentium M
2013-09-28, 23:43:20
Seit Mantle frag ich mich wer hat den wen verarscht selbst Nvidia hätte doch mal einen Furz bringen können.Kommt irgendwie alles aus dem nichst.Und wahrscheinlich wird die 290X Titan überflügeln wer weiss was noch in diesem Chip steckt ein Turbo Eiscreme Portionierer.

aufkrawall
2013-09-28, 23:57:57
Seit dem Techday ist die Warterei noch deutlich frustrierender. I want teh Reviews!
Warum seit dem Techday? Was erfuhr man da abseits von Audio neues über R9 290X?
Interessant ist imho eher, ob die ersten geleakten/gefakten Benchmarks echt sind.

Locuza
2013-09-29, 00:15:33
Warum seit dem Techday? Was erfuhr man da abseits von Audio neues über R9 290X?
Interessant ist imho eher, ob die ersten geleakten/gefakten Benchmarks echt sind.
Immerhin haben sie grob die ersten Daten bestätigt, die im Umlauf waren.

512-Bit, 4 GB, Quad-Front-End, über 5 TF.
Man kann sich ein Bild malen, vor allem da man auch das finale Design und den Kühler gesehen hat.

Also AMD hat soweit ich weiß schon bestätigt, dass die Benchmarks falsch sind.
Wurde das hier nicht sogar verlinkt?
Da wurde gesagt einige Ergebnisse seien viel zu hoch, paar zu niedrig, einige ganz gut getroffen mit +/- 5% Schwankung.

Pentium M
2013-09-29, 00:18:41
Wahrscheinlich trifft die Filterung nicht meinen Geschmack.

aufkrawall
2013-09-29, 00:35:02
Also AMD hat soweit ich weiß schon bestätigt, dass die Benchmarks falsch sind.
Wurde das hier nicht sogar verlinkt?

Ich hab nur mitgekriegt, dass AMD erwirkt hat, die Veröffentlichung wieder zurück zu ziehen.
Glaubhafte Bewertungen, ob diese wahr oder falsch sind, sind mir nicht bekannt. afaik beides möglich.

Hugo78
2013-09-29, 00:44:10
Die 290X wird sich ohne Mantle +/-5% bei der der GTX 780 einordnen.
Für + Mantle in BF4 gibts dann 10-20% mehr, halt über Titan, so ist das wenn man Windoof umgehen kann.

Die Frage ist allerdings, zu welchem Preis? Bei welchem Verbrauch.
Wenn man Tahiti eine Klasse tiefer ansiedelt, dann wird Hawaii mindestens gleichviel oder eher noch mehr verbauchen.
Das 5121Bit SI und die zusätzlichen Schaltungen kommen ja nicht 4 free unter 28nm. Auch wenn AMD dazu bisher schweigt.

Wir haben 214W für Titan, ggü. 247W für die 7970 GHz, (Link 1 (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Test-Radeon-HD-7990-Malta-1066320/), Link 2 (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-der-Radeon-HD-7970-GHz-Edition-907095/)) auf der Uhr.

Pentium M
2013-09-29, 00:49:12
Die 290X wird sich ohne Mantle +/-5% bei der der GTX 780 einordnen.
Für + Mantle in BF4 gibts dann 10-20% mehr, halt über Titan, so ist das wenn man Windoof umgehen kann.

10-20% Nimmt man doch gerne mit.:D

StefanV
2013-09-29, 01:11:08
Das 5121Bit SI und die zusätzlichen Schaltungen kommen ja nicht 4 free unter 28nm. Auch wenn AMD dazu bisher schweigt.
Nur gehen wir bisher davon aus, dass das 512bit Speicherinterface sparsamer ist als das 384bit Interface von Tahiti, eben weil es für weit weniger Takt ausgelegt ist. Dazu könnte man Low Power GDDR5 verwenden, was noch mal ordentlich Strom spart.

Also bisher würd ich eher davon ausgehen, dass das Kärtel nicht über Tahiti liegen würde, eher sogar noch drunter...
Warum?! Na, schau dir das Referenzdesign mal an! Das ist 8+6, bei Tahiti sind aber schon 2x8 vorgesehen gewesen...

gnahr
2013-09-29, 01:15:10
Das ist 8+6, bei Tahiti sind aber schon 2x8 vorgesehen gewesen...
2*8 verstößt doch gegen die specs und wurde bei single-chip-karten im ref-design noch nie verwendet.
kann es sein, dass du mit "vorgesehen" die boardzeichnung des pcbs/ der platine meinst? die hat nix zu sagen und kann aus der evaluations-zeit stammen. da hilft auch all das gutmütige zusammen-reimen nix.

Pentium M
2013-09-29, 01:27:43
Ich empfehle dir den Film Kung Fu Hustle.

Felixxz2
2013-09-29, 03:09:25
Wie soll denn die 290X mit über 5 TF unter einer Titan landen, die selber nur 4,5 TF hat? Das wäre überaus unlogisch.....

schreiber
2013-09-29, 03:13:50
Weil TF nicht alles sind?!

Eggcake
2013-09-29, 06:34:46
2*8 verstößt doch gegen die specs und wurde bei single-chip-karten im ref-design noch nie verwendet.
kann es sein, dass du mit "vorgesehen" die boardzeichnung des pcbs/ der platine meinst? die hat nix zu sagen und kann aus der evaluations-zeit stammen. da hilft auch all das gutmütige zusammen-reimen nix.

Aber die R290 hat nur 2x6Pin wohingegen die 7950 AFAIK bereits 8+6 hat?

dlux
2013-09-29, 07:50:23
Eine 290X mit 5 TF sollte ungefähr 30% schneller als die 7970GHz sein. Ich wäre daher überrascht, wenn die Karte nicht mindestens gleich schnell wie Titan ist.

Unter Spielen mit Mantle-Unterstützung (z.B. Battlefield 4) wäre die Karte noch schneller. Vermutlich auch nicht wenig.

horn 12
2013-09-29, 08:14:22
Ich persönlich gehe davon aus dass man die R9 290X ca. 10+% über Titan positioniert,
die R9 290 dagegen knapp unter Titan, sprich etwas über GTX 780, dafür aber auch für "magere" 400 bis 450 Euro!

boxleitnerb
2013-09-29, 08:46:54
Wie soll denn die 290X mit über 5 TF unter einer Titan landen, die selber nur 4,5 TF hat? Das wäre überaus unlogisch.....

Nein, weil du nicht weißt, auf welche Taktraten sich das bezieht. Bei Titan sind die 4,5 TFLOPs beim Basistakt, den man ja durchaus mit anständiger Kühlung überschreiten kann. Dazu kommt immer noch das Frontend. Ob AMD hier die Bremse komplett lösen konnte, wissen wir noch nicht.
P.S. Ich habe mir sagen lassen, dass Hawaii ein heißes Eisen wird :biggrin:

fondness
2013-09-29, 09:30:25
Eines ist auf jeden Fall Faktum: AMD platziert noch zwei Karten über der 280X, welcher anhand der Firestrike-Punkte mehr oder weniger einer 7970Ghz entspricht. Bei nur 10-15% Mehrleistung haben dort keine zwei Karten Platz. Ich erwarte mind. 20% Mehrleistung damit das halbwegs Sinn macht. Die Aussage des AMD-Mannes mit "faster than anything NV has" muss man abwarten wie glaubwürdig das ist...

Das 5121Bit SI und die zusätzlichen Schaltungen kommen ja nicht 4 free unter 28nm. Auch wenn AMD dazu bisher schweigt.


AMD hat jedenfalls klar von einer verbesserten Perf/Watt gesprochen.

Angiesan
2013-09-29, 09:37:02
Aber die R290 hat nur 2x6Pin wohingegen die 7950 AFAIK bereits 8+6 hat?
Wovon redest du da die ganze Zeit von einer OC 7950? Die normale 7950 hat 6+6 Pin PCI-e ich habe so eine also....

Hugo78
2013-09-29, 10:17:56
AMD hat jedenfalls klar von einer verbesserten Perf/Watt gesprochen.

Also nachdem AMD nicht mit Seitenhieben auf Nvidia gespart hat bei ihrer PR Show,
hätten sie sich es sicherlich nicht nehmen lassen auch auf dem Verbrauch rumzureiten, wenn sie hier wirklich besser wären.

Am ende hat man sich nur auf die paar Games mit Mantle Patch bezogen.

M4xw0lf
2013-09-29, 10:48:02
P.S. Ich habe mir sagen lassen, dass Hawaii ein heißes Eisen wird :biggrin:
Und wie is das nun gemeint? Vulkaneske Abwärme? ^^

boxleitnerb
2013-09-29, 10:56:48
Und wie is das nun gemeint? Vulkaneske Abwärme? ^^

Vielleicht ;)

fondness
2013-09-29, 10:57:21
Also nachdem AMD nicht mit Seitenhieben auf Nvidia gespart hat bei ihrer PR Show,
hätten sie sich es sicherlich nicht nehmen lassen auch auf dem Verbauch rumzureiten, wenn sie hier wirklich besser wären.

Am ende hat man sich nur auf die paar Games mit Mantle Patch bezogen.

AMD hat das gesagt, was sie zum jetzigen Zeitpunkt sagen wollten. Das war offenbar noch nichts konkretes zu Hawaii. Nach der öffentlichen Präsentation gab es ein NDA-Briefing.

john carmack
2013-09-29, 11:04:38
Und wie is das nun gemeint? Vulkaneske Abwärme? ^^


http://www.youtube.com/watch?v=qtuo4Lf2eXo

;D

boxleitnerb
2013-09-29, 11:09:17
Heiß kann aber auch positiv sein. Leiser z.B. Und denkt an Titan, da gibts doch diese Regler...

Virtual
2013-09-29, 11:14:35
Ist doch einfach nur schön anzuschauen, wie AMD mit den Befürchtungen und Ängsten der NVidia-Jünger und den Hoffnungen und Freuden der AMD-Gläubigen umgeht.
AMD hat alle nur angespitzt, die Katze aber nicht aus dem Sack gelassen! Jeder darf nun frei nach seiner Glaubensrichtung interpretieren :)

aufkrawall
2013-09-29, 11:17:04
Jeder darf nun frei nach seiner Glaubensrichtung interpretieren :)
Bei Fragen ohne Antworten kommen leider nicht viel mehr als geistige Darmwinde rum. :(

M4xw0lf
2013-09-29, 11:23:34
Heiß kann aber auch positiv sein. Leiser z.B. Und denkt an Titan, da gibts doch diese Regler...
Soso, Temperatur-Target an Bord also.

aufkrawall
2013-09-29, 11:25:58
Das hatte boxleitnerb doch schon vor Tagen oder Wochen gesagt.

Gipsel
2013-09-29, 12:28:04
Soso, Temperatur-Target an Bord also.
Und wieder Dual-Bios. Was passiert, wenn man den Schalter umlegt? Powerlimit auf 300W?

M4xw0lf
2013-09-29, 12:33:03
Und wieder Dual-Bios. Was passiert, wenn man den Schalter umlegt? Powerlimit auf 300W?

Firestrike-Performance "OVER 9000"! ( ;) )

gnahr
2013-09-29, 12:35:52
Und wieder Dual-Bios. Was passiert, wenn man den Schalter umlegt? Powerlimit auf 300W?
so wie die aktuellen evga-karten?
keine schlechte idee, dann hat dieses "sicherheitsfeature" gleich noch nen nutzen. gut abgeguckt, das nützt vielen kunden!

M4xw0lf
2013-09-29, 12:42:39
so wie die aktuellen evga-karten?
keine schlechte idee, dann hat dieses "sicherheitsfeature" gleich noch nen nutzen. gut abgeguckt, das nützt vielen kunden!
Dass AMD bereits auf der 6990 ein zweites BIOS mit höherem Powerlimit hatte, ist dir bekannt? Abgesehen davon, dass Dual-BIOS seit der 6970 Standard ist bei AMDs Referenzbrettern.

fondness
2013-09-29, 13:05:45
so wie die aktuellen evga-karten?
keine schlechte idee, dann hat dieses "sicherheitsfeature" gleich noch nen nutzen. gut abgeguckt, das nützt vielen kunden!

LOL das ist bei AMD seit langem Standard. "Abgeguckt" hat da ganz offensichtlich EVGA.

gnahr
2013-09-29, 13:37:04
nein, meine freunde mit amd-avataren, die haben doch 2 mal die gleichen taktraten.
es ging um unterschiedliche ab werk, die geswitcht werden. :)

Gipsel
2013-09-29, 13:43:55
nein, meine freunde mit amd-avataren, die haben doch 2 mal die gleichen taktraten.
es ging um unterschiedliche ab werk, die geswitcht werden. :)
Und genau das hatte die Referenz-Version der 6990 auch. ;)

edit: Google mal nach AUSUM-Switch bzw. -Mode.

gnahr
2013-09-29, 13:47:36
ok, die 6990 kam ja so ewig erst nach der eigentlichen serie raus und ist vom volumen her ja eher ein testballon und konzept, dann war sie also doch schon so weit entfernt.
es bleiben aber die ersten bezahlbaren karten und im gegensatz zu evgas karten die ersten ref-designs in dem preisbereich.

Skysnake
2013-09-29, 14:15:09
Ähmmm ja...

Also sorry, da biegst du dir doch gerade die Realität so hin, das Sie dir und deiner Argumentation passt.

Gipsel
2013-09-29, 14:55:08
Bitte beim Thema bleiben!
Und das sind die VI-Karten.

Nazar
2013-09-29, 15:20:10
Nein, weil du nicht weißt, auf welche Taktraten sich das bezieht. Bei Titan sind die 4,5 TFLOPs beim Basistakt, den man ja durchaus mit anständiger Kühlung überschreiten kann. Dazu kommt immer noch das Frontend. Ob AMD hier die Bremse komplett lösen konnte, wissen wir noch nicht.
P.S. Ich habe mir sagen lassen, dass Hawaii ein heißes Eisen wird :biggrin:

Was für eine Logik ist das denn?
Er weiß nicht aber Du weißt es und sagst einfach mal so "!Nein!"!? :freak:

Seine These ist, rein von dem bekannten Wissen und von der Logik her, sehr viel Näher an einem "Ja" dran als Du an einem "Nein"!

boxleitnerb
2013-09-29, 15:25:32
Ich wollte damit nur sagen, dass man keine klare Aussage treffen kann ohne die Kenntis der entsprechenden Taktraten. Nicht mehr und nicht weniger. Nach dem, was ich weiß, gehe ich nach wie vor von etwa gleicher pro-MHz-Leistung aus.

Nakai
2013-09-29, 15:36:36
Vielleicht ;)

http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5208851&viewfull=1#post5208851

AMD hat wirklich jegliche Optionen wahr genommen, den Chip kleiner zu machen. Wenn die ROPs in die CUs wandern, bräuchte es keine Crossbar dazwischen mehr -> etwas Einsparung.
Kein Crossfire-Connector, spart auch etwas Diesize.
Pitcairn-artiges Speicherinterface spart auch Diesize.
Wenn die ROPs in die CUs wandern, sieht das nach einem großem Redesign der CUs aus -> Einsparungen möglich.

@boxleitnerb:
Ich wollte damit nur sagen, dass man keine klare Aussage treffen kann ohne die Kenntis der entsprechenden Taktraten. Nicht mehr und nicht weniger. Nach dem, was ich weiß, gehe ich nach wie vor von etwa gleicher pro-MHz-Leistung aus.

Also ich weiß ja nicht, was deine Quellen sind. Jedoch würde ich dir wirklich raten, dich etwas mehr bedeckt zu halten. Ich hatte auch schon hier und da ein paar Quellen/Leaks und man sollte sich immer zurückhalten. Die Leute vergessen es meistens nicht so schnell, vor allem, wenn man mit bestimmten Aussagen einfach etwas zu sehr daneben liegt(auch weil Leaks/Quellen niemals die vollständige Wahrheit sagen, weil die selber sehr vorsichtig sind). Ich finde jedoch, dass viele der Kritiker einfach mal in andere Foren gucken sollten und genau lesen was bestimmte Leute posten.

AnarchX
2013-09-29, 15:39:24
In dem Video sind ein paar NDA-Folien vorhanden: http://www.donanimhaber.com/ekran-karti/haberleri/AMD-Radeon-R9-290X-ve-yeni-nesil-teknolojiler.htm

Bei 9:39 kann man wohl den 15. Oktober als Datum lesen. (edit: In der HD-Version sieht man es deutlicher.)

Skysnake
2013-09-29, 15:48:13
WTF? :geek: 600MHz Displays? :ugly:

boxleitnerb
2013-09-29, 15:55:13
Ist das ein Stream oder warum kann man da nicht spulen?

horn 12
2013-09-29, 15:56:02
Erst 15. Oktober
AMD will die Leute Abzocken!

Würde passen dass die Karten dann am 18.10 aufschlagen und somit pünktlich zum BF4 Release beim Kunden sind!

AnarchX
2013-09-29, 15:59:10
NDA Folien sind geleakt, bzw. im Video present

Naja, Folien zum DMA-Crossfire und den Displayfähigkeiten.
Aber vielleicht können die türkischsprachigen User noch ein paar mehr Detail dem Video entlocken...

boxleitnerb
2013-09-29, 16:01:08
Tiled Resources Tier 2. Evtl. können ältere GCN-Karten nur Tier 1.

Skysnake
2013-09-29, 16:03:05
Also ich finde den direkten Zugriff auf die Graphicspipeline über PCI-E ziemlich heftig. War das bisher überhaupt über Karten hinweg möglich?

Felixxz2
2013-09-29, 21:01:31
Ich wollte damit nur sagen, dass man keine klare Aussage treffen kann ohne die Kenntis der entsprechenden Taktraten. Nicht mehr und nicht weniger. Nach dem, was ich weiß, gehe ich nach wie vor von etwa gleicher pro-MHz-Leistung aus.

Was hat denn das mit den Taktraten zu tun? Wenn die 290X schneller ist, dann ist sie schneller, egal welcher Takt. Und bei >5TF, 4x Frontend, 44ROPs und >300 gb/s wird die wohl kaum langsamer sein als Titan.

LSSJBroly
2013-09-29, 21:14:20
Was hat denn das mit den Taktraten zu tun? Wenn die 290X schneller ist, dann ist sie schneller, egal welcher Takt. Und bei >5TF, 4x Frontend, 44ROPs und >300 gb/s wird die wohl kaum langsamer sein als Titan.

Die HD 7970 GE hat auch mehr Rechenleistung als die GTX 780 (mit 902MHz), und ist in höhen Auflösungen trotzdem noch langsamer (wo das Frontend eher zu vernachlässigen ist). Anhand der reinen Rechenleistung die tatsächliche Gaming-Performance auszumachen, ist nicht möglich. Eine GTX 680 hat mit 3TFLOP/s auch doppelt so viel Rechenleistung wie die 580 - ist aber nur um die 35% schneller.

Aber wenn du gerne nach TFLOP/s gehst, eine Titan mit 1GHz hat auch schon 5,4TFLOP/s :freak:

Nur zur Info: Die R9 290X besitzt auch nur etwas mehr wie 20% mehr Rechenleistung gegenüber der HD 7970 GE - mit einem stärkeren Frontend sind +25% realistisch,( in ausnahmefällen auch mal +30%, wenn Bandbreite gefragt wird, aber auch mal weniger; ich gehe von 320GB/s aus, was "nur" +11% gegenüber der 7970 GE wäre), was ziehmlich genau GTX Titan @900MHz niveau entspricht

boxleitnerb
2013-09-29, 21:17:19
Was hat denn das mit den Taktraten zu tun? Wenn die 290X schneller ist, dann ist sie schneller, egal welcher Takt. Und bei >5TF, 4x Frontend, 44ROPs und >300 gb/s wird die wohl kaum langsamer sein als Titan.

Äh, alles?
Wenn die > 5 TF mit maximal erreichbarem Turbo-Takt gemeint sind vs. Basistakt z.B. Der Takt bestimmt die Leistung mit, da gibts nichts dran zu rütteln. Und das von LSSJBroly gesagte kommt noch dazu. Die R290X hat theoretisch beste Voraussetzungen, pro Takt gleich schnell oder gar einen Tick flotter wie Titan zu sein. Ob das tatsächlich so sein wird, ist noch unklar. Ich gehe auch davon aus, dass R290X höher takten wird als Titan. In Reviews, in denen Titan am Temperaturtarget hängt, auf jeden Fall. Lässt man beiden freien Lauf...möglicherweise auch, so ganz sicher bin ich da selbst noch nicht.

Akkarin
2013-09-29, 21:21:23
WTF? :geek: 600MHz Displays? :ugly:

Afaik wurde doch von der Pixel Clock geredet ? Das hat nur indirekt was mit der Frequenz zu tun, sondern hängt auch mit der Pixelanzahl. Beispielsweise kann man Normalerweise keine 1440p120 ansprechen, weil ne Pixelclock von 483.20 gebraucht wird. Evt. findest du mehr Infos dazu wenn du dich ins übertakten von Koreanern einliest.

TheCounter
2013-09-29, 21:43:14
So nen Hype um ne GPU hatte ich schon lange nicht mehr. Jetzt brauch ich nur noch einen Link zum bestellen :biggrin:

Felixxz2
2013-09-29, 21:45:12
Lasst doch mal diese sinnfreien Vergleiche stecken, gleich kommt noch einer mit VLIW....
290X hat mehr ROPs und doppeltes Frontend als Tahiti und wenn AMD sonst kein Quatsch gemacht hat, werden die 2816 Shader auch voll durchschlagen.

Letztendlich zählt doch nur Rohleistung, praktische Leistung, Verbrauchund OC. Und bei zwei so ähnlichen Architekturen kann man die Rohdaten gut vergleichen. Schaut euch halt ein Pitcairn Crossfire an....

boxleitnerb
2013-09-29, 21:52:41
Du verstehst immer noch nicht, dass nicht klar ist, unter welchen Voraussetzungen die Rohleistung angegeben ist. Und es wäre gut, nicht so voreilig zu sein. Ich habe jetzt schon von zwei Quellen gehört, dass die Performance nicht ganz dem entspricht, was man von den Specs her erwarten kann. Das mag sich durch Treiber noch ändern oder nicht, wer weiß das schon?

M4xw0lf
2013-09-29, 22:07:04
Du verstehst immer noch nicht, dass nicht klar ist, unter welchen Voraussetzungen die Rohleistung angegeben ist. Und es wäre gut, nicht so voreilig zu sein. Ich habe jetzt schon von zwei Quellen gehört, dass die Performance nicht ganz dem entspricht, was man von den Specs her erwarten kann. Das mag sich durch Treiber noch ändern oder nicht, wer weiß das schon?
Gnarf :ubash2:

LadyWhirlwind
2013-09-29, 22:21:19
Du verstehst immer noch nicht, dass nicht klar ist, unter welchen Voraussetzungen die Rohleistung angegeben ist. Und es wäre gut, nicht so voreilig zu sein. Ich habe jetzt schon von zwei Quellen gehört, dass die Performance nicht ganz dem entspricht, was man von den Specs her erwarten kann. Das mag sich durch Treiber noch ändern oder nicht, wer weiß das schon?

Was sind das für Quellen? Sind die vertrauenswürdig?

Nightspider
2013-09-29, 22:29:28
Wie jetzt? Läuft der RAMDAC mit 600Mhz?
Dann wären 2560*1440p @ 120Hz oder höher problemloser möglich.

horn 12
2013-09-29, 22:48:03
http://wccftech.com/amd-radeon-r9-290x-feature-amd-crossfirex-technology-crossfire-bridge-required-anymore/

Felixxz2
2013-09-29, 22:49:27
Ich kenn deine Quellen nicht. Aber ich weiß, dass ein 7850 CF (bei 860 mhz!) 10-20% schneller als ne normale 7970 ist. Analog dazu ne 7870. Und das ist ja nur CF. Das zeigt ja dass GCN mit mehr Frontend und ROP Leistung oder auch mehr Cache pro ALU noch effizienter ist als auf Tahiti. Von da aus kannst du dir leicht ausrechnen, wie schnell ein Hawaii ca ist.
Und da kommt man eben auf +-50% Mehrleistung zu Tahiti bei gleichem Takt (2816 Shader).

M4xw0lf
2013-09-29, 22:51:11
Ich kenn deine Quellen nicht. Aber ich weiß, dass ein 7850 CF (bei 860 mhz!) 10-20% schneller als ne normale 7970 ist. Analog dazu ne 7870. Und das ist ja nur CF. Das zeigt ja dass GCN mit mehr Frontend und ROP Leistung oder auch mehr Cache pro ALU noch effizienter ist als auf Tahiti. Von da aus kannst du dir leicht ausrechnen, wie schnell ein Hawaii ca ist.
Und da kommt man eben auf +-50% Mehrleistung zu Tahiti bei gleichem Takt (2816 Shader).
Äh richtig, denn 2816/2048 ist ja +50% ! :freak:

Skysnake
2013-09-29, 22:55:06
Du verstehst immer noch nicht, dass nicht klar ist, unter welchen Voraussetzungen die Rohleistung angegeben ist. Und es wäre gut, nicht so voreilig zu sein. Ich habe jetzt schon von zwei Quellen gehört, dass die Performance nicht ganz dem entspricht, was man von den Specs her erwarten kann. Das mag sich durch Treiber noch ändern oder nicht, wer weiß das schon?
Es gibt halt den Faktor "Mantle".

Das ist ein Jocker/Gamechanger. Es würde mich sehr überraschen, wenn die R9 290X die Titan nicht alt aussehen lässt unter Mantle. Das ist aber eben ein SEHR unfairer vergleich.

Akkarin
2013-09-29, 23:00:24
Wie jetzt? Läuft der RAMDAC mit 600Mhz?
Dann wären 2560*1440p @ 120Hz oder höher problemloser möglich.

Ja, es gibt bei Donanim einen slide der 600 MHz Pixelclock sagt. SO außergewöhnlich ist das ihmo nicht, Koreaner machen ja auch reihenweise >96Hz mit und mit 4K wird ja auch zwangsweise was höheres gebraucht.

StefanV
2013-09-29, 23:02:04
Wie jetzt? Läuft der RAMDAC mit 600Mhz?
Es gibt K E I N E N RAMDAC bei Hawaii...

Felixxz2
2013-09-29, 23:17:29
Äh richtig, denn 2816/2048 ist ja +50% ! :freak:

Ja witzig. Weißt genau dass da ein Effizienzvorteil von mehr ROPs und Frontend eingerechnet ist. Als ob Tahiti seine 2048 ALUs nutzt. Sind von Pitcairn hochgerechnet nur ~ 1800, also Tahiti Pro. Alles natürlich in Spielen.

horn 12
2013-09-29, 23:20:13
http://videocardz.com/46186/amd-radeon-r9-290x-officially-released-october-15th

So wie es scheint feilt AMD noch fleißig am Treiber und deshalb wohl auch der "späte" Termin am 15.ten Oktober 2013.
Falls alles komplett glatt läuft könnten wohl etwa gar stolze 20% über Titan Performance drinnen sein ...

R9 290 sollte bereits knapp an Titan liegen und für 449 Dollar an den Mann gehen, bei R9 290 sollen es 579 Dollar werden, bei >Titan Performance.
Performancemässig sollten die 15 bis 20% eingehalten werden, welches das Spitzenmodell vom kleinen Bruder trennt.
R9 280X soll wohl der Konkurrent der GTX 770 werden und auch sein, also ca. 5% schneller als HD7970 Ghz Edition.
R9 290 trennt zur R9 280X derzeit wohl ca. gute 15%, bis zum Release wohl 20+%

Die derzeitigen Häppchen jeden Tag ist wohl von AMD so gewollt, wollen einfach HEISS machen auf die Karte.
Bis zum "Vorbesteller "Tag, dem 03. Oktober sollten wohl alles Voraussicht nach von AMD ausgesuchte Benchmarks geleakt werden,- um jene nicht ganz im Dunkeln zu lassen, ebenso der Preis in etwa feststehen.
PS: ----> Ich persönlich gehen von 549 Euro und 429 Euro für die Karten aus.
Sprich AMD schaut auch über den Preis zu punkten und somit möglichst viele ins Boot zu holen.

Felixxz2
2013-09-29, 23:44:53
Macht Sinn. 280X auf ~7970Ghz Niveau, 15-20% drüber und auf 780 Niveau die 290 und wieder 15-20% drüber die 290X über Titan.

horn 12
2013-09-29, 23:52:40
Deshalb fällt auch der Preis der R9 280X relativ günstig aus.
Da jene Karte kaum schneller als die Ghz Version wird, dafür aber weitaus stromsparender und leiser treten.
Wie gesagt, liegt wohl erneut (wie immer bei AMD) vieles am Treiber der R9 290-er Karten und hoffe auf´s Beste für AMD! Werden es schon gebacken bekommen ...
Auch dass ausschliesslich der besagte Treiber und nur jener für die Testzwecke verwendet wird, sollte sich bitte mal einbürgern.
Bis zum 3-ten sollten wohl einige Leaks durchsickern (für die Vorbesteller)

dargo
2013-09-30, 00:02:17
Deshalb fällt auch der Preis der R9 280X relativ günstig aus.
Da jene Karte kaum schneller als die Ghz Version wird, dafür aber weitaus stromsparender und leiser treten.

Wie kommst du denn darauf? R9 280X ist doch nur ein umgelabelter Tahiti. Der Chip ist nicht neu.

horn 12
2013-09-30, 00:08:48
Mann gibt wohl weniger Spannung den Neuen Karten.
Die Ghz Versionen waren ja teilweise auf 1.20 bis 1,25 Volt

Nakai
2013-09-30, 01:25:30
Mhh, wieso hat die R7 260X den SoundDSP?
Eine wilde Speku:
Hainan wird als Erweiterungschip benutzt, welcher den SoundDSP hat.
Hainan ist ja noch nirgends benutzt worden? Oder?
Bonaire+Hainan = R7 260
Man könnte Hainan, dann zu Kabini und Kaveri hinzufügen, welche eine Grafikboost und den DSP mit sich bringen.

Bonaire 14 CUs + Hainan 5/6 CUs = 19/20 CUs
Niedrigerer Takt, evtl könnte man einige CUs von Bonaire abschalten, um Storm zu sparen.

Ich würde selber natürlich nicht dran glauben, aber wie war das nochmal mit Kaveri (http://www.planet3dnow.de/cms/3279-kaveri-mit-13-compute-units-832-shader/)?

;D

So mal zu Hawaii...
In der Präsi stand was über 5TFLOPs= 2560SPs *1GHz * 2 FLOP = 5120GLOPs. Das passt. Aber was wäre mit 2816SPs bei weniger Takt? Bei so 0,9 GHz kratzt man so an der 5 TFlop-Marke. In der Präsentation stand was von 800 Mhz - 1000Mhz(mit Boost). Bei Konfigs liegen bei ~800Mhz unter 5TLOPs. Wie Hawaii jetzt genau aussieht, weiß man denn noch nicht. Vernünftigerweise(um auch den Takt noch etwas senken zu können) wird man mehr SPs verbauen, vor allem wenn man viel Platz durch andere Reduktionen gemacht hat. Der Transistorcount stieg um ~40% im Vergleich zu Tahiti, was ich bei etwa 17 % Mehrplatz beeindruckend finde. Ich bin höchst gespannt.

€: So aba noch was anderes. Hawaii hat ne ziemlich heftige Packdichte bei ~430mm²(gbts ne sichere Source). Man kratzt so bei 14Mill/mm2. Tahiti hat ja 11,8 und Pitcairn ist bei 13,2Mill/mm2, nur zum Vergleich.

Nightspider
2013-09-30, 02:50:40
Es gibt K E I N E N RAMDAC bei Hawaii...

Inwiefern? Heißt der bei AMD anders?

Felixxz2
2013-09-30, 02:57:18
Inwiefern? Heißt der bei AMD anders?

Nein. Ein RAMDAC ist nur für analoge Ausgänge, wenn du digitale benutzt, ist der sowieso nicht in Betrieb. Und da Hawaii keinen analogen DVI mehr hat, sondern nur noch digitale Ausgänge, fällt der RAMDAC eben ganz weg.

schreiber
2013-09-30, 02:58:15
As the use of DVI, HDMI, and other digital interface technology becomes increasingly mainstream, the "DAC" portion of the RAMDAC will likely become obsolete. Digital interfaces use a TMDS module.
Ich meine auch mal gelesen zu haben, dass der RAMDAC, sofern noch benötigt, in der GPU sitzt und es gar keinen separaten mehr gibt?!

/edit
man kann keine analogen Monitore mehr mit Hawaii betreiben?

Felixxz2
2013-09-30, 03:03:32
Ich meine auch mal gelesen zu haben, dass der RAMDAC, sofern noch benötigt, in der GPU sitzt und es gar keinen separaten mehr gibt?!

/edit
man kann keine analogen Monitore mehr mit Hawaii betreiben?

Nein. Der analoge Ausgang am DVI fällt weg, dafür kannst du jetzt 2x DVI und 1x HDMI parallel betreiben. Ka ob das in direktem Zusammenhang steht.

dlux
2013-09-30, 03:41:18
Mhh, wieso hat die R7 260X den SoundDSP?
Die R7 260X, R9 270 und R9 270X sollen auf Sea Islands (GCN 1.1) setzen, aber nur die R7 260X hat den TrueAudio-DSP (obwohl sie günstiger ist).

Vermutlich hat die R7 260X tatsächlich eine Volcanic Islands (GCN 2.0) und keine Sea Islands GPU.

V2.0
2013-09-30, 07:03:29
http://videocardz.com/46186/amd-radeon-r9-290x-officially-released-october-15th

So wie es scheint feilt AMD noch fleißig am Treiber und deshalb wohl auch der "späte" Termin am 15.ten Oktober 2013.
Falls alles komplett glatt läuft könnten wohl etwa gar stolze 20% über Titan Performance drinnen sein ...

R9 290 sollte bereits knapp an Titan liegen und für 449 Dollar an den Mann gehen, bei R9 290 sollen es 579 Dollar werden, bei >Titan Performance.
Performancemässig sollten die 15 bis 20% eingehalten werden, welches das Spitzenmodell vom kleinen Bruder trennt.
R9 280X soll wohl der Konkurrent der GTX 770 werden und auch sein, also ca. 5% schneller als HD7970 Ghz Edition.
R9 290 trennt zur R9 280X derzeit wohl ca. gute 15%, bis zum Release wohl 20+%

Die derzeitigen Häppchen jeden Tag ist wohl von AMD so gewollt, wollen einfach HEISS machen auf die Karte.
Bis zum "Vorbesteller "Tag, dem 03. Oktober sollten wohl alles Voraussicht nach von AMD ausgesuchte Benchmarks geleakt werden,- um jene nicht ganz im Dunkeln zu lassen, ebenso der Preis in etwa feststehen.
PS: ----> Ich persönlich gehen von 549 Euro und 429 Euro für die Karten aus.
Sprich AMD schaut auch über den Preis zu punkten und somit möglichst viele ins Boot zu holen.

Hört sich sehr konservativ an und berücksichtig Mantle noch nicht.

boxleitnerb
2013-09-30, 07:53:39
Was sind das für Quellen? Sind die vertrauenswürdig?

Glaubst du das lege ich hier offen? Bisher hat ausnahmslos alles, was mir gesagt wurde, gestimmt - auch wenn so mancher hier das noch nicht glaubt ;)

Es gibt halt den Faktor "Mantle".

Das ist ein Jocker/Gamechanger. Es würde mich sehr überraschen, wenn die R9 290X die Titan nicht alt aussehen lässt unter Mantle. Das ist aber eben ein SEHR unfairer vergleich.

Das alles war natürlich ohne Mantle gemeint ;)

aufkrawall
2013-09-30, 08:36:47
Glaubst du das lege ich hier offen? Bisher hat ausnahmslos alles, was mir gesagt wurde, gestimmt - auch wenn so mancher hier das noch nicht glaubt ;)

Beim VRAM hattest du afair eher 3GB spekuliert. :tongue:

boxleitnerb
2013-09-30, 08:44:17
Bei 512-bit? Nö, so doof bin ich nicht :D

Schaffe89
2013-09-30, 08:44:46
Das mit den 512bit hast du doch auch nicht gewusst?

M4xw0lf
2013-09-30, 08:44:55
Funfact: Seit dem 25sten ist dieser Thread um 50% gewachsen ^^

boxleitnerb
2013-09-30, 08:55:29
Das mit den 512bit hast du doch auch nicht gewusst?

Doch, schon lange.

Screemer
2013-09-30, 09:07:54
Afaik wurde doch von der Pixel Clock geredet ? Das hat nur indirekt was mit der Frequenz zu tun, sondern hängt auch mit der Pixelanzahl. Beispielsweise kann man Normalerweise keine 1440p120 ansprechen, weil ne Pixelclock von 483.20 gebraucht wird. Evt. findest du mehr Infos dazu wenn du dich ins übertakten von Koreanern einliest.
das würde allen amd-usern mit 120Hz 27'' sehr zu guten kommen. Ich könnte jedes mal abkotzen, wenn ich den pixelclockpatcher anschmeißen muss, 120Hz einstelle, neustarte, zocke und danach ein video schauen will. da beginnt der spaß von vorne, nur in die andere richtung...
Wie jetzt? Läuft der RAMDAC mit 600Mhz?
Dann wären 2560*1440p @ 120Hz oder höher problemloser möglich.
endlich!!!

mir wäre zwar ne möglichkeit das ganze mit meiner 7950 nutzen zu können lieber, denn dann müsste ich nicht neu kaufen :(

Nein. Der analoge Ausgang am DVI fällt weg, dafür kannst du jetzt 2x DVI und 1x HDMI parallel betreiben. Ka ob das in direktem Zusammenhang steht.
eyefinity ohne dp adapter? sowas will ich hören.

Akkarin
2013-09-30, 09:22:48
Einfach mehrere Profile anlegen und dann im CCC ändern ?

Was mich eher interessieren würde ist, ob die Graka beim übertakten Limitiert oder der Monitor. Bei mir laufen 96Hz flüssig, bei 120Hz gibts teilweise Artifakte. Mal sehn obs mit Hawaii besser wird.

CompuJoe
2013-09-30, 09:40:22
das würde allen amd-usern mit 120Hz 27'' sehr zu guten kommen. Ich könnte jedes mal abkotzen, wenn ich den pixelclockpatcher anschmeißen muss, 120Hz einstelle, neustarte, zocke und danach ein video schauen will. da beginnt der spaß von vorne, nur in die andere richtung...

endlich!!!

mir wäre zwar ne möglichkeit das ganze mit meiner 7950 nutzen zu können lieber, denn dann müsste ich nicht neu kaufen :(


eyefinity ohne dp adapter? sowas will ich hören.

Ähmm, das Problem habe ich mit meiner 7970 nicht auf einen 27" Samsung 120Hz, habe keine Probleme mit 120 HZ und Videos.

Screemer
2013-09-30, 09:44:23
@akarin: war das an mich gerichtet?

das problem ist, dass sobald der pixelclockpatcher genutzt wurde, kein dxva (hardwarebeschleunigte videos) mehr funktioniert. ob der monitor dann mit 120Hz oder 60Hz angesprochen wird ist nebensächlich. Eine andere möglichkeit 120Hz und 7950 zu nutzen hab ich noch nicht gefunden. ein passender monitortreiber könnte vielleicht helfen und ist vielleicht bei obigem Samsung so. bei den koreaner ist es leider ein problem. wegen der artefakte. hast du schon mal ein anderes dvi-kabel getestet. soll oft helfen. hilfe bei meinem problem gern auch per pn.

aber back to topic. können gerne im koreaner thread hier aufmachen oder gibts den schon?

horn 12
2013-09-30, 12:43:41
Kann ich nicht ganz glauben
R9 290 nur 3GB und auch nur 384 Bit anstelle 512 bit


And more:

"
R9 290X = Hawaii XT (Full Chip - 2816 SP, 4GB w/512-bit, ~$600)
R9 290 = Hawaii Pro (Binned Chip - 2304 or 2560 SP, 3GB w/384-bit, ~$400)
R9 280X = Tahiti XT2 (7970 Ghz - 2048 SP, 3GB w/384-bit, ~$300)
R9 270X = Tahiti LE (7870 XT - 1536 SP, 2GB w/256-bit, ~$200)
R7 260X = Bonaire XT (7790 - 896 SP, 2GB w/128-bit, ~$139)
R7 250 = Cape Verde XT (7770 - 640 SP, 1GB w/128-bit, <$89)"

reaperrr
2013-09-30, 12:51:53
R7 250 = Cape Verde XT (7770 - 640 SP, 1GB w/128-bit, <$89)"
Allein das ist schonmal falsch. Die R7 250 basiert auf Oland, darum auf der Folie von AMD auch so ein riesiger Abstand zur 260X im Firestrike Test. CV würde dort viel besser abschneiden.

Auch das mit Tahiti LE kann ich nicht glauben, dafür ist der Chip zu teuer in der Herstellung. Und wo sollte da noch Curacao zwischenpassen?

Ergibt einfach keinen Sinn.

dargo
2013-09-30, 12:55:23
Mann gibt wohl weniger Spannung den Neuen Karten.
Die Ghz Versionen waren ja teilweise auf 1.20 bis 1,25 Volt
Och... das lag bei manchen OC-Versionen der normalen HD7970 auch an. Je nach Güte vom Chip halt variiert das etwas.

Eggcake
2013-09-30, 13:12:19
Ja, wo genau ist überhaupt Curacao in der Auflistung?

Und bei der 290 hoffe ich wirklich ebenfalls auf ein 512bit SI, sonst wird die Entscheidung schon schwerer fallen :/

Iruwen
2013-09-30, 17:04:21
Warum orientieren sich eigentlich ständig alle an Titan? Direkte Preis-/Leistungskonkurrenz sind doch eher die GTX 780 (OC-)Modelle was reines Gaming angeht. An denen scheint sich AMD ja auch zu ortientieren wenn man die momentan bekannte Preisgestaltung zugrunde legt.

Felixxz2
2013-09-30, 17:13:19
Preis, aber nicht Leistung.

Menace
2013-09-30, 17:41:56
Ist das nicht schon Tradition? Man erhöht die Erwartungen einer neuen AMD/ATI-Karte massiv um dann beim ersten Test auch gleich sagen zu können, was das wieder für eine Fail-Karte ist, da sie die Erwartungen nicht erfüllt (und z.B. langsamer ist als die Titan). Ich glaube nicht, dass die neuen Karten rein von der Leistung an die Titan ran kommt; aber ich lasse mich auch lieber positiv überraschen. :biggrin:

Felixxz2
2013-09-30, 17:46:20
Naja man weiß ja jetzt grobe Leistungsdaten. Viele Leute hier glorifizieren hier die Titan enorm, u.a. wegen des Preises und ihrer "Supercomputerwurzeln".
Dabei ist sie nur 25% schneller als die 7970Ghz. In diese 25% müssten dann die 280X, die 290 und die 290X rein. Sehr unwahrscheinlich.

boxleitnerb
2013-09-30, 17:51:24
Das wird schöne Kontroversen geben, ich sehe es schon kommen. Angesichts der...Umstände....ist es auch nicht verkehrt, Titan mit den Reglern von der Leine zu lassen. AMD wird das aller Voraussicht nach ebenfalls tun, nur eben standardmäßig. Aber das werden dann sicher viele nicht gelten lassen, denn es ist ja Sünde, in einer Software ein Reglerchen zu verschieben. Wenn NV/AMD es so einstellen, ist es gut. Wenn der Kunde es einstellt, ist es böse :D

Ailuros
2013-09-30, 17:57:13
Naja man weiß ja jetzt grobe Leistungsdaten. Viele Leute hier glorifizieren hier die Titan enorm, u.a. wegen des Preises und ihrer "Supercomputerwurzeln".


AMD ist leider bis zu verdammt still ueber FP64 auf Hawaii, aber wenn es doch am Ende 1:2 sein sollte (ich verlier so langsam die Hoffnung :( ) dann kann man sich die "Supercomputerwurzeln" des Titan als mainstream GPU ziemlich schnell an den Hut stecken ueberhaupt mit einem $599 MSRP.

robbitop
2013-09-30, 18:03:57
Das wird schöne Kontroversen geben, ich sehe es schon kommen. Angesichts der...Umstände....ist es auch nicht verkehrt, Titan mit den Reglern von der Leine zu lassen. AMD wird das aller Voraussicht nach ebenfalls tun, nur eben standardmäßig. Aber das werden dann sicher viele nicht gelten lassen, denn es ist ja Sünde, in einer Software ein Reglerchen zu verschieben. Wenn NV/AMD es so einstellen, ist es gut. Wenn der Kunde es einstellt, ist es böse :D
Das liest sich nach Software-TDP Bremse.

boxleitnerb
2013-09-30, 18:07:19
Das liest sich nach Software-TDP Bremse.

TDP, Temperatur...gehupft wie gesprungen. Im Auslieferungszustand wird Titan auf jeden Fall benachteiligt sein, wenn man nicht an den Reglern spielt. Das wird man tun müssen, wenn man auf einer Ebene vergleichen will. Macht ja irgendwie keinen Sinn z.B. eine GPU bei 80°C/210W und eine andere bei 95°C/260W zu vergleichen (die Zahlen sagen nix aus, sind nur Beispielwerte).

StefanV
2013-09-30, 18:19:07
AMD ist leider bis zu verdammt still ueber FP64 auf Hawaii, aber wenn es doch am Ende 1:2 sein sollte (ich verlier so langsam die Hoffnung :( ) dann kann man sich die "Supercomputerwurzeln" des Titan als mainstream GPU ziemlich schnell an den Hut stecken ueberhaupt mit einem $599 MSRP.
Ja, das sehe ich ähnlich. Bisher hat man nichts dazu gesagt, was befürchten lässt, dass FP64 schlicht nicht wirklich vorhanden ist. Also sowas in der Art wie 1:16.

Gut, es kann auch sein, dass AMD das absichtlich macht und dennoch 1:4 oder 1:2 implementiert haben, um den Schock zu erhöhen. Aber wirklich dran glauben möcht ich nicht. Das wäre dann einfach viel zu gut. Insbesondere von dem, was wir momenan so wissen...

V2.0
2013-09-30, 18:49:59
TDP, Temperatur...gehupft wie gesprungen. Im Auslieferungszustand wird Titan auf jeden Fall benachteiligt sein, wenn man nicht an den Reglern spielt. Das wird man tun müssen, wenn man auf einer Ebene vergleichen will. Macht ja irgendwie keinen Sinn z.B. eine GPU bei 80°C/210W und eine andere bei 95°C/260W zu vergleichen (die Zahlen sagen nix aus, sind nur Beispielwerte).

Es ist der Werkszustand zu vergleichen. Titan würde ja in diesem Fall auch Pluspunkte für Verbrauch und evtl. Lautstärke bekommen.

DarknessFalls
2013-09-30, 18:50:02
Das wird man tun müssen, wenn man auf einer Ebene vergleichen will. Macht ja irgendwie keinen Sinn z.B. eine GPU bei 80°C/210W und eine andere bei 95°C/260W zu vergleichen (die Zahlen sagen nix aus, sind nur Beispielwerte).

Wieso das? Wenn, dann geht es doch wohl um Auslieferungszustand vs. Auslieferungszustand. Was dann mit irgendwelchen Reglern dann noch irgendwo rauszuholen ist, steht dann auf einem anderen Blatt - das höchstens die Hardwarefreaks interessieren dürfte.

aufkrawall
2013-09-30, 18:54:28
Wieso das? Wenn, dann geht es doch wohl um Auslieferungszustand vs. Auslieferungszustand. Was dann mit irgendwelchen Reglern dann noch irgendwo rauszuholen ist, steht dann auf einem anderen Blatt - das höchstens die Hardwarefreaks interessieren dürfte.
Wenn Garantie erhalten bleibt, muss auf jeden Fall auch das maximal mögliche rausgeholt werden.
Man will ja schließlich wissen, wie viel Bang pro Buck es gibt.

Überhaupt sind imho eher 780 Custom Designs der Gegner, einfach weil sie gekauft werden. Kann man ja dann (später) auch mit Custom-Radeons vergleichen.

Eggcake
2013-09-30, 19:02:52
Na, macht man das bei CPUs auch?

"CPU A bleibt bei 60°, B bei 80° - das ist natürlich ein unfairer Vergleich." - Naja. Wenn dann wird bemerkt, dass bei CPU A noch Luft nach oben ist.

Natürlich kann man noch das "OC" prüfen, aber grundsätzlich sollte schon Stock vs. Stock verglichen werden.

Ätznatron
2013-09-30, 19:07:57
Wenn Garantie erhalten bleibt, muss auf jeden Fall auch das maximal mögliche rausgeholt werden.
Man will ja schließlich wissen, wie viel Bang pro Buck es gibt.

Überhaupt sind imho eher 780 Custom Designs der Gegner, einfach weil sie gekauft werden. Kann man ja dann (später) auch mit Custom-Radeons vergleichen.

Was durch bessere Kühlung, dem Drehen an Reglern etc. noch herausgeholt werden könnte, ist zu sehr Glücksache, allein schon wegen unterschiedlicher ASICs, Nord- oder Südhalbkugel, usw...

Die bisherigen Testverfahren gehören erstmal alle selbst auf den Prüfstand.

IMHO bieten HT4U momentan das objektivste Verfahren, da nur vom Hersteller garantierte Mindesttaktungen herangezogen werden.

boxleitnerb
2013-09-30, 19:14:24
Es ist der Werkszustand zu vergleichen. Titan würde ja in diesem Fall auch Pluspunkte für Verbrauch und evtl. Lautstärke bekommen.

Klar würde er. Nachher heißt es dann halt, dass Titan (immer) langsamer ist, als ob man das nicht ändern könnte, indem man das selbst tut, was AMD schon gemacht hat. Beide Hersteller geben einem die Möglichkeit in die Hand, den gewünschten Betriebspunkt einzustellen, warum nicht nutzen?

Wieso das? Wenn, dann geht es doch wohl um Auslieferungszustand vs. Auslieferungszustand. Was dann mit irgendwelchen Reglern dann noch irgendwo rauszuholen ist, steht dann auf einem anderen Blatt - das höchstens die Hardwarefreaks interessieren dürfte.

Ich glaube, die Hardwarefreaks sind die Zielgruppe für Titan und Hawaii ;)

Eggcake
2013-09-30, 19:19:29
Wie gesagt, man vergleicht auch nicht max. OC mit einer CPU mit max. OC einer anderen CPU. Am besten noch mit dem Stock-Kühler.
Wenn man das schon so machen will, dann wenn schon mit dem gleichen Kühler.

Mir ist irgendwo schon klar worauf du hinaus willst, aber IMHO sollte grundsätzlich mal Stock vs. Stock verglichen werden, egal wo. Wenn man wirklich in einfacher Weise mit dem verschieben eines Reglers, ohne Garantieverlust, dieselbe Leistung wie das andere Produkt erreichen kann, dann muss man das natürlich erwähnen (allerdings auch die damit einhergehenden Nachteile, wie erhöhte Temp. und Lautstärke). Weiter muss man dann logischerweise dasselbe mit dem anderen Produkt ebenfalls machen.

Menace
2013-09-30, 19:23:03
Ich dachte, dass nach einer gewissen Erfahrung (und das haben doch jetzt einige Boardmember) gar nicht mehr darum geht, welche die "schnellste" ist, sondern was bin ich bereit für welche Feature, BQ und Schnelligkeit zu zahlen? Eine durch und durch individuelle Entscheidung. Oder schaut ihr wirklich noch, ob eine Karte 5% schneller ist? :eek:

LSSJBroly
2013-09-30, 19:23:12
Wie gesagt, man vergleicht auch nicht max. OC mit einer CPU mit max. OC einer anderen CPU. Am besten noch mit dem Stock-Kühler.
Wenn man das schon so machen will, dann wenn schon mit dem gleichen Kühler.


Nur ist das Temp-Target zu verändern kein OC, man bewegt sich dabei vollkommen in den Spezifikationen der Karte.

Eggcake
2013-09-30, 19:24:41
Es garantiert dir ja trotzdem keiner, dass man mit einem anderen Exemplar dieselbe Leistung erreicht. IMHO leidet einfach die Vergleichbarkeit darunter. Zudem kann man diesbezüglich nie ausschliessen, ob die Reviewer ein ausgelesenes Exemplar zugeschickt bekommen. Deshalb gehört OC (und Temp-Target verschieben ebenso) IMHO immer in eine separate Kategorie.

gnahr
2013-09-30, 19:27:44
IMHO bieten HT4U momentan das objektivste Verfahren, da nur vom Hersteller garantierte Mindesttaktungen herangezogen werden.du meinst nicht "objektiv", sondern "von der praxis am weitesten entfernte".
der schönste test nützt nix, wenn er nur um des tests willen gemacht wird und keine informationen über realworld liefert.

StefanV
2013-09-30, 19:46:11
Es ist der Werkszustand zu vergleichen. Titan würde ja in diesem Fall auch Pluspunkte für Verbrauch und evtl. Lautstärke bekommen.
Full ACK!

Jeder, der was anderes verlangt als Karte einbauen, Treiber installieren, benchen, verlangt hier eine Bevorteilung eines Beteiligten. Und das kann bzw darf nicht sein!
Man _MUSS_ einfach Stock testen. Wenn eine Grafikkarte einen Schalter bietet, der noch 'nen bisserl Performance frei werden lässt, sollte man das natürlich auch mit testen.

Alles weitere kann man dann natürlich in einem OC Abschnitt beschreiben/testen. Ist ja nicht soo das Problem, eigentlich.

horn 12
2013-09-30, 19:48:33
Anfng der Woche sollten wohl bereits Karten für Testberichte versendet werden, und rechne stark dass bis zum 03 Oktober die Specs endgültig durchsickern, vielleicht auch den einen und anderen Benchmark,- um die R9 290X Vorbesteller nicht ganz zu hintergehen.
Morgen ist bereits der Erste Oktober, dann noch 2 Wochen bis zur Vorstellung der Karten.

Ätznatron
2013-09-30, 19:53:33
du meinst nicht "objektiv", sondern "von der praxis am weitesten entfernte".
der schönste test nützt nix, wenn er nur um des tests willen gemacht wird und keine informationen über realworld liefert.

Die realworld wird bestimmt nicht durch Zufallsergebnisse beim OC-Glücksspiel am objektivsten beschrieben.

gnahr
2013-09-30, 20:02:36
also wenn ich im laden in nen stapel karten greife und mir eine aussuchen muss ist das ziemliches zufalls-glücksspiel.

"am objektivsten"... wie die leute immer ihren fetisch durchdrücken, dass ihre meinung die beste ist. ein gutes fazit ist 5 mal mehr wert als mit der schiebelehre gemessene ergebnisse und da gehört auch rein "x und y sind eigentlich das gleiche, aber nach 3 handgriffen hat die karte eindeutig mehr spaß gemacht."

Ätznatron
2013-09-30, 20:12:39
also wenn ich im laden in nen stapel karten greife und mir eine aussuchen muss ist das ziemliches zufalls-glücksspiel.


Das hat mit der Messmethodik genau was zu tun?

Es gilt:

Weitere Zufallsminimierung ist daher das Kennzeichen eines guten Messverfahrens, wenn der Zufall doch schon beim Griff in den Stapel so heftig zuschlagen kann. ;)


"am objektivsten"... wie die leute immer ihren fetisch durchdrücken, dass ihre meinung die beste ist. ein gutes fazit ist 5 mal mehr wert als mit der schiebelehre gemessene ergebnisse und da gehört auch rein "x und y sind eigentlich das gleiche, aber nach 3 handgriffen hat die karte eindeutig mehr spaß gemacht."

Ein gutes Fazit ist nur unter Ausschaltung des OC-Zufallsblendwerks möglich.

Alles andere ist Frickelkram.

Leonidas
2013-09-30, 20:17:53
R9 290X = Hawaii XT (Full Chip - 2816 SP, 4GB w/512-bit, ~$600)
R9 290 = Hawaii Pro (Binned Chip - 2304 or 2560 SP, 3GB w/384-bit, ~$400)
R9 280X = Tahiti XT2 (7970 Ghz - 2048 SP, 3GB w/384-bit, ~$300)
R9 270X = Tahiti LE (7870 XT - 1536 SP, 2GB w/256-bit, ~$200)
R7 260X = Bonaire XT (7790 - 896 SP, 2GB w/128-bit, ~$139)
R7 250 = Cape Verde XT (7770 - 640 SP, 1GB w/128-bit, <$89)"


Wir erwähnen bitte hinzu:

I've been discussing the lineup with some other people in a few forums, and aggregating the data, the best determination we've come up with based on the available specifications (memory capacity and Firemark scores) is:


IMO ist so gut wie alles davon pur erdacht. R7 250 ist schon gänzlich falsch.

horn 12
2013-09-30, 20:24:25
Jupp,gehe bei R9 290 und 290X von gleichem Verfahren aus, sprich 512 Bit, die Shaderanzahl wird wohl um gute 10% darunter liegen, also wahrscheinlich 2560 Shader aber dazu auch 4GB Speicher... Soviel wird sich die R9 290 nicht abschrecken lassen vom Spitzenreiter 290X.

gnahr
2013-09-30, 20:46:33
Ein gutes Fazit ist nur unter Ausschaltung des OC-Zufallsblendwerks möglich.

Alles andere ist Frickelkram.
alle tests auf dem basistakt zu fahren ist weiter weg von der realität als jegliches frickel-oc.
so kommt keine einzige karte in den handel.

gegen einen test unter vorbehalt gegen cherrypicking hat niemand was, wenn der tester in der lage ist später seine hände an 2-3 retail-karten zu bekommen.

Ätznatron
2013-09-30, 21:17:22
alle tests auf dem basistakt zu fahren ist weiter weg von der realität als jegliches frickel-oc.
so kommt keine einzige karte in den handel.

gegen einen test unter vorbehalt gegen cherrypicking hat niemand was, wenn der tester in der lage ist später seine hände an 2-3 retail-karten zu bekommen.

Grundsätzlich sollten nur selbst gekaufte Exemplare getestet werden.

Armaq
2013-09-30, 21:25:40
Wo ist jetzt das Problem? Die letzte Seite habe ich nicht verstanden. Was auch immer AMD präsentiert, wird erstmal aufgenommen und dann zerlegt. Software TDP hin oder her, man kann das ja ausprobieren.

Gaestle
2013-09-30, 22:20:51
Es geht wohl eher darum, dass man mit Turbo aller Coleur (also auch auf NV-seite) die Katze im Sack kauft, wenn die Magazine mit Turbo testen, weil der Turbo von GPU zu GPU (auch innerhalb einer Serie) unterschiedlich sein kann. Es kann also sein, dass das Exemplar des Testmagazins selektiert besser ist, als das, was der 0815-Gamer im Verkaufsregal sieht. Außerdem ist nicht klar, wie lange der Turbo aktiviert ist. Wenn ein Magazin nur 5 Minuten bencht, wird der Chip nicht so heiß und damit ist die Wahrscheinlichkeit auf einen Turboeffekt höher, als wenn der 0815-Gamer 3 Stunden am Stück zockt und der Turbo eben wegen dem heißen Chip gar nicht mehr aktiviert wird.

Statt dem Leser zu zeigen, welche Leistung er auf jeden Fall (mindestens) bekommt (= Leistung ohne Turbo) wird demonstriert, was der Leser unter besonderen Umständen eventuell kriegen könnte.


Allerdings muss auch gesagt werden, dass der Turbo in der Regel nur etwa 5-10% Takt (50-100MHz) ausmacht. Das schlägt sich am Ende in vielleicht 3-7% Balkenlänge nieder. Das ist dann vermutlich nicht so wahnsinnig weit von der Messungenauigkeit weg. Und die Entscheidung zwischen spielbar und ruckelt dürfte es auch eher selten darstellen.

gnahr
2013-09-30, 22:25:13
was heißt "unter besonderen umständen"?`
es ist ne stichprobe und ein einzelfall.
der basistakt war bei den letzten generationen durch die bank weg wesentlich niedriger, als das was bei den kunden im mittel und auch im meridian ankam.

zanken wir jetzt ernsthaft um die 2% +- nach oben und unten, weshalb ihr jetzt konsequent -10 bis -15% (eben wieviel der basistakt niedriger liegt) aufzeigen wollt als testergebnisse?
die karte wird so getestet, wie sie ankommt und dann in verschiedenen abstufungen manipuliert um weitere rückschlüße ziehen zu können. konsequent auf den min-takt zu drosseln ist... unsinn. das hilft mir bei der entscheidung nicht, da kann man auch gleich die rohleistung auf dem papier ausrechnen und danach gehen, dies ist nicht die leistung, die ich kaufe.

Gaestle
2013-09-30, 22:34:28
Wir zanken gar nicht.
"Unter besonderen Umständen" heißt, dass es mal so und mal so sein kann. 1) Man darf nicht zu lange zuviel Last fordern, 2) es darf draußen nicht zu warm sein und 3) Dein persönliches Chip-Exemplar muss "taktfreudig" sein. Wenn die drei Bedingungen zusammenkommen, hast Du das beste Spielerlebnis. Und wenn nicht... tja, Pech gehabt.

Es gibt dank Turbo eben keine "Karte wie sie ankommt" mehr. Jede Karte hat ein individuelles "Turbo-Potential".

kunibätt
2013-09-30, 22:39:27
Im Meridian ankam :confused:
Alter Schwede :freak:

Schaffe89
2013-09-30, 22:42:53
die karte wird so getestet, wie sie ankommt

Jede Karte wird mit Vorheizen getestet und wenn sich dann ein Takt herausstellt der im Mittel anliegt, dann kann man die Karte gleich fix auf den Takt fixieren.

Felixxz2
2013-09-30, 23:08:38
Natürlich ohne Turbo testen. Das ergibt nachvollziehbare klare Ergebnise. Auf den Turbotakt wird dann seperat eingegangen und auch ein seperates Ergebnis angegeben.

Knuddelbearli
2013-09-30, 23:12:34
was heißt "unter besonderen umständen"?`
es ist ne stichprobe und ein einzelfall.
der basistakt war bei den letzten generationen durch die bank weg wesentlich niedriger, als das was bei den kunden im mittel und auch im meridian ankam.



ist falsch

http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-im-test/11/

teilweise wird garantierter Boost nicht annähernd eingehalten, bei 8 Spielen liegt sogar nur Basistakt an ... HT4U testet teilweise also sogar NV freundlich was sagste jetzt? ^^

Und teilweise dürfte da eher noch weniger Takt anliegen als mehr, wenn man einen Benchmarkstelle mit vielen Explosionen usw hat werden die Explosionen kaum über 15Minuten gehen

gnahr
2013-09-30, 23:13:06
Jede Karte hat ein individuelles "Turbo-Potential".dieses potenzial gabs schon immer, nur wird es anteilig nun eben schon ab werk angezapft. da geh ich mit und es ist ohne frage ne unsicherheit.
trotzdem ist dieser vertrauensbereich nicht so gewaltig, als dass ne karte auf einmal 30% schneller wäre. "aber sie könnten auch ne gute erwischt haben" ist (abseits vom cherrypicking) kein argument, weil man auch ne schlechte erwischen kann (zum beispiel werden tests bezüglich neuer revisionen ja selten komplett überarbeitet...) bzw. es auch früher zu aussetzern nach oben und unten kam. es wird ja gern betrug unterstellt, aber genauso kamen auch schon unzählige defekte karten oder nicht rund laufende lüfter bei testern an. ein unding wenn man dran glaubt, dass die hersteller jedes fitzelchen optimieren für tests. :rolleyes:

Jede Karte wird mit Vorheizen getestet und wenn sich dann ein Takt herausstellt der im Mittel anliegt, dann kann man die Karte gleich fix auf den Takt fixieren.
gegen vorheizen zur zeitersparniss hat niemand was. grobe taktmanipulationen weg von der realität aber schon. wenn ich meine dynamisch taktende karte der gtx600er-serie betrachte schwankt der takt auch, aber auf dem minimaltakt (oder gar gethrottelt...) ist sie nie bis selten, weshalb ich mir keine tests in dem zustand angucken brauch. zumindest nicht um direkte schlüße zu ziehen.

das ist wieder die disskusion wie die frage ob man average angibt oder lieber min-frames und wie man selbige definiert. der größte abstand zwischen 2 frames oder der niedrigste wert über ne ganze sekunde oder noch was anderes. dagegen kann man frame-verläufe oder nochbesser fcat-messungen fordern. sowas ähnliches ist als königslösung ja auch für die typischen taktraten möglich, nur will natürlich jeder schmierfink (um echte "schreiber" mal in schutz zu nehmen) es lieber auf 1 zahl runterbrechen um dann ganz grobschlächtig damit zu argumentieren.

bleiben wir beim wahlspruch des guten testers:
"Wer Mist misst, misst meißt Mist."


failix: ja, nachvollziehbare ergebnisse zum gesäß abwischen.
knuddel: bohr dir n loch ins knie. das interessiert niemanden. :)
der einzelfall vom einzelfall... ich such gleich zur nostalgie nen artikel raus als amd-karten noch mobos ausgenuckelt haben über den slot und eifnach mal die spannungsversorgung durchknallen lassen haben. einzelfall, ick hör dir trapsen.

Knuddelbearli
2013-09-30, 23:18:42
10 von 18 Einzerfälle ( wo der garantierte Boost nicht gehalten wird ) ja klar

:facepalm:


bei der 770 dann 13 von 18 Einzelfällen*
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-770-im-test/12/

:freak:

ganz schlimm wird es dann bei der 760
http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-760-im-test/12/


*wenn zugegeben teilweise nur sehr knapp aber NV gibt nunmal den takt an also sollte der auch gehalten werden!

gnahr
2013-09-30, 23:29:22
na was soll das? du hast bei anderen themen ahnung und hier so ein totalausfall?
zumal immer in die gleiche kerbe. da kann man nur "böse" oder was anderes mit "b" erahnen...

Der Grundtakt einer NVIDIA GeForce-GTX-680-Grafikkarte nennt der Hersteller mit 1006 MHz und dies ist grundsätzlich, der einzig garantierte Takt. Gleichzeitig nennt der Hersteller bei allen Modellen einen sogenannten Boost-Takt von 1058 MHz, welcher gerne als garantierter Boost-Takt verstanden wird – dies ist aber definitiv falsch. Der Boost-Takt kann grundsätzlich von Karte zu Karte unterschiedlich sein und bei dem einen Modell z.B. ein Maximum von 1110 MHz, bei einem anderen Modell aber vielleicht nur 1084 MHz erreichen. Im Mittel über die Non-TDP-Applikationen soll jedoch der Boost-Takt 1058 MHz betragen.


aber hier gehts um radeons und ach die will ich mit boost getestet sehen. mit boost und oc, wenns der tester drauf hat!

Spike2
2013-10-01, 01:18:31
Sorry, wenn das schon ausgiebig diskutiert wurde, aber 197 Seiten sind mir auch etwas zu viel zum Durchstöbern, daher nur folgende kurze Fragen:

- Warum bringt AMD ein neues Namensschema?
- Warum wurden sowohl die HD8000er- & HD9000er-, als auch die RX-100er-Serien "ausgelassen"?


Ich danke schon einmal für eine Antwort,


Spike2

N0Thing
2013-10-01, 01:42:44
- Warum bringt AMD ein neues Namensschema?
- Warum wurden sowohl die HD8000er- & HD9000er-, als auch die RX-100er-Serien "ausgelassen"?


Ich danke schon einmal für eine Antwort,


Spike2


Die 8000er wurden im OEM-Bereich verwendet. Warum die HD9000 und die RX-100 keine Verwendung finden, ist nicht bekannt. Vielleicht hebt man sich diese Bezeichnungen auch nochmal für eine erneute Vermarktung im OEM-Bereich auf.

Der Wechsel zum Schema RX-xxx kommt daher, daß AMD nicht mit fünfstelligen Kennzahlen arbeiten will.

Spike2
2013-10-01, 02:36:50
^^^Vielen Dank, das beantwortet meine Frage!

dlux
2013-10-01, 04:52:43
Die HD9000er wird man nur in zukünftiger APUs auf Basis von Sea Islands (GCN 1.1) finden.

Gaestle
2013-10-01, 08:24:16
bleiben wir beim wahlspruch des guten testers:
"Wer Mist misst, misst meißt Mist."

Genau darum geht's :rolleyes:

Ich vermute aber, dass wir OT sind. Deswegen hier EOD für mich.

AnarchX
2013-10-01, 08:39:54
TPU wurden ein paar Benchmarks eine R9-290X mit 800/1125MHz zugespielt:
http://www.techpowerup.com/191768/radeon-r9-290x-clock-speeds-surface-benchmarked.html

(del676)
2013-10-01, 08:44:45
Was fuer Bullshitbenchmarks. Sorry.
Mehr "min fps" als "average fps"?
Da hat sich wohl jemand beim faelschen im Excel vertan. :P

M4xw0lf
2013-10-01, 08:49:43
TPU wurden ein paar Benchmarks eine R9-290X mit 800/1125MHz zugespielt:
http://www.techpowerup.com/191768/radeon-r9-290x-clock-speeds-surface-benchmarked.html
800 MHz? Wenn das stimmt, dann ist die 290X pro Takt im Durchschnitt wohl doch eine Ecke schneller als die Titan, bei den Ergebnissen hier.
Was fuer Bullshitbenchmarks. Sorry.
Mehr "min fps" als "average fps"?
Da hat sich wohl jemand beim faelschen im Excel vertan. :P
Das ist einmal FXAA und einmal MSAA, gell.
Ach da beim Tighten, jetz hab ichs auch bemerkt ;)

Eggcake
2013-10-01, 08:52:05
Naja - ich traue der Sache zwar auch nicht ganz, aber an vertauschten Werten kann man eine Fälschung ja auch nicht enttarnen. Die Daten müssen ja irgendwie ausgewertet werden - da können Fehler passieren, egal ob Fälschung oder nicht.

Hugo78
2013-10-01, 09:12:53
Die 290X kommt ohne Turbo?
D.h. Die Karte rennt schon am 300W TDP Maximum?

M4xw0lf
2013-10-01, 09:13:36
Die 290X kommt ohne Turbo?
D.h. Die Karte rennt schon am 300W TDP Maximum?
Völliger Schwachsinn. Mit 800 MHz wird sie näher an 200W sein, vermutlich von UNTEN.

Möglicherweise sehen wir hier das Standard-BIOS mit sehr konservativen Taktraten.

robbitop
2013-10-01, 10:16:28
TDP, Temperatur...gehupft wie gesprungen. Im Auslieferungszustand wird Titan auf jeden Fall benachteiligt sein, wenn man nicht an den Reglern spielt. Das wird man tun müssen, wenn man auf einer Ebene vergleichen will. Macht ja irgendwie keinen Sinn z.B. eine GPU bei 80°C/210W und eine andere bei 95°C/260W zu vergleichen (die Zahlen sagen nix aus, sind nur Beispielwerte).
Warum nicht? So wie der Hersteller sein Produkt einstellt, wird es verglichen. Niemand behauptet, dass anhand Leistungsaufnahme oder Temperatur normiert wird.
AMD und NV werden sich jeweils etwas dabei gedacht haben.

Eventuell bringt NV aber eine Ultra und dann haben sie ja selbst die Möglichkeit alles so einzustellen, wie es nötig ist.

boxleitnerb
2013-10-01, 10:23:35
Warum nicht? So wie der Hersteller sein Produkt einstellt, wird es verglichen. Niemand behauptet, dass anhand Leistungsaufnahme oder Temperatur normiert wird.
AMD und NV werden sich jeweils etwas dabei gedacht haben.

Eventuell bringt NV aber eine Ultra und dann haben sie ja selbst die Möglichkeit alles so einzustellen, wie es nötig ist.

Klar wird es so verglichen, aber ich finde seit der Boostgeschichte sollte man zusätzlich noch andere Arbeitspunkte ausloten. Denn es ist ja nicht so wie früher, dass man hier unter Verlust der Garantie rumschrauben musste. Die Möglichkeiten sind explizit für den Anwender gedacht und von der Garantie abgedeckt.
In einem Review will ich doch soviele Informationen wie möglich, und da will ich sehen, was mit dem Turbo geht - in beide Richtungen bei allen Karten. Bei Titan hat man nach oben hin geschraubt in den Reviews, dann muss genauso erlaubt sein, bei Hawaii nach unten hin zu schrauben. Zusätzlich eben.

Blediator16
2013-10-01, 11:23:56
Klar wird es so verglichen, aber ich finde seit der Boostgeschichte sollte man zusätzlich noch andere Arbeitspunkte ausloten. Denn es ist ja nicht so wie früher, dass man hier unter Verlust der Garantie rumschrauben musste. Die Möglichkeiten sind explizit für den Anwender gedacht und von der Garantie abgedeckt.
In einem Review will ich doch soviele Informationen wie möglich, und da will ich sehen, was mit dem Turbo geht - in beide Richtungen bei allen Karten. Bei Titan hat man nach oben hin geschraubt in den Reviews, dann muss genauso erlaubt sein, bei Hawaii nach unten hin zu schrauben. Zusätzlich eben.

Wenn NV entschieden hat einen Temp. abhändigen Boost einzubauen, dann hat man damit zu leben. Es wurde doch auch nie was gesagt wenn die 680 sich automatisch hochgetaktet hat gegen die 7970 und dadurch etwas schneller wurde.

boxleitnerb
2013-10-01, 11:44:42
Wenn NV entschieden hat einen Temp. abhändigen Boost einzubauen, dann hat man damit zu leben. Es wurde doch auch nie was gesagt wenn die 680 sich automatisch hochgetaktet hat gegen die 7970 und dadurch etwas schneller wurde.

Erstens ist das bei AMD nun auch so. Und zweitens geht es nicht um den Turbo selbst, sondern um die gesteckten und beeinflussbaren Grenzen, die im Rahmen diverser Reviews separat untersucht wurden. Warum soll das für Karte A erlaubt sein und für Karte B nicht?

Knuddelbearli
2013-10-01, 11:50:47
und wenn OC erlaubt ist soll man auch noch immer OCen für einen fairen Vergleich?

Finde ich Schwachsinnig ... kann man gerne als Special machen aber im Launchtest hat sowas nichts zu suchen

boxleitnerb
2013-10-01, 11:59:49
Turbo ist kein OC, das wurde auch schon erschöpfend erklärt, warum.

Schaffe89
2013-10-01, 12:08:26
Man sollte alle Karten mit Vorheizen testen und gut, ich weiß nicht wo hier das Problem ist.
Wie hoch der Boost geht, wenn ich Schnee in den PC Schütte kann man doch auch bei den Sondertests dann aufführen.

Die Boostgeschichte nervt und macht das Vergleichen Schwieriger, ich hätte mir gewünscht AMD führt den Käse nicht ein.

Bei Titan hat man nach oben hin geschraubt in den Reviews, dann muss genauso erlaubt sein, bei Hawaii nach unten hin zu schrauben. Zusätzlich eben.

Ich verstehe den Satz i-wie nicht?
Warum sollte man an der Standardkonfig irgendetwas schrauben?

mironicus
2013-10-01, 12:08:58
Wenn man sich die niedrigen Taktraten anschaut, dann scheint die Hawai ja praktisch AMDs hauseigene "Titan" zu werden. :)

AnarchX
2013-10-01, 12:08:59
Asus R9 270X 2048 MB BIOS @ TPU (http://www.techpowerup.com/vgabios/146116/asus-r9270x-2048-130904.html)

Device-ID 6810:
6800 Wimbledon XT [Radeon HD 7970M]
6801 Neptune [Radeon HD 8970M]
6802 Wimbledon
6806 Neptune
6808 Pitcairn XT GL [FirePro W7000]
6809 Pitcairn LE GL [FirePro W5000]
6810 Curacao XT [Radeon R9 270X]
6811 Curacao PRO [Radeon R9 270]
6816 Pitcairn
6817 Pitcairn
6818 Pitcairn XT [Radeon HD 7870 GHz Edition]
6819 Pitcairn PRO [Radeon HD 7850]
http://pci-ids.ucw.cz/read/PC/1002

Der Speichertakt ist für einen Pitcairn ungewöhnlich hoch. die 1,12GHz Boost sind vielleicht an eine Zieltemperatur gekoppelt.

maximus_hertus
2013-10-01, 12:10:23
Wenn man bei einer Titan mit dem Regler alles ausreizt (bei den Testern), erhält man dann die gleiche fps wie @ home im geschlossenen Tower (ggf. nicht perfekt belüftet)?

Mir ist es wurscht, wie nV bzw. AMD etwas machen, aber ich will die exakten Launchbenchmarkwerte @ home haben und keine Annäherung.

Im Prinzip ganz einfach: Karte einbauen, Treiber drauf und ab dafür. Alles andere ist schlecht, da ich keine Lust habe jedem Kunden zu erklären, was ein Temp/TDP-Target ist und das es kein OC ist. Das nervt jetzt schon (bei den GTX 600/700) und kostet unglaublich Zeit und Geld.

Knuddelbearli
2013-10-01, 12:12:40
Turbo ist kein OC, das wurde auch schon erschöpfend erklärt, warum.

du reitest darauf herum das es innerhalb der Garantie ist, außerdem kann man zumindest bei AMD mit 1 Knopf automatisch OCen ( sucht dann selber stabile Taktraten )

Wenn es innerhalb der Garantie wäre sehe ich da keinen Unterschied mehr zum Limits hoch setzen ( ist da es 2 Limits sind bei NV sogar 1 Klick mehr )

Schaffe89
2013-10-01, 12:16:07
Warum gibt es hierzu überhaupt etwas zu diskutieren? Jetzt haben beide Hersteller den Boost, wahrscheinlich temperaturabhängig, ergo gründlich vorheizen, oder seh ich das jetzt falsch?

Knuddelbearli
2013-10-01, 12:25:38
die meisten Seiten testen mit Workbenches da bringt vorheizen so ode so nix, dazu reichen auch schon 10 sek ladescreen damit die Karte Schwung holen kann wenn die Benchmarkszene nur 20 sek lang ist.

Auch wenn ich CB nicht mag finde ich ihre art zu testen am besten, zuerst 15 min lang gucken wo sich der Takt ein pendelt und dann mit dem Takt benchen

Schaffe89
2013-10-01, 12:34:55
Jup, das ist wohl klar die beste Lösung.

boxleitnerb
2013-10-01, 12:39:41
Ich verstehe den Satz i-wie nicht?
Warum sollte man an der Standardkonfig irgendetwas schrauben?

Schau die Reviews an. CB, PCGH, Hardware.fr, HT4U. Die Möglichkeit ist da, also soll es auch weiterhin untersucht werden (wie es bei Boost 1.0/2.0 bereits gemacht wurde). Zumal das auch eine interessante Möglichkeit ist, die Karten schneller/leiser&sparsamer zu bekommen. Ich weiß nicht wie oft ich noch sagen soll, dass man sich endlich mal von einem fixen Takt verabschieden soll. Es gibt jetzt Taktbereiche, und der Hersteller wählt halt irgendeinen Arbeitspunkt darin. Heißt aber nicht, dass man das nicht nach dem eigenen Bedürfnissen anpassen kann.
Bei Software jammert doch auch keiner rum, wenn Tester im Optionsmenü was umstellen oder gar noch über den Treiber irgendwas forcieren...

du reitest darauf herum das es innerhalb der Garantie ist, außerdem kann man zumindest bei AMD mit 1 Knopf automatisch OCen ( sucht dann selber stabile Taktraten )

Wenn es innerhalb der Garantie wäre sehe ich da keinen Unterschied mehr zum Limits hoch setzen ( ist da es 2 Limits sind bei NV sogar 1 Klick mehr )

Erstens Garantie und zweitens sind auch die erreichbaren Taktraten stabil, schließlich werden die durch Binning festgelegt und getestet. Ich weiß gar nicht, was es da zu diskutieren gibt. Klar kann man hergehen und stur die voreingestellten Grenzen hernehmen um Karte A besser dastehen zu lassen wie Karte B, falls einen das mit Befriedigung erfüllt. Man kann aber auch seinen Horizont erweitern und die gegebenen Möglichkeiten nutzen. Es geht hier gar nicht so sehr um irgendwelche Benchmarks und wer gewinnt und wer verliert - das interessiert nur Fanboys. Es geht viel eher darum, möglichst vollständige Informationen zu vermitteln. Wo ist der Effizienz-Sweetspot? Bei welchem Arbeitspunkt ist die Karte besonders laut/leise? Wieviel kann ich rausholen, wenn mir die Lautstärke egal ist? Usw. Natürlich sind das alles zusätzliche Untersuchungen, bloß sollte man heutzutage mit den Boosts die Standardeinstellung nicht überbewerten.

gnahr
2013-10-01, 12:40:35
ist es nicht, weil auch realworld nicht der richtige takt anliegt, sondern die karte in nicht-synthetischen anwendungen immer wieder schwung holen kann.

synthetisch -> homogen -> 1 takt.
real -> inhomogen -> der turbo punktet.

wenn die szenen nicht lang genug sind... pech gehabt. dann taugt der test nix, aber auch in der spiele-anwendung loopt der wort-case nicht 30minuten lang um das gehäuse aufzuheizen.

die karte muss durchlaufen, wie sie vom hersteller freigegeben ist. fixed clocks sind anachronismen.

Hugo78
2013-10-01, 12:58:53
Völliger Schwachsinn. Mit 800 MHz wird sie näher an 200W sein, vermutlich von UNTEN.

Möglicherweise sehen wir hier das Standard-BIOS mit sehr konservativen Taktraten.

Wenn man Luft nach Oben hätte, hätte man einen Turbo.

M4xw0lf
2013-10-01, 13:05:09
Wenn man Luft nach Oben hätte, hätte man einen Turbo.
Wenn man nicht eine Vorserienkarte hätte, dann hätte sie wohl auch einen Turbo. Wenn an dem Test überhaupt was dran ist, Leo wirft da einige berechtigte Fragen auf auf der Main. http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-30-september-2013

Ailuros
2013-10-01, 13:05:15
Wenn man Luft nach Oben hätte, hätte man einen Turbo.

Oder das Ding ist tatsaechlich unter HPM hergestellt und ist am besten bei relativ niedrigen Frequenzen besser aufgehoben, damit man auch alle Vorteile der Prozess-Variante behalten kann.

Wie man von A auf Z kommt ist mir persoenlich ziemlich wurscht und wenn auf einer GPU der turbo-Mist entfaellt ist es mir sogar lieber.

dlux
2013-10-01, 13:11:01
Wenn man Luft nach Oben hätte, hätte man einen Turbo.
Um auf die versprochenen ~5 TF zu kommen müsste die Karte mit etwa 900 MHz takten.

Bissl Luft nach oben ist schon noch da.

dargo
2013-10-01, 13:11:52
TPU wurden ein paar Benchmarks eine R9-290X mit 800/1125MHz zugespielt:
http://www.techpowerup.com/191768/radeon-r9-290x-clock-speeds-surface-benchmarked.html
Lustig... bei Tomb Raider gibts gar kein MSAA. Die meinen wohl 4xSSAA. :tongue:

Skysnake
2013-10-01, 13:26:55
Um auf die versprochenen ~5 TF zu kommen müsste die Karte mit etwa 900 MHz takten.

Bissl Luft nach oben ist schon noch da.
Fragt sich halt, wie gut der Chip mehr Takt mitmacht.

IB-E geht ja bis 4,3-4,4 GHz gut, bei 4,5 GHz gibts aber wohl ne ziemlich Wand, gegen die man fährt.

Ich würde also selbst bei besserer Effizienz bei niedrigen Taktraten nicht zwingend erwarten, dass das auch bei höheren (OC) Taktraten weiterhin so ist.

Hugo78
2013-10-01, 13:35:59
Wenn an dem Test überhaupt was dran ist, Leo wirft da einige berechtigte Fragen auf auf der Main. http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-30-september-2013

Damit wird er auch richtig liegen.

Knuddelbearli
2013-10-01, 14:08:02
Man kann aber auch seinen Horizont erweitern und die gegebenen Möglichkeiten nutzen. Es geht hier gar nicht so sehr um irgendwelche Benchmarks und wer gewinnt und wer verliert - das interessiert nur Fanboys. Es geht viel eher darum, möglichst vollständige Informationen zu vermitteln. Wo ist der Effizienz-Sweetspot? Bei welchem Arbeitspunkt ist die Karte besonders laut/leise? Wieviel kann ich rausholen, wenn mir die Lautstärke egal ist? Usw. Natürlich sind das alles zusätzliche Untersuchungen, bloß sollte man heutzutage mit den Boosts die Standardeinstellung nicht überbewerten.

Ja und genau dafür gibt es Specials, ebenso wie Specials zu alternativen ( Selbstbau ) Kühler, OC, OC Modelle usw. In einem Launchtest hat das aber eben nichts zu suchen

dlux
2013-10-01, 14:15:51
@Skysnake
Das steht allerdings nicht direkt im Zusammenhang mit der Diskussion (angeblicher Leak @ TPU). Lese die News von Leonidas und letzten Posts durch.

Skysnake
2013-10-01, 14:18:10
Es ging rein um "Luft nach oben". Das kann man nicht zwingend aus dem für 28nm HP vergleichsweise niedrigen Takt nicht ablesen.

Keiner von uns weiß, wie 28nm HPM skaliert mit dem Takt in diesen Regionen.

dlux
2013-10-01, 14:34:35
Die Luft zwischen 800 MHz und 900 MHz war gemeint, nicht "die Luft nach oben" über 900 MHz. AMD meinte doch, dass die Rohleistung der Karte bei etwa 5 TF liegt und die Karte muss mit etwa 900 MHz takten um auf diese ~5 TF zu kommen.

Das ist die Logik dahinter. Lese doch einfach die News von Leonidas durch.

Skysnake
2013-10-01, 14:41:29
Es ging aber auch um den ganzen Turbo-FU und wie man denn nun benchen sollte bla bla bla bla.

dlux
2013-10-01, 14:48:21
Ja, das auch.

Gipsel
2013-10-01, 14:50:30
Die Luft zwischen 800 MHz und 900 MHz war gemeint, nicht "die Luft nach oben" über 900 MHz. AMD meinte doch, dass die Rohleistung der Karte bei etwa 5 TF liegt und die Karte muss mit etwa 900 MHz takten um auf diese ~5 TF zu kommen.
AMD sagte mehr als 5 TFlop/s und auch mehr als 4 Milliarden Dreiecke pro Sekunde. Wenn die also kein 5fach- oder gar 6fach-Frontend verbaut haben sondern nur das erwartete 4fache Setup/Raster, dann muß mindestens der Turbotakt über 1 GHz liegen.
2560 ALUs @ 1GHz wären 5,12 GFlop/s
2816 ALUs @ 1GHz wären 5,63 GFlop/s

Vielleicht sehen wir ja auch etwas wie damals bei den HD4800ern. Da wurde vom RV770 >1 TFlop/s gesagt und dann hatte die HD4850 schon 1 TFlop/s und die HD4870 1,2 TFlop/s. =)

Knuddelbearli
2013-10-01, 15:22:46
bitte bitte 2880 *hoff*

Nakai
2013-10-01, 15:25:29
bitte bitte 2880 *hoff*

Bei einem 3fach Frontend? Es steht da, dass es mehr als 4 Triangles/Clock sein werden. 1GHz Max. Turbo bei 4fach Frontend sehe ich als das Mindeste an. Ich hoffe, da wurde das Frontend noch etwas aufgeblasen, wie bei Barts damals, weil es sollten ja mehr als 4 sein.
Oder wir sehen gleich noch mehr...

Knuddelbearli
2013-10-01, 15:28:05
wieso 3 fach?

4 fach ist das mindeste,

hoffe aber auf 5 fach damit sich 900mhz bei 2880 Shader ausgehen, dazu max takt unter wakü weiterhin 1,3 GHz = 44% OC *hoff*

Pick
2013-10-01, 15:37:23
http://www.3dmark.com/3dm/1255142

Akkarin
2013-10-01, 15:47:00
http://www.3dmark.com/3dm/1255142


GHz + 35% ?

Nakai
2013-10-01, 15:47:49
wieso 3 fach?

4 fach ist das mindeste,

hoffe aber auf 5 fach damit sich 900mhz bei 2880 Shader ausgehen, dazu max takt unter wakü weiterhin 1,3 GHz = 44% OC *hoff*

5fach würde gehen ja, was 9 CUs pro Frontend machen würde. Mhh...

X.Perry_Mental
2013-10-01, 15:49:23
http://www.3dmark.com/3dm/1255142
3GB Speicher?

maximus_hertus
2013-10-01, 15:51:04
Vielleicht die 290 ohne X @ 3Gib?

Akkarin
2013-10-01, 15:51:36
Habs auch grad Gesehn. 3.072 MB bedeutet entweder fake oder abgespecktes Modell. Das würde aber bei nur 1250 MHz in der Bandbreite hängen und bestimmt nicht so schnell sein.

Screemer
2013-10-01, 15:56:19
92xx punkte in firestrike für die ohne-x wär doch mal ne ansage.

Pick
2013-10-01, 15:58:45
TiTAN 3GB auch...
http://www.3dmark.com/fs/590592

Version 1.1 3dmark zeigt nur einen Speicherfehler VRAM.

maximus_hertus
2013-10-01, 16:03:22
Es sind ja nur noch 328 Stunden bis zum Launch...

Ich gehe mal davon aus, dass die Leaks in der nächsten Woche zunehmen werden ;)

Knuddelbearli
2013-10-01, 16:10:02
hoffentlich aber auch solche leaks wo man sich zu 99% sicher sein kann das sie echt sind ...

Akkarin
2013-10-01, 17:21:13
Der Artikel wurde verändert, er schreibt jetzt was über 1050 MHz.

Hugo78
2013-10-01, 17:33:42
Mit 1050Mhz sieht die Sache ganz anders aus.

boxleitnerb
2013-10-01, 17:45:15
Das nächste Update handelt angeblich von einem Boost Switch und neuen Benchmarks.
Hätte mich gewundert, wenn es nur ein normales Dual Bios gewesen wäre, denn das hätte meinen Infos widersprochen.

TPU dazu:
Corrected the GPU clock to 1050 MHz. The ES card the benches were run on has two BIOSes, one with 800/1125 and the other with 1050/1125. The benches were run at 1050/1125

Vom Takt her also ein hoher "Grundtakt" und dann throttlen, so wie TPU das formuliert. Hm...passt, denn auf Nachfrage wurde mir die Existenz eines Basistaktes (im Sinne von niedriger garantierter Takt) verneint.

Knuddelbearli
2013-10-01, 18:14:02
sind es nun 2560 oder 2880? für 2880 wäre das Ergebnis echt mau ...

Raff
2013-10-01, 18:18:11
Battlefield 4 Beta-Test: 16 Grafikkarten mit Geforce 331.40 Beta und Catalyst 13.10 Beta V2 im Benchmark (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/)

Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)

MfG,
Raff

boxleitnerb
2013-10-01, 18:20:20
Lol, die Benchmarkergebnisse sind exakt gleich bei beiden News bei TPU. Die wissen irgendwie selbst nicht, was sie benchen. Erst heißt es 800 MHz, dann 1050 MHz, dann in der neuen News wieder 800 MHz.

Superheld
2013-10-01, 18:30:27
Graphs corrected for 1050/4500 MHz.

:cool:

Knuddelbearli
2013-10-01, 18:34:49
Battlefield 4 Beta-Test: 16 Grafikkarten mit Geforce 331.40 Beta und Catalyst 13.10 Beta V2 im Benchmark (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/)

Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)

MfG,
Raff


auf einmal min fps nicht mehr wichtig ? ;-)

Akkarin
2013-10-01, 18:36:25
Battlefield 4 Beta-Test: 16 Grafikkarten mit Geforce 331.40 Beta und Catalyst 13.10 Beta V2 im Benchmark (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/)

Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)

MfG,
Raff

Ich steh grad auf dem schlauch, Es hieß doch explizit 290X gegen Titan. Die benches sehen nicht soo gut für AMD aus, aber auch nicht wirklich schlechte, v.a. die 7950 boost. Unter 1600p dann ein deutlicher Vorteil. Ka was du sagen willst.

StefanV
2013-10-01, 18:38:04
Battlefield 4 Beta-Test: 16 Grafikkarten mit Geforce 331.40 Beta und Catalyst 13.10 Beta V2 im Benchmark (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/)

Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)

MfG,
Raff
Ähh, hast du die gleichen Benches vor der Nase wie ich??

Also für mich schauts so aus, dass die AMD Karten 'ne etwas niedrigere avg. FPS haben, dafür bei der minfps aber die nV Karten vernichten...

Siehe mal 7970GHz Edition: Die hat 56fps minimum. Das nächste nV Kärtel, was da in die Nähe kommt, is 'ne 780GTX...

boxleitnerb
2013-10-01, 18:43:15
Ähh, hast du die gleichen Benches vor der Nase wie ich??

Also für mich schauts so aus, dass die AMD Karten 'ne etwas niedrigere avg. FPS haben, dafür bei der minfps aber die nV Karten vernichten...

Siehe mal 7970GHz Edition: Die hat 56fps minimum. Das nächste nV Kärtel, was da in die Nähe kommt, is 'ne 780GTX...

10% (ggü. GTX 770) ist also "vernichten"? Kannst du zur Abwechslung auch mal nicht übertreiben? Zudem weiß man nicht, was sich da noch ändert, ist ja beides noch Beta (Treiber und BF4).

Raff
2013-10-01, 18:43:55
Ich hänge mich am Wort "verspotten" auf. Überholen wird einfach, da die Titan hier keine Bäume ausreißt. ;)

MfG,
Raff

Pick
2013-10-01, 18:59:16
280X CF
http://www.3dmark.com/3dm/1300408

Knuddelbearli
2013-10-01, 18:59:30
naja normal ist die 790 20% schneller wenn die 290X jetzt normal 5% schneller ist als Titan wären es bei den min fps in BF4 25%

Falls es wirklich so kommen würde ist das für mich schon vernichten vor allem aus technischer sicht mit 100mm² weniger

da es min fps sind bleibe ich aber sowieso skeptisch ohne genauen frameverlauf

und wieso nur dx 11 dachte bf4 ist sogar dx 11.2?

Botcruscher
2013-10-01, 19:32:05
Ich hänge mich am Wort "verspotten" auf. Überholen wird einfach, da die Titan hier keine Bäume ausreißt. ;)
MfG,
Raff

Ist doch eine Beta. Von der Preis/Leistung ist die 7970GHz da absolute Spitzenklasse. Trotzdem ist der Link hier falsch. Bring uns eine 290X...;)
280X CF
http://www.3dmark.com/3dm/1300408
Wäre ja über der 7970GHz CF.