Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014
deekey777
2014-08-25, 13:40:24
€:
Ist zwar kein bisschen IEEE754-konform, aber da iterieren wir mit Newtons-Algorithmus ein paar mal drüber und das Ergebnis passt wieder...;D:freak:
Vom Namen her passt es doch:
R3x0X. Die Geschichte wiederholt sich.
Moderne Grafikkarten müssen keine doppelte Genauigkeit beherrschen. Dann die Hersteller anderen Märkten offen sein müssen, beherrschen Grafikkarten seit dem RV670 doppelte Genauigkeit (mal mehr, mal weniger).
Unicous
2014-08-25, 13:52:25
Was soll eigentlich der Quatsch mit dem John Gustafson Zitat, boxleitnerb?
Das war vor etwas mehr als einem Jahr und zu dem Zeitpunkt, war Tonga schon längst vom Reißbrett verschwunden. Und Gustafson zwei Monate später.
Immer diese versteckte Polemik.:rolleyes:
boxleitnerb
2014-08-25, 14:10:18
Was soll eigentlich der Quatsch mit dem John Gustafson Zitat, boxleitnerb?
Das war vor etwas mehr als einem Jahr und zu dem Zeitpunkt, war Tonga schon längst vom Reißbrett verschwunden. Und Gustafson zwei Monate später.
Immer diese versteckte Polemik.:rolleyes:
Kannst du dich mal beruhigen und vor allem mit den dummen Anschuldigungen aufhören? Geht es vielleicht in deine Birne, dass ich hier ewig nicht mehr regelmäßig poste und mich das Thema einfach interessiert von der technischen Seite her? Ja, früher war ich in den Grabenkämpfen hier involviert, die Zeit habe ich hinter mir gelassen. Du wohl nicht. Werde erwachsen bitte.
Zum Thema:
Man weiß ja gar nicht, in welchem Stadium AMD bzgl. dieser Effizienzverbesserungen zum Zeitpunkt des Interviews war. Grobe Planung oder schon mitten in der Implementierung?
Nightspider
2014-08-25, 14:16:15
Die Aussagen einiger sind aber wirklich schwachsinn. Nur weil ein Entwickler letztes Jahr gesagt hat man habe einen Weg gefunden die Effizienz zu verdoppeln heißt das nicht das auch alle kommenden GPUs sofort diese Enwicklung inne haben. AMD kann auch nicht zaubern.
Sowas könnte 2-3 Jahre brauchen bis es in einem finalen Produkt auftaucht.
Immer diese Träumer hier. :rolleyes:
Unicous
2014-08-25, 14:20:21
@boxleitnerb
Du hast dir natürlich den perfekten Zeitpunkt ausgesucht, um diese "Frage" zu stellen.:rolleyes: Und in diesem Thread. (Hättest du einen eigenen Thread aufgemacht, wäre das eine andere Sache gewesen)
Und diese Frage kann dir natürlich auch niemand beantworten, denn ob es eine Simulation war, ein konkreter Hinweis auf eine neue Technologie, HBM oder Sonstiges (wobei HBM natürlich allein nicht die Effizienz verdoppeln kann) ist mehr als unklar.
Man könnte es auch als hypothetischen Ansatz sehen. Wir haben Mittel und Möglichkeiten die Effizienz zu verdoppeln. Ob das am Ende auch eintritt ist eine ganz andere Frage. Und ich bin mir relativ sicher dass er nicht von der Spieleperformance ausgegangen ist sondern einer anderen Metrik wie z.B. FLOPs, mit seinem HPC Background.
boxleitnerb
2014-08-25, 14:21:20
Deshalb frage ich ja. Was soll jetzt der Seitenhieb mit Träumer? Wo liest du heraus, dass ich diese Aussagen ernst nehme? Wieder einer, der nicht ohne Polemik diskutieren kann.
Was mich vor allem stutzig gemacht hat und was sich meinem Verständnis entzieht ist die Erwähnung von mehreren zukünftigen Generationen. Es sollte ja eigentlich klar sein, dass man nur begrenzt in die Zukunft schauen kann, auch als IHV.
@boxleitnerb
Du hast dir natürlich den perfekten Zeitpunkt ausgesucht, um diese "Frage" zu stellen.:rolleyes: Und in diesem Thread. (Hättest du einen eigenen Thread aufgemacht, wäre das eine andere Sache gewesen)
Und diese Frage kann dir natürlich auch niemand beantworten, denn ob es eine Simulation war, ein konkreter Hinweis auf eine neue Technologie, HBM oder Sonstiges (wobei HBM natürlich allein nicht die Effizienz verdoppeln kann) ist mehr als unklar.
Man könnte es auch als hypothetischen Ansatz sehen. Wir haben Mittel und Möglichkeiten die Effizienz zu verdoppeln. Ob das am Ende auch eintritt ist eine ganz andere Frage. Und ich bin mir relativ sicher dass er nicht von der Spieleperformance ausgegangen ist sondern einer anderen Metrik wie z.B. FLOPs, mit seinem HPC Background.
Ohne den Augenrollsmiley gehts bei dir nicht, schade. Ich muss nicht für alles einen extra Thread eröffnen, vor allem, wenn dieser Thread sehr umfänglich ist und auch auf zukünftige effizienzsteigernde Charakteristika (z.B. HBM) eingeht. Und weil das Thema Effizienz aktuell wegen Tonga eben auch diskutiert wird, habe ich eben gefragt. Da muss sich niemand persönlich angegriffen fühlen oder eine Agenda dahinter sehen. Das kannst du mir glauben oder es sein lassen. Meine Postinghistorie der letzten 9 Monate spricht jedenfalls für sich. Und jetzt können wir bitte endlich aufhören, einzelne Member zu diskutieren, denn dieser Thread heißt nicht "warum Unicous denkt, boxleitnerb habe eine Anti-AMD-Agenda" ;)
Wie kommst du darauf das ich von dir rede?
Allen voran die ersten Kommentatoren (Dural, etc) waren gemeint, die sowieso gerne mal haten.
My bad, sorry :)
Tesseract
2014-08-25, 14:24:25
Das ist falsch. Das würde nur bedeuten, dass alle Berechnungen in maximaler Genauigkeit durchgeführt werden, sonst nichts.
doch, das hätte noch einen ganzen haufen anderer implikationen. unter anderem bekommt man wesentlich weniger FLOPS pro transistor und chipfläche raus, belegt deutlich mehr cache und vram, kann pro sekunde viel weniger werte in den speicher schreiben und davon lesen und potenziell nimmt auch die taktbarkeit des designs ab weil eine DP-operation auf schaltungsebene länger braucht als eine SP-operation.
die SP-vektorisierung nicht mit zu nehmen wär einfach vollkommener schwachsinn, selbst für ein reines GPGPU-design.
Nightspider
2014-08-25, 14:26:27
Deshalb frage ich ja. Was soll jetzt der Seitenhieb mit Träumer?
Wie kommst du darauf das ich von dir rede?
Allen voran die ersten Kommentatoren (Dural, etc) waren gemeint, die sowieso gerne mal haten.
Nakai
2014-08-25, 14:27:42
Größere Latenz muss dann nicht entstehen, da der Chip ja nicht komplexer sondern im Gegenteil einfacher wird. Und eine x87-FPU ist glaube nicht nicht geeignet für einen Vergleich...
http://www.chip-architect.org/news/Opteron_FloatPnt_Core.jpg
Ah, so meinst du das.
Man hat auf CPUs sowieso eher 64Bit-Einheiten, welche dank SSE als 2Slot 32Bit-Einheiten fungieren können. Die X87-FPU ist insofern anders, da diese schonmal transzedente Funktionalitäten in Hardware hat, was SSE durch Microcode oder Software löst. Was man am Bild sieht, ist die Länge der gesamten FPU. Und ja eine Instruktion egal, ob MUL oder ADD oder 32Bit oder 64Bit, wird komplett durch die FPU laufen, ergo sind die Latenzen schonmal ähnlich(außer bei DIVS da muss iteriert werden und das dauert). Auf dem Bild sieht man schön, dass die X87-Funktionalität die FPU breiter macht und somit wohl auch länger. SSE ist nicht so breit und einfach aufgebaut, da keine transzedente Funktionalitäten vorliegen. Ja, die X87-FPU ist etwas anders aufgebaut, da diese keinerlei SIMD besitzt.
Die SSE-Einheit ist dahingehen sowieso sehr nett, da diese die Latenz super verstecken kann, indem statt zB. zwei 64Bit auch vier 32Bit-Werte berechnen kann. Der Durchsatz ist von den Bytes identisch, von den Datenwerten dementsprechend halbiert. SSE bzw. SIMD-Berechnungen sind super, weil man mit weniger mehr erreichen kann und die Effizienz steigern kann. Die X87-FPU ist eigentlich eine richtige FPU und zeigt auch schön, wie die Latenz sich steigert, wenn die Präzision sich erhöht. SSE versteckt das eben durch Vektorisierung.
€:
Vom Namen her passt es doch:
R3x0X. Die Geschichte wiederholt sich.
Moderne Grafikkarten müssen keine doppelte Genauigkeit beherrschen. Dann die Hersteller anderen Märkten offen sein müssen, beherrschen Grafikkarten seit dem RV670 doppelte Genauigkeit (mal mehr, mal weniger).
LOL. Ja, der R300 hatte nur FP24-Einheiten ja...und er konnte die Formate konvertieren. Aber ich hoffe man ist endlich weg von den sub FP32-Formaten, bis auf dem Embedded-Bereich.
€2: Die X87-FPU ist auch ziemlich hässliches Ding, wenn man 64/80bit-Präzision mit 32Bit Floats rechnet. Deswegen immer SSE verwenden, da gibt es wenigstens verschiedene Instruktionen für SP und DP...
Dural
2014-08-25, 14:49:56
@Nightspider
Dann sag uns doch bitte was an den Aussagen hier falsch ist? und wenn du schon dabei bist gleich bitte auch noch wie AMD die Effizient bei jedem Chip verdoppeln will? Danke! Übrigens in 2-3 Jahren dürfte das noch viel schwieriger werden als jetzt noch, nur so am Rande bemerkt... :wink:
Selbst NV hat schon mehrfach gesagt das eine Verdopplung nahezu Ausgeschlossen wird und von Jahr zu Jahr schwieriger wird, unteranderem weil die Verlustleistung heutiger Grafikkarten nahezu am Limit sind was der PCI-E Standard und die 2 Slot Bauhöhe anbelangt und die Fertigungs-Verfahren immer komplexer und dadurch auch länger werden. Hallo! Wir diskutieren hier schon von Stock WaKü auf Grafikkarten, da sollte bei jedem ein Lichtlein aufgehen.
Ich finde es schlimm wenn man besessen von was ist und die Tatsachen nicht wahr haben will.
fondness
2014-08-25, 15:36:17
doch, das hätte noch einen ganzen haufen anderer implikationen. unter anderem bekommt man wesentlich weniger FLOPS pro transistor und chipfläche raus, belegt deutlich mehr cache und vram, kann pro sekunde viel weniger werte in den speicher schreiben und davon lesen und potenziell nimmt auch die taktbarkeit des designs ab weil eine DP-operation auf schaltungsebene länger braucht als eine SP-operation.
die SP-vektorisierung nicht mit zu nehmen wär einfach vollkommener schwachsinn, selbst für ein reines GPGPU-design.
So ist es.
Nakai
2014-08-25, 21:22:34
Was mich wundert ist, dass hier noch keine Firestrike Werte von Tonga diskutiert werden, welche einen Schluss auf die Performance zulassen.
Firestrike
Performance: 7066
Extreme: 3513
Tonga PRO ist eher mit Tahiti XT(190W vs 250W) vergleichbar. Tonga XT sollte dann eher auf GTX780-Niveau liegen(+~20%). Mal gucken, wie Tonga von der Bandbreite abhängig ist. Tahiti sollte aber geschnupft werden. Kein Wunder, dass NV GM204-Salvage gegen Tonga schmeißen muss. Ahja Tonga sollte definitiv unter 300mm2 sein, eher ~260mm².
Hübie
2014-08-25, 21:31:50
Woher nimmst du denn deine Daten? Die 780 erreicht etwa 4200-4400 Punkte im Firestrike Extreme Benchmark. Da wird Tonga XT nicht landen ;)
Und schon gar nicht +20% auf die GTX 780.
Wie sicher ist denn nun das Tonga XT 2048 SPs und Tonga Pro 1792 SPs hat? Letzteres ist sicher.
Edit: 3500 passen eher zur GTX 770.
Knuddelbearli
2014-08-25, 21:32:15
ach die 1 Woche kann man dann auch noch warten
@ Hübi +20% sicher nicht aber nur von 3DMarks ausgehen dürfte Tonga XT 780 schon erreichen
3500*1,15 wegen mehr shader *1,1 da 10% höherer Takt = 4400 Punkte
Aber wie schon oft gesagt ich halte von synthetischen Benchmarks gar nichts erst recht seitdem es den Boost gibt
dildo4u
2014-08-25, 21:37:52
AMD hatte doch BF4 Benches wo die 285 15% schneller ist als eine GTX 760 war,die 285 scheint nur genau den Mehrtakt schneller zu sein gegenüber 280.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/3/#diagramm-battlefield-4-1920-1080
Nakai
2014-08-25, 21:42:09
Woher nimmst du denn deine Daten? Die 780 erreicht etwa 4200-4400 Punkte im Firestrike Extreme Benchmark. Da wird Tonga XT nicht landen ;)
Und schon gar nicht +20% auf die GTX 780.
Wie sicher ist denn nun das Tonga XT 2048 SPs und Tonga Pro 1792 SPs hat? Letzteres ist sicher.
Edit: 3500 passen eher zur GTX 770.
http://www.techpowerup.com/204467/radeon-r9-285-3dmark-firestrike-performance-revealed.html
Knuddelbearli
2014-08-25, 21:45:01
AMD hatte doch BF4 Benches wo die 285 15% schneller ist als eine GTX 760 war,die 285 scheint nur genau den Mehrtakt schneller zu sein gegenüber 280.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/3/#diagramm-battlefield-4-1920-1080
ja war ja nur vom Firestrike die rede, das die oft nichts mit der Perormance unter Spielen zu tun hat ist ja wirklich nichts neues
M4xw0lf
2014-08-25, 21:47:53
AMD hatte doch BF4 Benches wo die 285 15% schneller ist als eine GTX 760 war,die 285 scheint nur genau den Mehrtakt schneller zu sein gegenüber 280.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/3/#diagramm-battlefield-4-1920-1080
Die 280 hat mehr Takt als die 285; 933 vs 918 MHz.
Firestrike ist jedenfalls nicht gerade bandbreitenlimitiert, oder? In echten Anwendungen (Spielen), bzw Auflösungen >FHD könnte das dann auch zum Flaschenhals werden.
fondness
2014-08-25, 21:52:31
Was mich wundert ist, dass hier noch keine Firestrike Werte von Tonga diskutiert werden, welche einen Schluss auf die Performance zulassen.
Firestrike
Performance: 7066
Extreme: 3513
Tonga PRO ist eher mit Tahiti XT(190W vs 250W) vergleichbar. Tonga XT sollte dann eher auf GTX780-Niveau liegen(+~20%). Mal gucken, wie Tonga von der Bandbreite abhängig ist. Tahiti sollte aber geschnupft werden. Kein Wunder, dass NV GM204-Salvage gegen Tonga schmeißen muss. Ahja Tonga sollte definitiv unter 300mm2 sein, eher ~260mm².
Das habe ich ja schon mal angesprochen. Mit dem 4-fach Frontend ist die Leistung pro SP sehr gut mit Kepler vergleichbar (siehe Hawaii vs. GK110). 2048SPs bei >1Ghz sollten deshalb durchaus in die Nähe der 780 kommen wenn die Bandbreite nicht zu knapp wird. Allerdings denke ich das mit MSAA die Bandbreite ein Problem wird, speziell wenn man wieder nur niedrig getakteten Speicher einsetzt.
dildo4u
2014-08-25, 22:41:58
Die 280 hat mehr Takt als die 285; 933 vs 918 MHz.
Also hat die 285 kein Boost ich dachte 918 wäre Base.
Schaffe89
2014-08-25, 22:48:22
Der Boost Quatsch ist sowieso Mist und ich hoffe das AMD das wieder ad Acta legt.
Wenn eine Karte bei hoher Belastung den Takt nicht hält aber bei niedriger hochtaktet ergibt das genau gar keinen Sinn.
fondness
2014-08-25, 22:52:19
Also hat die 285 kein Boost ich dachte 918 wäre Base.
918 ist Boost.
AffenJack
2014-08-25, 22:56:06
Also hat die 285 kein Boost ich dachte 918 wäre Base.
Wie kommst du drauf, dass sie kein Boost hat? 918Mhz ist der maximaltakt. AMD gibt nur noch den Maximaltakt an bei den neuen Karten.
Nakai
2014-08-25, 22:57:27
918 ist Boost.
Ja es gibt nur noch Boosttakt. Ich denke das ist auch ein Grund, wieso alle R9 285 einen ziemlich großen Kühler haben. Um den Boosttakt zu garantieren.
dildo4u
2014-08-25, 22:58:49
Ich hatte erwartet,das die neue Karte höher Taktet aber vermutlich wollte man unter 190Watt bleiben.
Nakai
2014-08-25, 23:04:40
Ich hatte erwartet,das die neue Karte höher Taktet aber vermutlich wollte man unter 190Watt bleiben.
Mich würde es nicht wundern, wenn das Binning bei Tonga erstmal beschi**en ist. Die meisten anderen PRO-Varianten verbrauchen, dank AMDs Boosttakt-auf Temperaturbasis-und-Powertune-Geschichten, fast genausoviel, wie die XT-Varianten, vor allem, weil der Kühler der PROs meisten bescheiden ist.
Nochmal zum Speicher:
CB hat damals bei Tahiti Probeweise den Speichertakt gesenkt.
http://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/20/
horn 12
2014-08-25, 23:25:29
@Nakai
Was heisst dies bitte nun auf gut Deutsch, bzw. willst uns genau mitteilen ?
Und die 285X (Tonga XT) wird mit einer R9 290 Knapp konkurrieren koennen, jedoch weitaus weniger wenn hohes 8x MSAA aktiv ist ?!
Wie man klar sieht verliert man zwischen 256 bit und 384 bit bei Einsatz von 4-fach MSAA bereits um die 15 bis gar 20%
Ausser man reisst dies durch den L2 Cache des Tonga Chips wieder raus, sodass man kaum einen Unterschied bemerkt... ?
Noch eine Woche, man darf gespannt sein!
Nightspider
2014-08-25, 23:46:12
Ein unbekannter aber wichtiger Faktor ist imo auch das OC-Potential.
Deswegen warte ich mal seelenruhig ab auf die Tests bevor ich die Karte bewerte.
N0Thing
2014-08-26, 07:57:52
Da hier immer wieder der Begriff 285X durch den Thread wandert: Gibt es irgendeine Aussage oder eine Folie, die darauf hindeutet, daß die R9 285 keinen kompletten Chip verwendet?
Leonidas
2014-08-26, 08:13:52
Was mich wundert ist, dass hier noch keine Firestrike Werte von Tonga diskutiert werden, welche einen Schluss auf die Performance zulassen.
Firestrike
Performance: 7066
Extreme: 3513
So weit ich das sehe, sind dies nicht 3DMark13-Werte, sondern 3DMark11-Werte. "Performance" und "Extreme" gibt es doch unter 3DMark13 gar nicht mehr. Zudem passen die Werte zum 3DMark11, da erreicht eine Radeon R9 280 ungefähr 3000 Punkte unter "Extreme".
Update: Nein, die Werte würden auch zu 3DMark13 Firestrike "Standard" und "Extreme" passen. Zumindest die von AMD angegebenen Vergleichswerte der GeForce GTX 760 passen extrem gut dafür.
Da hier immer wieder der Begriff 285X durch den Thread wandert: Gibt es irgendeine Aussage oder eine Folie, die darauf hindeutet, daß die R9 285 keinen kompletten Chip verwendet?
Bislang gar nichts. Es ist nur eine Vermutung. Das einzige, was bekannt ist, wäre, daß Tonga in Form von zwei "Radeon R9 2xx" Desktop-Grafikkarten erscheinen soll. Der Rest sind Annahmen.
Locuza
2014-08-26, 08:41:07
Deine erste Vermutung war richtig:
In testing by AMD labs as of July 28, 2014, the AMD Radeon™ R9 285 graphics card achieved a 3DMark Firestrike11 overall score of 7066 Performance, 3513 Extreme, versus 5650 and 2774 respectively for Nvidia GTX 760. Tested with i7-4960X CPU, MSI x79A-GD65 motherboard, 16GB memory, Windows 8.1 64-bit, AMD Catalyst 14.30 driver, Nvidia 337.88WHQL driver.
M4xw0lf
2014-08-26, 09:49:01
Deine erste Vermutung war richtig:
Confused AMD is confused. Was soll ein Firestrike11 sein?
http://www.chiphell.com/data/attachment/forum/201408/24/005620bwd3fzk83nkk0dk6.jpg
Da es im 3dmark 11 keinen Firestrike-Benchmark gibt, kann es nur der 3dmark "13" sein.
Locuza
2014-08-26, 10:07:52
Sorry, ich war so dämlich irgendwelche Angaben für korrekt zu halten.
Vielleicht soll FireStrike11 nur DX11 implizieren?
fondness
2014-08-26, 10:14:51
Bislang gar nichts. Es ist nur eine Vermutung. Das einzige, was bekannt ist, wäre, daß Tonga in Form von zwei "Radeon R9 2xx" Desktop-Grafikkarten erscheinen soll. Der Rest sind Annahmen.
Das stimmt nicht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10326207&postcount=7464
M4xw0lf
2014-08-26, 10:57:19
Sorry, ich war so dämlich irgendwelche Angaben für korrekt zu halten.
Vielleicht soll FireStrike11 nur DX11 implizieren?
Man weiß es nicht. Jedenfalls decken sich die 3dmark Firestrike-Angaben von AMD für die 760 schon sehr gut mit denen von CB. ( AMD: 5650/2774; CB: 5561/2745 http://www.computerbase.de/2014-02/amd-radeon-r7-265-test/14/)
Nakai
2014-08-26, 14:08:43
Es sollte Firestrike...aber das mit dem Typo ist mit natürlich nicht aufgefallen. Also die Werte erstmal etwas zwiegespalten aufnehmen.
@Nakai
Was heisst dies bitte nun auf gut Deutsch, bzw. willst uns genau mitteilen ?
Und die 285X (Tonga XT) wird mit einer R9 290 Knapp konkurrieren koennen, jedoch weitaus weniger wenn hohes 8x MSAA aktiv ist ?!
Wie man klar sieht verliert man zwischen 256 bit und 384 bit bei Einsatz von 4-fach MSAA bereits um die 15 bis gar 20%
Ausser man reisst dies durch den L2 Cache des Tonga Chips wieder raus, sodass man kaum einen Unterschied bemerkt... ?
Noch eine Woche, man darf gespannt sein!
Also beim L2-Cache mache ich keine Aussagen. Dieser könnte bei MSAA schon was bringen, wäre jedenfalls vorteilhaft. Streaming-Architekturen, was GPUs im Grunde sind, arbeiten nicht lange mit Daten, die man gut cachen könnte. Eine Aussage zum L2-Cache lasse ich deswegen mal sein...
Hat Tonga keinen besseren Cache, kannst du die CB-Daten bzgl Speicherbandbreite für voll nehmen. Da hat Tonga PRO am Limit der Speicherbandbreite ein Problem und verliert 10~20% und liegt eher noch auf Tahiti PRO -Niveau. Bringt Tonga Verbesserungen bei der Speicherbandbreitennutzung, so wie es die Carrizo-Folie andeutet, kann man Tonga in solchen Situationen schwer einschätzen.
Ich würde schon Fragen, ob jemand mit einem Hawaii die Taktraten von Speicher und Kern mal auf Tonga-Niveau runterskalieren könnte.
Core wäre 600Mhz.
Speicher wäre 675MHz(1350).
Was für minimalw Taktraten unterstützen die Tools?
fondness
2014-08-26, 14:22:16
Das ist nicht wirklich sinnvoll da die Latenzen dann völlig hinüber sind wenn man nur den Speichertakt senkt.
Tesseract
2014-08-26, 15:19:43
Ich würde schon Fragen, ob jemand mit einem Hawaii die Taktraten von Speicher und Kern mal auf Tonga-Niveau runterskalieren könnte.
Core wäre 600Mhz.
Speicher wäre 675MHz(1350).
mit einer 290 non-x komme ich auf 5875 punkte im firestrike bei ~200W verbrauch für das ganze system mit dem default-test, denn man in der basic edition starten kann. mit 1060/1400 sind es knapp über 10k.
Das ist nicht wirklich sinnvoll da die Latenzen dann völlig hinüber sind wenn man nur den Speichertakt senkt.
latenz ist der GPU ziemlich egal.
Gipsel
2014-08-26, 15:20:37
Soll Tonga nicht eine neue (immer aktive) Framebufferkompression mitbringen? Das könnte den Bandbreitenbedarf für die ROPs um ~30% senken, ganz ohne neue Caches.
Nakai
2014-08-26, 15:32:53
mit einer 290 non-x komme ich auf 5875 punkte im firestrike bei ~200W verbrauch für das ganze system.
latenz ist der GPU ziemlich egal.
So wenig? Firestrike Standard?
Eine normale 290 non-X sollte eher, um die 660MHz takten, um die Rohleistung von Tonga-PRO zu erreichen.
Aber die zusätzlichen 10% sind wertlos. Im Endeffekt sollte Tonga ein stärkeres Frontend haben, was stark helfen wird.
AMDs Frontend ist wirklich grottig und Tahiti hätte schon ein Quad-Frontend benötigt, womit man eher auf GTX780-Niveau gelandet wäre.
Soll Tonga nicht eine neue (immer aktive) Framebufferkompression mitbringen? Das könnte den Bandbreitenbedarf für die ROPs um ~30% senken, ganz ohne neue Caches.
Wäre sehr wünschenswert und würde Tonga extrem helfen.
€: Vor allem wäre das ziemlich genau die Bandbreite die Tonga zusätzlich benötigen würde, um auf Tahiti-Niveau zu kommen.
fondness
2014-08-26, 15:34:14
latenz ist der GPU ziemlich egal.
Es ist bei weitem nicht so wichtig wie bei CPUs, egal würde ich allerdings nicht sagen.
Tesseract
2014-08-26, 15:58:16
So wenig? Firestrike Standard?
Eine normale 290 non-X sollte eher, um die 660MHz takten, um die Rohleistung von Tonga-PRO zu erreichen.
Aber die zusätzlichen 10% sind wertlos. Im Endeffekt sollte Tonga ein stärkeres Frontend haben, was stark helfen wird.
AMDs Frontend ist wirklich grottig und Tahiti hätte schon ein Quad-Frontend benötigt, womit man eher auf GTX780-Niveau gelandet wäre.
wieso wenig? ~57% der score bei ~57% des taktes ist fast eine 1:1 skalierung mit dem takt.
mit 662 sind es 6230.
edit: das waren übrigens die gesamt-scores, die graphics scores liegen bei 6409 bzw. 6869. keine ahnung welcher der beiden werte was aussagt, ich benche normalerweise keine synthetik-benchmarks.
Nakai
2014-08-26, 16:32:05
wieso wenig? ~57% der score bei ~57% des taktes ist fast eine 1:1 skalierung mit dem takt.
mit 662 sind es 6230.
edit: das waren übrigens die gesamt-scores, die graphics scores liegen bei 6409 bzw. 6869. keine ahnung welcher der beiden werte was aussagt, ich benche normalerweise keine synthetik-benchmarks.
Ich hab selber auch wenig Ahnung. Tonga hat hierbei ein stärkeres Frontend, dafür ein schwächeres Backend(weniger ROPs). Da AMD die R9 280X noch behält, sollte Tonga knapp unter dieser liegen und bei bandbreitenintensiven Tasks noch etwas schwächer werden(5~20% auf Tahiti; je nach Fall natürlich unterschiedlich).
R9 285X sollte ~20% drauflegen und wäre damit auf GTX 780-Niveau. Ebenfalls wäre man auf GTX 870-Niveau(~20% vor GTX 770). Das ist schon gut.
OBrian
2014-08-27, 04:11:44
Ja es gibt nur noch Boosttakt. Ich denke das ist auch ein Grund, wieso alle R9 285 einen ziemlich großen Kühler haben. Um den Boosttakt zu garantieren.
ich bin ja gespannt, wie die ITX-Varianten abschneiden, mit besonders kurzem PCB (17 cm nur) und entsprechend auch kleinerem und damit weniger starkem Kühler. Takt soll aber gleich sein. Also müßten die eigentlich dann die meiste Zeit relativ weit unter den Boosttakt einbrechen, oder? Oder es sind selektierte Chips, die das Ganze einfach mit weniger Spannung schaffen.
Mal Tests abwarten.
Psychopat
2014-08-27, 11:19:32
Von Asus gab es doch bei der 670 schon die DCII Mini, die hatte das gleiche Format. Von der TDP sollte das auch mit Tonga vergleichbar sein. Diese Karte hat ihren Takt schon halten können, nur OC ging nicht wirklich.
-/\-CruNcher-/\-
2014-08-27, 11:48:26
Sapphire Radeon R9 285 ITX Compact
http://s30.postimg.org/oegj4bdld/Sapphire_R9_285_ITX_Compact_2_GBGDDR5_1_620x620.jpg (http://postimage.org/)
http://s30.postimg.org/g6eljblox/Sapphire_R9_285_ITX_Compact_2_GBGDDR5_2_850x614.jpg (http://postimage.org/)
http://s30.postimg.org/e346bnlw1/Sapphire_R9_285_ITX_Compact_2_GBGDDR5_3_788x620.jpg (http://postimage.org/)
http://s30.postimg.org/w3ddg1e35/Sapphire_R9_285_ITX_Compact_2_GBGDDR5_4_624x620.jpg (http://postimage.org/)
http://www.techpowerup.com/204507/sapphire-radeon-r9-285-itx-compact-edition-pictured.html
Scheint ausschließlich Custom-Designs zu geben, was zeigt das der Chip schon länger fertig ist.
Klein aber trotzdem 2 6X Pin cons
Man müsste die karte mal versuchen auf GTX 750 TI output zu drosseln und die Performance vergleichen sprich ca 60-70W output :)
wobei die 260x wohl besser dazu geignet ist auf den PCI-E output zu kommen.
Allerdings würde das Ergebniss denke ich ziemlich eindeutig ausfallen wie gesagt 1 Jahr zu spät
Hübie
2014-08-27, 12:03:41
Wo ist da der Sinn? Tonga hat sicher eine andere Voltagerange als Maxwell. Also müsste man wahrscheinlich den Takt abnormal weit absenken um auf 60-70 Watt zu kommen. Da versagt die Performance mit Sicherheit. Das ist also Quark. Der Chip ist dafür doch nicht geschaffen worden.
Da es aber noch nichts offizielles zu Perf/Watt/$ gibt ists natürlich ebenso spekulativ.
Nakai
2014-08-27, 17:06:39
Meistens war es so, dass größere Chips, welche runterskaliert wurden, schneller waren als kleinere Chips in genau diesem Leistungsbereich. Ich kenne jetzt auch kein Vergleich, bei diesem es nicht so war.
@Gipsel:
Soll Tonga nicht eine neue (immer aktive) Framebufferkompression mitbringen? Das könnte den Bandbreitenbedarf für die ROPs um ~30% senken, ganz ohne neue Caches.
Ich bin mir nicht sicher, aber sollte Framebufferkompression nicht Energie kosten? Es ist zwar wahrscheinlich, dass der verminderte Bandbreitenhunger die Leistungsaufnahme ziemlich drückt.
Viel findet man nicht zur FBC. Es sollte Energie sparen und den Bandbreitenhunger reduzieren. Es sollte auch einen Effekt auf das ausgegebene Bild haben, aber der Unterschied ist meistens sehr kaum ersichtlich.
Mobile Geräte verwenden es schon jetzt:
http://www.arm.com/products/multimedia/mali-technologies/arm-frame-buffer-compression.php
Nightspider
2014-08-27, 17:10:42
Ob Kompression unterm Strich Strom spart oder kostet kommt sicherlich darauf an wie einfach komprimiert werden kann und wie hoch die Kompressionsrate ist.
Im sweetspot sollte schon eine positive Energiebilanz drin sein.
Das ist zumindest meine Einschätzung als Spekulant.
Gipsel
2014-08-27, 17:23:19
Ich bin mir nicht sicher, aber sollte Framebufferkompression nicht Energie kosten? Es ist zwar wahrscheinlich, dass der verminderte Bandbreitenhunger die Leistungsaufnahme ziemlich drückt.
Viel findet man nicht zur FBC. Es sollte Energie sparen und den Bandbreitenhunger reduzieren. Es sollte auch einen Effekt auf das ausgegebene Bild haben, aber der Unterschied ist meistens sehr kaum ersichtlich.
Mobile Geräte verwenden es schon jetzt:
http://www.arm.com/products/multimedia/mali-technologies/arm-frame-buffer-compression.phpUnter dem Strich wird das etwas Verbrauch sparen.
Im Übrigen wird AMD eine verlustfreie Kompression nutzen, übrigens genau wie auch ARM in Deinem Link. Auf das ausgegebene Bild sollte das also genau gar keinen Effekt haben. ;)
Nakai
2014-08-27, 17:38:17
Unter dem Strich wird das etwas Verbrauch sparen.
Im Übrigen wird AMD eine verlustfreie Kompression nutzen, übrigens genau wie auch ARM in Deinem Link. Auf das ausgegebene Bild sollte das also genau gar keinen Effekt haben. ;)
:)
Wieso wurde dann FBC nicht schon früher für "höhere" GPUs verwendet? Man findet hierzu zwar genug Papers, mit Algorithmen, aber meistens mit Vergleich der Bildqualität. Kompression ist anscheinend nur ein Thema für GPUs im Embedded-Bereich, da wo Speicherbandbreite und -größe sehr relevant ist.
Falls AMD eine FBC einführt, wie wirkt sich das auf den Speicherverbrauch aus? Wenn bis zu 50% gespart wird(laut ARM), sollte der Speichervebrauch auch etwas runtergehen, je nachdem, wie groß der Framebuffer ist.
Eine FBC ist ja eher am Ende der Pipeline bzw. da muss komprimiert und entkomprimiert werden. Texturkompression sollte auch möglich sein und andere Kompressionsgeschichten, um den Bandbreitenbedarf zu senken. Texturen wären interessant, da diese meistens nur gelesen werden müssen. Liegen diese einmal im Speicher(komprimiert), wäre das auch ein Vorteil.
Nur ein paar Gedanken...
Gipsel
2014-08-27, 17:58:18
Wieso wurde dann FBC nicht schon früher für "höhere" GPUs verwendet?Es kostet Transistoren, dieser Aufwand will gerechtfertigt sein und das passiert automatisch bei kleineren Strukturgrößen und Problemen, die nötige Bandbreite ranzuschaffen.
Man findet hierzu zwar genug Papers, mit Algorithmen, aber meistens mit Vergleich der Bildqualität. Kompression ist anscheinend nur ein Thema für GPUs im Embedded-Bereich, da wo Speicherbandbreite und -größe sehr relevant ist.Nun, es gibt ja verschiedene Kompressionsarten, auch verlustbehaftete. Da ist dann ein Vergleich der Bildqualität schon sinnvoll.
Falls AMD eine FBC einführt, wie wirkt sich das auf den Speicherverbrauch aus? Wenn bis zu 50% gespart wird(laut ARM), sollte der Speichervebrauch auch etwas runtergehen, je nachdem, wie groß der Framebuffer ist.Speicherverbrauch bleibt konstant, genau wie bei der jetzt schon benutzten MSAA-Framebufferkompression. Das liegt schlicht daran, daß man keine garantiertes Kompressionsverhältnis hat (das geht nur bei verlustbehafteter Kompression). Im worst case spart man also gar nichts (bzw. benötigt sogar ein paar Bytes mehr). Man muß also den Framebuffer so groß reservieren, daß es im Notfall auch unkomprimiert reinpaßt.
Eine FBC ist ja eher am Ende der Pipeline bzw. da muss komprimiert und entkomprimiert werden.Kompression erfolgt wahrscheinlich beim Schreiben der Framebuffertiles (die FBC ist sowieso blockbasiert, anders wäre es unpraktikabel, da wahlfreier Zugriff nicht funktionieren würde) aus den ROP-Caches in den Speicher, ist im Prinzip das gleiche Vorgehen wie bei der MSAA-Kompression. Mit ein wenig Glück können die TMUs dann so einen komprimierten Framebuffer direkt lesen, so daß er beim Zugriff nicht erst umständlich komplett dekomprimiert werden muß.
Texturkompression sollte auch möglich sein und andere Kompressionsgeschichten, um den Bandbreitenbedarf zu senken. Texturen wären interessant, da diese meistens nur gelesen werden müssen. Liegen diese einmal im Speicher(komprimiert), wäre das auch ein Vorteil.
Texturkompression (die ist typischerweise verlustbehaftet) ist davon erstmal komplett unabhängig. Und die gibt es ja schon geraume Zeit, steht völlig unter Entwicklerkontrolle und wird intensiv genutzt. Oder willst Du Framebuffer auch direkt in den verschiedenen Texturkompressionformaten schreiben lassen? Das wäre etwas trickier und wegen dem Qualitätsverlust auch nur selten anzuraten.
mczak
2014-08-27, 20:04:44
Speicherverbrauch bleibt konstant, genau wie bei der jetzt schon benutzten MSAA-Framebufferkompression. Das liegt schlicht daran, daß man keine garantiertes Kompressionsverhältnis hat (das geht nur bei verlustbehafteter Kompression). Im worst case spart man also gar nichts (bzw. benötigt sogar ein paar Bytes mehr). Man muß also den Framebuffer so groß reservieren, daß es im Notfall auch unkomprimiert reinpaßt.
Naja also theoretisch denkbar wäre das heutzutage schon dass man nicht den kompletten Speicher reserviert. Dazu müsste der Framebuffer mithilfe einer MMU seitenweise alloziert werden. Ist wohl allerdings nicht so einfach, man muss dann auch in der Lage sein zu beliebiger Zeit andere Dinge aus dem Speicher zu werfen wenn man plötzlich eben doch mehr Speicher für den FB braucht.
Nakai
2014-08-27, 20:42:35
Speicherverbrauch bleibt konstant, genau wie bei der jetzt schon benutzten MSAA-Framebufferkompression. Das liegt schlicht daran, daß man keine garantiertes Kompressionsverhältnis hat (das geht nur bei verlustbehafteter Kompression). Im worst case spart man also gar nichts (bzw. benötigt sogar ein paar Bytes mehr). Man muß also den Framebuffer so groß reservieren, daß es im Notfall auch unkomprimiert reinpaßt.
Ich verstehe.
Mit ein paar Bytes mehr meinst du sicherlich die Umwandlung von RGB zu YCoCg.
Man hätte nicht mehr 8 Bits pro Komponente, sondern 8 für Y und jeweils 9 für Co und Cg, was demnach mehr Speicher benötigt.
Weil ich es gerade auch nachgelesen habe, wie verlustfreie Kompression ungefähr funktioniert(bitte berichtigen und nicht hauen, wenn es nicht stimmt ;)):
Es werden Tiles gebildet(2x2, 4x4, 8x8, etc.), diese Blöcke werden komprimiert, indem die Farbunterschiede zwischen den einzelnen Pixeln gespeichert werden. Benachtbarte Pixel haben normalerweise ähnliche Farben, dahingehend sollten diese Werte klein sein. Kleinere Werte -> weniger Speicher. Decoding funktioniert dementsprechend andersrum.
Ahja, es gibt unzählige Erweiterungen und andere Sachen, wie solche Algorithmen verbessert worden sind. Teilweise mit statistischen Methoden oder Edge-Detection-Algorithmen. Sehr interessante Thematik btw.
Texturkompression (die ist typischerweise verlustbehaftet) ist davon erstmal komplett unabhängig. Und die gibt es ja schon geraume Zeit, steht völlig unter Entwicklerkontrolle und wird intensiv genutzt.
Nutzt jedes aktuelle Spiel von sich aus Texturkompression? Wenn ja, welche Verfahren sind das eigentlich und warum kann man nicht mit Konsolenkommandos oder dergleichen Einfluss auf die Kompression nehmen?
MfG,
Raff
Gipsel
2014-08-27, 21:02:17
Ich verstehe.
Mit ein paar Bytes mehr meinst du sicherlich die Umwandlung von RGB zu YCoCg.
Man hätte nicht mehr 8 Bits pro Komponente, sondern 8 für Y und jeweils 9 für Co und Cg, was demnach mehr Speicher benötigt.Nein, den Colorspace ändert man sicher nicht. Das könnte auch Unterschiede ergeben.
Weil ich es gerade auch nachgelesen habe, wie verlustfreie Kompression ungefähr funktioniert(bitte berichtigen und nicht hauen, wenn es nicht stimmt ;)):
Es werden Tiles gebildet(2x2, 4x4, 8x8, etc.), diese Blöcke werden komprimiert, indem die Farbunterschiede zwischen den einzelnen Pixeln gespeichert werden. Benachtbarte Pixel haben normalerweise ähnliche Farben, dahingehend sollten diese Werte klein sein. Kleinere Werte -> weniger Speicher. Decoding funktioniert dementsprechend andersrum.Genau so. Das Prinzip nennt sich delta (color) compression. Die paar zusätzlichen Bytes für den Framebuffer kommen daher, weil man sich für jeden Block mit ein paar Bits merken muß, ob es komprimiert ist und wenn ja in welchem Subformat (Codes, die den einzelnen Blöcken leicht unterschiedliche Formate zuweisen können, sind oft effizienter). Das könnte (größenordnungsmäßig, kommt natürlich drauf an, was AMD genau verwenden will) vom Platzaufwand z.B. 4-8 Bits pro 16 Pixel sein. Bei (mindestens) 32bit pro Pixel fällt das nicht wirklich groß ins Gewicht (0,8% bis 1,6% Größenwachstum im Worstcase, der ja hoffentlich praktisch nie eintritt).
Gipsel
2014-08-27, 21:17:51
Nutzt jedes aktuelle Spiel von sich aus Texturkompression?Für jedes halbwegs moderne Spiel würde ich das mit einem ja beantworten (ohne es genau zu wissen). Zumindest wenn man nicht irgendwelche schrägen Sachen macht (Rage könnte eine Ausnahme sein). Die mögliche Auflösungserhöhung der Texturen bei gegebener Größe im Speicher erhöht sich doch beträchtlich.
Aber da fragst Du am besten mal bei Coda nach. Der kann Dir da sicher besser Auskunft geben.
Wenn ja, welche Verfahren sind das eigentlich und warum kann man nicht mit Konsolenkommandos oder dergleichen Einfluss auf die Kompression nehmen?MS erklärt die Funktionsweise eigentlich ganz passabel. (http://msdn.microsoft.com/de-de/library/windows/desktop/bb694531(v=vs.85).aspx) Mit DX11 sind noch ein paar Formate dazugekommen (http://msdn.microsoft.com/de-de/library/windows/desktop/hh308955(v=vs.85).aspx). Diese Formate unterstützen die TMUs der modernen GPUs direkt, die können also solche Formate direkt lesen und damit texturieren, die werden on-the-fly entpackt (ab Fermi und GCN erst beim Lesen aus dem L1; bei AMDs VLIW-Architekturen fand die Dekomprimierung beim Transfer vom L2 in den L1 statt [dort lagen also komprimierte Daten im L2 und dem VRAM, aber unkomprimierte im L1, heute liegt es immer komprimiert vor und wird erst in den TMUs entpackt]).
Alle diese komprimierten Texturformate speichern immer unabhängige Blöcke von Pixeln/Texeln (4x4), daher auch der Name block compression. Dies benötigt man, damit man auf die einzelnen Blöcke unabhängig zugreifen kann, man also nicht erst wie bei einem zip-File die ganze Textur entpacken muß, um irgendeinen Pixel zu lesen. Und die sind alle verlustbehaftet, garantieren dafür aber eine exakt bestimmte Größe pro Pixelblock (was bei verlustfreier Kompression nicht möglich ist, da die Kompressionsrate von den konkreten Daten abhängig ist).
Das Problem mit Konsolenkommandos ist, daß die Texturen in einem entsprechenden Format vorliegen müssen. Wenn die z.B. als BC1 ausgeliefert werden, dann kann man das natürlich nicht noch nachträglich auf eine geringere Kompression umstellen. Bei einigen Spielen kommen die Texturen (oder zumindest einige davon, für bestimmte Sachen eignen die sich ja nicht so toll) aber als jpgs daher, weil das insbesondere für fotoähnliche Sachen nochmal deutlich effizienter komprimiert. Die werden dann irgendwann (z.B. bei der Installation oder sogar on-the-fly beim Texturstreaming) umkomprimiert (oder schlicht unkomprimiert in den VRAM geschrieben). Da wäre im Prinzip eine Beeinflussung dieses Vorgangs denkbar. Ob das aber irgendein Spiel anbietet, habe ich keine Ahnung.
Nutzt jedes aktuelle Spiel von sich aus Texturkompression?
Definitiv. Das ist ein No-Brainer.
Das wird im Build-Prozess gemacht, deshalb kannst du da nichts mehr dran ändern. Uncompressed wäre auch viel zu groß zum ausliefern.
Das Problem mit Konsolenkommandos ist, daß die Texturen in einem entsprechenden Format vorliegen müssen. Wenn die z.B. als BC1 ausgeliefert werden, dann kann man das natürlich nicht noch nachträglich auf eine geringere Kompression umstellen. Bei einigen Spielen kommen die Texturen (oder zumindest einige davon, für bestimmte Sachen eignen die sich ja nicht so toll) aber als jpgs daher, weil das insbesondere für fotoähnliche Sachen nochmal deutlich effizienter komprimiert. Die werden dann irgendwann (z.B. bei der Installation oder sogar on-the-fly beim Texturstreaming) umkomprimiert (oder schlicht unkomprimiert in den VRAM geschrieben). Da wäre im Prinzip eine Beeinflussung dieses Vorgangs denkbar. Ob das aber irgendein Spiel anbietet, habe ich keine Ahnung.
id Tech 5 erlaubt uncompressed im Megatexture-Pool (Rage & Wolfenstein). Das Runtime-DXT-Encoding ist aber auch echt abscheulich, weil's schnell gehen muss.
Das ist ziemlich rechenintensiv die bestmögliche Qualität rauszuholen, wir hatten mal nen CUDA-Encoder, aber inzwischen ist es glaube ich einfach auf viele CPUs verteilt.
Auch the Evil Within ist id-Tech5. Zenimax erlaubt offenbar die konstengünstige Nutzung der id Engines für sämtliche Entwicklerpartner. Bin schon ganz schwer auf ElderScrolls6 mit id-Tech6-Unterbau gespannt :D. Den alten DX9-Käse wird man jetzt im 64Bit-Zeitalter wohl hoffentlich endlich entsorgen ;).
Die neue FB-Kompression erklärt das Speicherinterface beim Tonga. Vielleicht aber das beim GM204?
Ich glaube kaum, dass Elder Scrolls id Tech benutzen wird. Die haben ganz andere Anforderungen.
M4xw0lf
2014-08-28, 13:34:25
http://www.golem.de/news/stacked-dram-samsung-startet-serienfertigung-von-ddr4-stapelspeicher-1408-108862.html
Kann diese Produktion von stacked DDR4-Ram DIMMs auch stacked Ram für kommende Grafikkarten bedeuten?
Für jedes halbwegs moderne Spiel würde ich das mit einem ja beantworten (ohne es genau zu wissen). Zumindest wenn man nicht irgendwelche schrägen Sachen macht (Rage könnte eine Ausnahme sein). Die mögliche Auflösungserhöhung der Texturen bei gegebener Größe im Speicher erhöht sich doch beträchtlich.
Aber da fragst Du am besten mal bei Coda nach. Der kann Dir da sicher besser Auskunft geben.
MS erklärt die Funktionsweise eigentlich ganz passabel. (http://msdn.microsoft.com/de-de/library/windows/desktop/bb694531(v=vs.85).aspx) Mit DX11 sind noch ein paar Formate dazugekommen (http://msdn.microsoft.com/de-de/library/windows/desktop/hh308955(v=vs.85).aspx). Diese Formate unterstützen die TMUs der modernen GPUs direkt, die können also solche Formate direkt lesen und damit texturieren, die werden on-the-fly entpackt (ab Fermi und GCN erst beim Lesen aus dem L1; bei AMDs VLIW-Architekturen fand die Dekomprimierung beim Transfer vom L2 in den L1 statt [dort lagen also komprimierte Daten im L2 und dem VRAM, aber unkomprimierte im L1, heute liegt es immer komprimiert vor und wird erst in den TMUs entpackt]).
Alle diese komprimierten Texturformate speichern immer unabhängige Blöcke von Pixeln/Texeln (4x4), daher auch der Name block compression. Dies benötigt man, damit man auf die einzelnen Blöcke unabhängig zugreifen kann, man also nicht erst wie bei einem zip-File die ganze Textur entpacken muß, um irgendeinen Pixel zu lesen. Und die sind alle verlustbehaftet, garantieren dafür aber eine exakt bestimmte Größe pro Pixelblock (was bei verlustfreier Kompression nicht möglich ist, da die Kompressionsrate von den konkreten Daten abhängig ist).
Das Problem mit Konsolenkommandos ist, daß die Texturen in einem entsprechenden Format vorliegen müssen. Wenn die z.B. als BC1 ausgeliefert werden, dann kann man das natürlich nicht noch nachträglich auf eine geringere Kompression umstellen. Bei einigen Spielen kommen die Texturen (oder zumindest einige davon, für bestimmte Sachen eignen die sich ja nicht so toll) aber als jpgs daher, weil das insbesondere für fotoähnliche Sachen nochmal deutlich effizienter komprimiert. Die werden dann irgendwann (z.B. bei der Installation oder sogar on-the-fly beim Texturstreaming) umkomprimiert (oder schlicht unkomprimiert in den VRAM geschrieben). Da wäre im Prinzip eine Beeinflussung dieses Vorgangs denkbar. Ob das aber irgendein Spiel anbietet, habe ich keine Ahnung.
Definitiv. Das ist ein No-Brainer.
Das wird im Build-Prozess gemacht, deshalb kannst du da nichts mehr dran ändern. Uncompressed wäre auch viel zu groß zum ausliefern.
Danke für eure Infos! :) Das heißt, jedes auf D3D setzende Spiel nutzt Block Compression in den vom Entwickler ersonnenen Formaten.
Die neue FB-Kompression erklärt das Speicherinterface beim Tonga. Vielleicht aber das beim GM204?
An die Experten: Wer glaubt, dass das signifikante Leistungsverbesserungen gegenüber den anderen GCN-Karten bringt und unter welchen Voraussetzungen? Immerhin ist's nicht auf MSAA angewiesen, um zu wirken.
MfG,
Raff
Jedes Spiel. Egal ob D3D oder nicht.
robbitop
2014-08-28, 14:02:59
Bei MSAA hat es ja relativ viel gebracht. Dort war ja auch 9x % des Bildes mit gleichen Color und Z-Subsamples belegt. Also konnte man irre viel Bandbreite sparen. Da hat vermutlich schon Komprimierung durch Substitution ("Grün, Grün, Grün = 3x Grün") schon viel Gebracht.
Ohne MSAA kann man sicher auch noch etwas sparen. Hängt halt vom Bildinhalt und vom Algoritmus ab.
Ggf. kann ja grob die Dateigröße eines RAW Bildes ggü eines verlustfrei komprimierten Bildes (z.B. TGA, JPG2000 [Vorsicht: JPG2000 kann sowohl verlustfrei als auch verlustbehaftet komprimieren) ein grober Indikator sein. Ich tippe darauf, dass in HW ein eher wenig aufwändige Algorithmus vorhanden ist.
Was mich wundert:
Mit R285 und neuerem GCN erreicht man bei vergleichbaren oder sogar höheren Rohspecs noch immer nicht die Leistung von GK104 (sonst hätte man sie gegen die 770 gestellt). Wie will man denn dann gegen einen vergleichbaren Maxwell ankommen?
dildo4u
2014-08-28, 14:14:13
Über den Preis NV wird wieder ordentlich aufschlagen.Schätze der direkte Konkurrent ist wieder 50€ teurer.
Was mich wundert:
Mit R285 und neuerem GCN erreicht man bei vergleichbaren oder sogar höheren Rohspecs noch immer nicht die Leistung von GK104 (sonst hätte man sie gegen die 770 gestellt). Wie will man denn dann gegen einen vergleichbaren Maxwell ankommen?
Wie man's nimmt, Tonga könnte mit 1.536 ALUs und gleichem Takt einer GTX 770 vermutlich Paroli bieten. Letztere arbeitet ja gewöhnlich mit 1.084 MHz (typischer Boost), im Falle aller OC-Designs meist deutlich mehr; die R9 285 nur mit 918 MHz. AMD spricht auf den öffentlichen Slides IIRC von "up to 15 % faster" gegenüber der GTX 760, was ich für etwas pessimistisch halte. Taktnormalisiert, also wenn man die 285 auf 1.084 MHz übertaktet (+18 %), kommt man wohl an der GTX 770 vorbei, hat aber dabei natürlich noch 17 Prozent mehr Rechenwerke.
MfG,
Raff
Gipsel
2014-08-28, 14:46:45
http://www.golem.de/news/stacked-dram-samsung-startet-serienfertigung-von-ddr4-stapelspeicher-1408-108862.html
Kann diese Produktion von stacked DDR4-Ram DIMMs auch stacked Ram für kommende Grafikkarten bedeuten?
Das ist unabhängig und hat mit HBM nichts zu tun. Da geht es nur um Kapazitätserhöhung, während HBM durch ein neues Speicherinterface auch etwas Strom spart und die Bandbreite steigert.
Was mich wundert:
Mit R285 und neuerem GCN erreicht man bei vergleichbaren oder sogar höheren Rohspecs noch immer nicht die Leistung von GK104 (sonst hätte man sie gegen die 770 gestellt). Wie will man denn dann gegen einen vergleichbaren Maxwell ankommen?
Wie man's nimmt, Tonga könnte mit 1.536 ALUs und gleichem Takt einer GTX 770 vermutlich Paroli bieten. Letztere arbeitet ja gewöhnlich mit 1.084 MHz (typischer Boost), im Falle aller OC-Designs meist deutlich mehr; die R9 285 nur mit 918 MHz. AMD spricht auf den öffentlichen Slides IIRC von "up to 15 % faster" gegenüber der GTX 760, was ich für etwas pessimistisch halte. Taktnormalisiert, also wenn man die 285 auf 1.084 MHz übertaktet (+18 %), kommt man wohl an der GTX 770 vorbei, hat aber dabei natürlich noch 17 Prozent mehr Rechenwerke.
MfG,
RaffWobei am Ende die Rohspecs vollkommen egal sind. Wichtig ist, was bei rumkommt (als Perf/W und Perf/mm²). Wenn man z.B. 50% mehr Silizium verbauen muß, um aus x FLOPs 30% mehr nutzbare Leistung rauszuquetschen, dann ist das auch nicht besser, als einfach 50% mehr FLOPs zu verbauen (also 1,5x) und damit ebenfalls 30% Mehrleistung zu erzielen.
fondness
2014-08-28, 14:54:06
/Edit: Bitte löschen, wurde eigentlich schon alles gesagt.
robbitop
2014-08-28, 14:54:50
Wie man's nimmt, Tonga könnte mit 1.536 ALUs und gleichem Takt einer GTX 770 vermutlich Paroli bieten. Letztere arbeitet ja gewöhnlich mit 1.084 MHz (typischer Boost), im Falle aller OC-Designs meist deutlich mehr; die R9 285 nur mit 918 MHz. AMD spricht auf den öffentlichen Slides IIRC von "up to 15 % faster" gegenüber der GTX 760, was ich für etwas pessimistisch halte. Taktnormalisiert, also wenn man die 285 auf 1.084 MHz übertaktet (+18 %), kommt man wohl an der GTX 770 vorbei, hat aber dabei natürlich noch 17 Prozent mehr Rechenwerke.
MfG,
Raff
Der Mehrtakt der 770 wird nahezu durch die erhöhte Anzahl an Recheneinheiten aufgefressen. Wobei Mehrtakt oftmals effizienter ist als mehr Einheiten.
Ich bin gespannt, ob es noch eine R285X geben wird.
Wobei am Ende die Rohspecs vollkommen egal sind. Wichtig ist, was bei rumkommt (als Perf/W und Perf/mm²). Wenn man z.B. 50% mehr Silizium verbauen muß, um aus x FLOPs 30% mehr nutzbare Leistung rauszuquetschen, dann ist das auch nicht besser, als einfach 50% mehr FLOPs zu verbauen (also 1,5x) und damit ebenfalls 30% Mehrleistung zu erzielen.
Ja das ist so. Aber ich finde auch immer interessant, wie stark am Ende takt- und Anzahl normiert die jeweiligen Einheiten sind. Zwischen Kepler und GCN1.1 lagen da IIRC ca. 10 % taktnormierte Leistung pro Einheit (zugunsten Keplers).
/Edit: Bitte löschen, wurde eigentlich schon alles gesagt.
Stimmt. Die 770 hat 30 % mehr Bandbreite. OK.
http://www.computerbase.de/2013-06/nvidia-geforce-gtx-760-test/4/
Die GTX 770 ist zwischen 23 und 28 % schneller als die GTX 760. Im Endresultat ist die GTX770 also ~10 % schneller als die R285.
fondness
2014-08-28, 14:57:45
Der Mehrtakt der 770 wird nahezu durch die erhöhte Anzahl an Recheneinheiten aufgefressen. Wobei Mehrtakt oftmals effizienter ist als mehr Einheiten.
Ich bin gespannt, ob es noch eine R285X geben wird.
Tonga wird höchstwahrscheinlich weniger Die-Size als ein GK104 benötigen und dabei im Vollausbau mit "vollen" Takt schneller sein und wohl auch energieffizienter. Das ist alles was zählt.
Ja das ist so. Aber ich finde auch immer interessant, wie stark am Ende takt- und Anzahl normiert die jeweiligen Einheiten sind. Zwischen Kepler und GCN1.1 lagen da IIRC ca. 10 % taktnormierte Leistung pro Einheit (zugunsten Keplers).
Hm, wenn ich Hawaii mit GK110 vergleiche (Tonga hat ja auch ein 4-fach Frontend bei weniger Einheiten) dann sehe ich da "Einheitennormalisiert" nicht mehr viel Unterschiede.
robbitop
2014-08-28, 15:14:30
Hm, wenn ich Hawaii mit GK110 vergleiche (Tonga hat ja auch ein 4-fach Frontend bei weniger Einheiten) dann sehe ich da "Einheitennormalisiert" nicht mehr viel Unterschiede.
R290X 2816 Einheiten 1000 MHz Boost
780 Ti 2880 Einheiten 928 MHz Boost
Taktnormiert hat die R290X ~5 % mehr Rechenleistung.
http://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/4/
Die 780 ti ist 7 (FullHD)-12 % (1440p) schneller als die 290X (Ubermode).
Da kommt für mich (1440p) rohleistungsnormiert sogar 18 % mehr Leistung heraus.
Wenn NV mit Maxwell jetzt sogar noch ~35 % mehr oben draufpackt, ist Maxwell rohleistungsnormiert sogar ~ 60 % schneller. Also braucht GCN 1.1 18 % mehr Einheiten ggü Kepler und sogar 60 % mehr gegenüber Maxwell.
Insofern hoffe ich, dass GCN 2.0 da ordentlich eine Schippe drauf tut.
Und ja mir ist klar, dass durchaus auch andere Flaschenhälse in Hawaii für die Ergebnisse zuständig sein können und das nur eine einfache Milchmädchen ist.
Am Ende ist aber zumindest (selbst wenn man es nicht quanzifizieren kann) eine Aussage da: Kepler ist etwas effizienter bei gleicher Rohleistung als GCN 1.1 und Maxwell deutlich effizienter.
Tonga wird höchstwahrscheinlich weniger Die-Size als ein GK104 benötigen und dabei im Vollausbau mit "vollen" Takt schneller sein und wohl auch energieffizienter. Das ist alles was zählt.
Und das ist auch der einzige Rettungsanker für AMD. Maxwell (nicht auf Compute optimiert) wird das ggf. umdrehen.
Ich persönlich finde rohleistungsnormierte Vergleiche hin und wieder interessanter als sqmm Vergleiche.
fondness
2014-08-28, 15:19:52
http://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/4/
Die 780 ti ist 7 (FullHD)-12 % (1440p) schneller als die 290X (Ubermode).
Du meinst 7 (FullHD) bis 2 % (1440p).
Wenn NV mit Maxwell jetzt sogar noch ~35 % mehr oben draufpackt, ist Maxwell rohleistungsnormiert sogar ~ 60 % schneller. Also braucht GCN 1.1 18 % mehr Einheiten ggü Kepler und sogar 60 % mehr gegenüber Maxwell.
Insofern hoffe ich, dass GCN 2.0 da ordentlich eine Schippe drauf tut.
Warum hoffst du das? Solche Zahlen sind in der Praxis völlig belanglos. Es nützt nichts wenn meine Einheiten 50% schneller sind wenn sie dafür 50% mehr Siliziumfläche belegen. Es zählt die Leistung pro mm² bzw. pro Watt.
Am Ende ist aber zumindest (selbst wenn man es nicht quanzifizieren kann) eine Aussage da: Kepler ist etwas effizienter bei gleicher Rohleistung als GCN 1.1 und Maxwell deutlich effizienter.
Effizienz ist sicher das falsche Wort dafür.
M4xw0lf
2014-08-28, 15:21:34
Cb hat wohl den einzigen Parcours wo die 780Ti mit höherer Auflösung weiter vorne liegt. Würde ich eher anzweifeln.
Stimmt ja auch gar nicht ^^
dildo4u
2014-08-28, 15:22:11
Alte Treiber das ist aktueller.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/
290X(Max) legt in hoher Auflösung zu,der Parcour verhält sich also wie in den anderen Reviews.
robbitop
2014-08-28, 15:33:57
Du meinst 7 (FullHD) bis 2 % (1440p).
Huch - verguckt. Wobei 1440p tatsächlich schon Einflüsse aus dem VRAM enthalten könnte. Am Ende sind es dann wohl doch eher die 10 %, die Kepler rohleistungsnomiert vorn liegt. Also so wie ich eingangs sagte.
Warum hoffst du das?
Weil ich einen ausgeglichenen Markt will. Alles andere ist schlecht für die Preise und den Fortschritt - und damit schlecht für uns.
Solche Zahlen sind in der Praxis völlig belanglos. Es nützt nichts wenn meine Einheiten 50% schneller sind wenn sie dafür 50% mehr Siliziumfläche belegen. Es zählt die Leistung pro mm² bzw. pro Watt.
:rolleyes: Das brauchst du mir nicht sagen. Das ist mir völlig klar. Und das habe ich auch sicher schon hundertfach hier im Forum kundgetan.
Und dennoch interessiert mich, wie viel eine GPU aus der Rohleistung herausholt.
GCN und Kepler sind sicher ja schon deutlich ähnlicher als ihre Vorgänger und werden immer vergleichbarer. Es ist immerhin nicht mehr SIMD vs. VLIW (mit vielen, billigen Einheiten).
Effizienz ist sicher das falsche Wort dafür. Effizient ist Leistung pro mm² bzw. pro Watt.
Siehe oben. Mir ist das alles schon klar. Ich vergleiche hier aber auf anderer Ebene.
Hübie
2014-08-28, 15:48:52
Wo seht ihr denn auf cb einen Test mit 1440p? :|
Ausgehend von der 780 Ti @max ist die 290X Uber 12% langsamer wenn in 1080p mit 4xMSAA gerendert wird und 6 % wenn mit 1600p und MSAA gerendert wird. Werksseitig sinds dann 12 respektive 8 %. Nur um das noch mal klarzustellen ;)
Und wieso ist Effizienz nicht das richtige Wort, fondness? :confused: Wegen dem Gesamtverbrauch? Wenn mit wenig viel erreicht wird, ist das per Definition Effizienz.
fondness
2014-08-28, 15:49:12
Huch - verguckt. Wobei 1440p tatsächlich schon Einflüsse aus dem VRAM enthalten könnte. Am Ende sind es dann wohl doch eher die 10 %, die Kepler rohleistungsnomiert vorn liegt. Also so wie ich eingangs sagte.
Es ist kein Geheimnis das die AMD-Karte mit hohen Auflösungen besser skalieren - nicht nur wegen den VRAM.
Weil ich einen ausgeglichenen Markt will. Alles andere ist schlecht für die Preise und den Fortschritt - und damit schlecht für uns.
Für einen ausgeglichenen Markt ist das doch völlig egal, wie du ja unten selbst bestätigst?
AMD und NV scheinen eben unterschiedliche Ansätze zu verfolgen. AMD verbaut lieber mehr "billige" Einheiten, während NV die Auslastung der Einheiten verbessert. Beide Wegen führen nach Rom, die frage ist wer letztlich unterm Strich mehr Leistung aus der vorhandenen Siliziumfläche bei begrenzten Power-Budget holen kann.
Und wieso ist Effizienz nicht das richtige Wort, fondness? :confused: Wegen dem Gesamtverbrauch? Wenn mit wenig viel erreicht wird, ist das per Definition Effizienz.
Weil du Äpfel mit Birnen vergleichst wenn du die Leistung pro "Shadereinheit" ermitteln willst.
Bsp: Wenn ich zwei Chips habe die exakt gleich schnell sind, exakt gleich viel verbrauchen und auch exakt gleich viel Siliziumfläche belegen dann sind diese auch gleich effizient - egal ob dort 10, 100 oder 10.000 ALUs verbaut sind.
aufkrawall
2014-08-28, 15:59:03
Es ist kein Geheimnis das die AMD-Karte mit hohen Auflösungen besser skalieren - nicht nur wegen den VRAM.
Technisch ist es korrekter, dass AMD-GPUs mit niedrigeren Auflösungen schlechter skalieren. ;)
Das ist nicht wertend gemeint, bevor du wieder mit irgendwelchen Bias-Behauptungen um dich schmeißt.
fondness
2014-08-28, 16:04:04
Das ist nicht wertend gemeint, bevor du wieder mit irgendwelchen Bias-Behauptungen um dich schmeißt.
Ich würde an deiner Stelle mal vor der eigenen Türe kehren anstatt anderen Vorwürfe zu machen.
aufkrawall
2014-08-28, 16:05:38
Eine Tür zählt leider nicht zu meinem Eigentum.
Hübie
2014-08-28, 16:08:28
Weil du Äpfel mit Birnen vergleichst wenn du die Leistung pro "Shadereinheit" ermitteln willst.
Achso. Das ist eh Käse, aber dass weiß robbitop sicher ;) Allein wegen front- und backend kann da viel auf der Strecke bleiben. Man erinnere sich an die "Exportschwäche" der Fermi-ROPs oder Tahitis zu kleines Frontend... Die ALUs selber unterscheiden sich wahrscheinlich gar nicht so sehr, da die Funktion sehr änhlich oder gar gleich ist.
@Gipsel: Woher kennst du immer so viele Details? Gibts da offizielle Lektüre zu Kompression, TMU und Caches?
btw: Schön dich nach langer Abstinenz wieder zu lesen ;)
robbitop
2014-08-28, 16:09:34
Es ist kein Geheimnis das die AMD-Karte mit hohen Auflösungen besser skalieren - nicht nur wegen den VRAM.
.
Mit neusten Treibern sind es +7% für die 780Ti max ggü R290x max in 1600p.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/#diagramm-rating-2560-1600-4xaa-16xaf
fondness
2014-08-28, 16:11:58
Mit neusten Treibern sind es +7% für die 780Ti max ggü R290x max in 1600p.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/#diagramm-rating-2560-1600-4xaa-16xaf
Dort werden zum Teil völlig andere Spiele gebencht und deshalb mit dem alten Link nicht wirklich vergleichbar. Ist aber auch egal, man sieht jedenfalls wieder das die AMD-Karten näher kommen mit höherer Auflösung - alleine schon deshalb ist ein Vergleich schwierig.
robbitop
2014-08-28, 16:12:10
Achso. Das ist eh Käse, aber dass weiß robbitop sicher ;) Allein wegen front- und backend kann da viel auf der Strecke bleiben. Man erinnere sich an die "Exportschwäche" der Fermi-ROPs oder Tahitis zu kleines Frontend... Die ALUs selber unterscheiden sich wahrscheinlich gar nicht so sehr, da die Funktion sehr änhlich oder gar gleich ist.
Du hast es begriffen, wie ich es meinte. Danke. :)
@Gipsel: Woher kennst du immer so viele Details? Gibts da offizielle Lektüre zu Kompression, TMU und Caches?
Es gibt so viele Papers, Optimierungsguidelines etc. Vermutlich entwickelt er selbst und muss das Zeug lesen, verstehen und anwenden. Am Ende bleibt da viel hängen. ;)
robbitop
2014-08-28, 16:15:01
Dort werden zum Teil völlig andere Spiele gebencht und deshalb mit dem alten Link nicht wirklich vergleichbar.
Das nicht. Aber die Karten sind untereinander vergleichbar. Egal welche Performanceratings man wählt. Am Ende geht Kepler holt Kepler etwas mehr aus der vorhandenen Rohleistung raus.
fondness
2014-08-28, 16:17:41
Das nicht. Aber die Karten sind untereinander vergleichbar. Egal welche Performanceratings man wählt. Am Ende geht Kepler holt Kepler etwas mehr aus der vorhandenen Rohleistung raus.
Das stimmt schon. Mal sehen wie es bei Tonga aussieht der ein stärkeres Front-End im Relation zur Rohleitung hat wie Hawaii.
Man braucht ja nur die 290 statt der 290X nehmen und schon ändert sich das Bild.
Gipsel
2014-08-28, 16:18:24
GCN und Kepler sind sicher ja schon deutlich ähnlicher als ihre Vorgänger und werden immer vergleichbarer. Es ist immerhin nicht mehr SIMD vs. VLIW (mit vielen, billigen Einheiten).GCN kostet immer noch weniger Diefläche als Kepler(*). Wenn man nVidia nicht unterstellen will, schlicht eine Menge Platz zu verschwenden, dann sollten die pro ALU mindestens so leistungsfähig sein wie GCN bzw. einen Vorteil in dieser Metrik haben. Aber es stimmt schon, vergleichen mit der Vergangenheit ist die Effizienz der Einheiten ist schon relativ nahe beieinander. Die bestehenden Unterschiede liegen meiner Meinung nach allerdings zu einem guten Teil außerhalb der eigentlichen ALUs bzw. SIMD-Einheiten.
*): Zumindest in den Auslegungen, für die sich AMD und nV entschieden haben.
Pitcairn, 1280ALUs, 80 TMUs, 32ROPs an 256Bit-Interface in 212mm²
GK106, 960 ALUs, 80 TMUs, 24 ROPs an 192Bit-Interface in 214mm²
oder auch:
CapeVerde, 640 ALUs, 40 TMUs, 16 ROPs an 128Bit-Interface in 123mm²
GK107, 384 ALUs, 32 TMUs, 16 ROPs an 128Bit-Interface in 118mm²
Und ganz klein:
Oland, 384 ALUs, 24 TMUs, 8 ROPs an 128Bit-Interface in 90mm²
GK208, 384 ALUs, 16 TMUs, 8 ROPs an 64Bit-Interface in 87mm²
GK208 sieht mit der relativ zu GK107 halbierten Anzahl TMUs pro SMx (TMUs sind ziemlich groß) und dem ebenfalls halbiertem Frontend und halbierten ROPs sowie Speicherinterface im Vergleich dann schon beinahe konkurrenzfähig aus. Da sieht man dann mal, daß die "Peripherie" auch ordentlich Fläche kostet (die eigentlichen Shadereinheiten belegen selbst bei den Highend-Karten oft weniger als ein Drittel der Diesize [mit TMUs dann etwa die Hälfte]). Es gibt wie gesagt auch viele Dinge außerhalb der Shaderarrays, was Einfluß auf die Performance/ALU als auch die Performance/Fläche hat.
Hübie
2014-08-28, 16:21:37
Du hast es begriffen, wie ich es meinte. Danke. :)
Es gibt so viele Papers, Optimierungsguidelines etc. Vermutlich entwickelt er selbst und muss das Zeug lesen, verstehen und anwenden. Am Ende bleibt da viel hängen. ;)
Na ja vieles ist halt nicht zugänglich, aber ich würde mir das auch gerne mal ansehen, weil dass so interessante Interna sind die man ja so in keinem Review etc zu lesen bekommt. Ich hab mich schon oft gefragt ob und was Kompression bringt. Vor allem in anbetracht des momentan stark steigenden VRAM-Bedarfs muss die vorhandene Bandbreite UND Volumen gut ausgenutzt werden.
Ich glaube jedoch das scheitert oft am Budget. Da wird einfach hier und da auf 0815-Standard gesetzt und erst der Käufer richtet es dann (ich denke da gerade an Skyrim, wo es viele besser aussehende Texturen zum herunterladen gab, als es die originalen je zu sein vermochten).
robbitop
2014-08-28, 16:23:07
Das stimmt schon. Mal sehen wie es bei Tonga aussieht der ein stärkeres Front-End im Relation zur Rohleitung hat wie Hawaii.
Man braucht ja nur die 290 statt der 290X nehmen und schon ändert sich das Bild.
IIRC war selbst der ausgezeichnete Cape Verde und Pitcairn (welche noch die geringste Front End Limitierung hatten) noch ein kleines Stückchen hinter Kepler was das angeht.
Aber ja: es gibt da einfach zu viele Randbedingungen, die die Ergebnisse beeinflussen, die außerhalb der CUs liegen. Je nach dem wie gut die GPU ausbalanciert wurde. IMO balanciert NV seine GPUs etwas ausgewogener aus als AMD, wo es in letzter Zeit häufiger Flaschenhälse zu sehen gibt.
Mit Hawaii wurde das schon besser. Mit Tonga evtl noch besser.
Na ja vieles ist halt nicht zugänglich, aber ich würde mir das auch gerne mal ansehen, weil dass so interessante Interna sind die man ja so in keinem Review etc zu lesen bekommt. Ich hab mich schon oft gefragt ob und was Kompression bringt. Vor allem in anbetracht des momentan stark steigenden VRAM-Bedarfs muss die vorhandene Bandbreite UND Volumen gut ausgenutzt werden.
Ich glaube jedoch das scheitert oft am Budget. Da wird einfach hier und da auf 0815-Standard gesetzt und erst der Käufer richtet es dann (ich denke da gerade an Skyrim, wo es viele besser aussehende Texturen zum herunterladen gab, als es die originalen je zu sein vermochten).
Naja, wenn man so tief reinwill wie Gipsel oder Coda hilft reines Lesen sowieso nicht. Da muss man schon wirklich auch damit arbeiten.
Ansonsten sind viele Papers öffentlich über das Netz verstreut. Reines Review / Techreview lesen bringt einen nur auf das Niveau, was der Rest von uns hat. Da können die Entwickler aus dem Forum nur schmunzeln. Aber gut - dafür haben wir andere Berufe und verstehen dafür mehr davon als Spieleentwickler es tun (hoffentlich :D).
GCN kostet immer noch weniger Diefläche als Kepler(*). Wenn man nVidia nicht unterstellen will, schlicht eine Menge Platz zu verschwenden, dann sollten die pro ALU mindestens so leistungsfähig sein wie GCN bzw. einen Vorteil in dieser Metrik haben. Aber es stimmt schon, vergleichen mit der Vergangenheit ist die Effizienz der Einheiten ist schon relativ nahe beieinander. Die bestehenden Unterschiede liegen meiner Meinung nach allerdings zu einem guten Teil außerhalb der eigentlichen ALUs bzw. SIMD-Einheiten.
*): Zumindest in den Auslegungen, für die sich AMD und nV entschieden haben.
Pitcairn, 1280ALUs, 80 TMUs, 32ROPs an 256Bit-Interface in 212mm²
GK106, 960 ALUs, 80 TMUs, 24 ROPs an 192Bit-Interface in 214mm²
oder auch:
CapeVerde, 640 ALUs, 40 TMUs, 16 ROPs an 128Bit-Interface in 123mm²
GK107, 384 ALUs, 32 TMUs, 16 ROPs an 128Bit-Interface in 118mm²
Und ganz klein:
Oland, 384 ALUs, 24 TMUs, 8 ROPs an 128Bit-Interface in 90mm²
GK208, 384 ALUs, 16 TMUs, 8 ROPs an 64Bit-Interface in 87mm²
GK208 sieht mit der relativ zu GK107 halbierten Anzahl TMUs pro SMx (TMUs sind ziemlich groß) und dem ebenfalls halbiertem Frontend und halbierten ROPs sowie Speicherinterface im Vergleich dann schon beinahe konkurrenzfähig aus. Da sieht man dann mal, daß die "Peripherie" auch ordentlich Fläche kostet (die eigentlichen Shadereinheiten belegen selbst bei den Highend-Karten oft weniger als ein Drittel der Diesize [mit TMUs dann etwa die Hälfte]). Es gibt wie gesagt auch viele Dinge außerhalb der Shaderarrays, was Einfluß auf die Performance/ALU als auch die Performance/Fläche hat.
Da hast du absolut Recht. Ich fürchte allerdings, dass NV mit Maxwell den Spieß (Performance pro sqmm und pro Watt) umdrehen wird. Ich hoffe, AMD bei bei GCN 2.0 seine Hausaufgaben gemacht.
fondness
2014-08-28, 16:26:09
IIRC war selbst der ausgezeichnete Cape Verde und Pitcairn (welche noch die geringste Front End Limitierung hatten) noch ein kleines Stückchen hinter Kepler was das angeht.
Kein Einwand, siehe die Aussagen von Gipsel und vorher von mir, wenn ich bei derselben Die-Fläche vergleiche kann NV halt auch deutlich weniger ALUs verbauen. Wie immer gilt halt there is no free lunch.
Na ja vieles ist halt nicht zugänglich, aber ich würde mir das auch gerne mal ansehen, weil dass so interessante Interna sind die man ja so in keinem Review etc zu lesen bekommt.
Normalerweise hat jede halbwegs angesehene Uni heute gratis Zugriff auf IEEE/ACM-Paper. Wenn du selbst nicht inskrepiert bist kannst du ja ev. einen Freund/Bekannten fragen.
robbitop
2014-08-28, 16:29:26
Kein Einwand, siehe die Aussagen von Gipsel und vorher von mir, wenn ich bei derselben Die-Fläche vergleiche kann NV halt auch deutlich weniger ALUs verbauen. Wie immer gilt halt there is no free lunch.
Ja. Aber das war aber auch (absichtlich) nicht mein Punkt. ;)
Gipsel
2014-08-28, 16:59:13
Naja, wenn man so tief reinwill wie Gipsel oder Coda hilft reines Lesen sowieso nicht. Da muss man schon wirklich auch damit arbeiten.Coda ist der Entwickler, ich eher nicht. Habe vor einer Weile mal ein bißchen in der GPGPU-Ecke dilettiert (http://de.wikipedia.org/wiki/Dilettant), aber meine praktische Erfahrung endet im Prinzip am Beginn von OpenCL. Ich verweise ja nicht umsonst vor allem für alles was Details der Grafikprogrammierung angeht auf Coda, wie z.B. gerade erst mit dem Ausmaß der Nutzung von Texturkompression in Spielen. Aber ich kenne genug von einigen grundlegenden Konzepten, um viele Dinge zumindest grob einschätzen zu können. Viele Sachen ergeben sich nunmal der Logik folgend, die existieren ja nicht im Vakuum.
Und ansonsten hat robbitop recht: Wenn man über einen gewissen Zeitraum ein wenig Zeit da reinsteckt, um sich durch ein paar Manuals/Optimierungsguides/Präsentationen (auch alte, weil manchmal rutscht denen da was raus, was die Funktionsweise von irgendwas erklärt, was später wieder rausgestrichen wird) zu wühlen, dann bleibt auch was hängen (ich weiß z.B. meist gar nicht, wo genau ich irgendwas aufgeschnappt habe). Und manche Lücke füllt man schlicht mit Nachdenken oder schaut, das irgendwer mal einen maßgeschneiderten Benchmark auf irgendein Feature losläßt, denn Alles geht ohne hands-on-Erfahrung dann doch nicht ;).
So, jetzt aber genug von mir.
Knuddelbearli
2014-08-28, 17:19:06
R290X 2816 Einheiten 1000 MHz Boost
780 Ti 2880 Einheiten 928 MHz Boost
Taktnormiert hat die R290X ~5 % mehr Rechenleistung.
Ähm meinst du den Vergleich ehrlich?
AMD ist der Maxtakt der nie gehalten wird und NV der Durchschnittstakt wo man meist darüber ist ( bei custom aber nur knapp )
Und ja ich hasse Boost auch ^^
IMO balanciert NV seine GPUs etwas ausgewogener aus als AMD, wo es in letzter Zeit häufiger Flaschenhälse zu sehen gibt.
Da stimme ich zwar grundlegend zu, aber man könnte auch Nvidia-GPUs seit Fermi vorwerfen, dass sie "imba" sind – vor allem Fermi: brutal viel Geometrie-Leistung, aber in Relation zu wenig Arithmetik-Durchsatz. Mit Kepler wurde das Verhältnis besser, aber im Grunde ist die Polygon-Fraktion innerhalb des Chips nach wie vor völlig overpowered. Gut, 64-fache Tessellation macht daraus einen Vorteil und die Konkurrenz nass, aber mal ernsthaft: Mehr als 16x sieht keine Sau mehr ohne Screenshot & Lupe. ;)
Ähm meinst du den Vergleich ehrlich?
AMD ist der Maxtakt der nie gehalten wird und NV der Durchschnittstakt wo man meist darüber ist ( bei custom aber nur knapp )
Und ja ich hasse Boost auch ^^
Der 290X-Boost wird bei fast jedem Custom-Design gehalten, inklusive werkseitigem OC. Es gibt nur wenige Hersteller, die zwar OC auf die Packung schreiben, aber dabei das Powertune-Limit vergessen ...
MfG,
Raff
Knuddelbearli
2014-08-28, 17:58:00
bei custom ja aber da ist NV dann auch meist deutlich über dem angegeben durchschnittsboost.
Und bei Custom erreicht eben AMD nicht die 1GHz
Unicous
2014-08-28, 19:42:44
Bin mir jetzt nicht sicher, ob das schon aufgetaucht ist, bzw. Anton Shilov mal wieder sein Hinterteil befragt hat um an "Leaks" über Tonga heranzukommen:
http://www.xbitlabs.com/news/graphics/display/20140826114104_AMD_Quietly_Reveals_Third_Iteration_of_GCN_Architecture_with_Tong a_GPU.html
Er behauptet Tonga würde eine UVD 6 Unit als auch eine VCE 3.1 Unit bekommen, und Tonga wäre die 3. GCN Iteration/Generation/Version/whatever. Das würde auch zu der Carrizo-Marketing Folie passen (könnte natürlich auch sein, dass die Koinzidenz von Herrn Shilov "gewählt" wurde, andererseits so kurz vor Release wäre so eine Fehlinformation komisch).
The new code-named Tonga graphics chip is based on the third iteration of the GCN [graphics core next] architecture, which brings a number of enhancements to the GPUs. The third-gen GCN (some may call it GCN 1.2) features updated ISA instruction set to boost computing efficiency, delta-color compression (an image compression technology that encodes a row of pixels by replacing their color data with values that represent variance between subsequent pixels) to save memory bandwidth, improved tessellation performance and some other enhancements. The GCN 1.2-based GPUs and APUs also feature universal video decoder 6.0 (UVD 6), video encoder engine 3.1 (VCE 3.1) and a new scaler for better and more energy-efficient video playback.
Jedenfalls wäre es wünschenswert wenn AMD die Leistungsaufnahme bei schnöder Video/Bluray-Wiedergabe endlich mal in den Griff bekommt, wobei ich immer noch meine, es könnte auch ein simples Software- bzw. Einstellungsproblem sein.
aufkrawall
2014-08-28, 19:46:36
Mehr als 16x sieht keine Sau mehr ohne Screenshot & Lupe. ;)
Bei der Terrain-Tess in der NV Water-Demo sieht man einen riesigen Unterschied.
M4xw0lf
2014-08-28, 19:47:20
Bei der Terrain-Tess in der NV Water-Demo sieht man einen riesigen Unterschied.
Now there's a surprise.
aufkrawall
2014-08-28, 19:52:31
Now there's a surprise.
In etwa so, wie deine Reaktion. :rolleyes:
Bist du Dev und weißt, ob man auch ohne Mehraufwand mit weniger Tess eine vergleichbare Optik erreichen kann?
Weißt du natürlich nicht...
M4xw0lf
2014-08-28, 19:56:38
Hingegen weiß ich, dass Techdemos explizit dazu da sind, eine bestimmte Technologie im Bestfall zu zeigen, genau so, wie es in Spielen nie der Fall ist.
aufkrawall
2014-08-28, 19:59:30
Der Geometriegrad vom Terrain ist in so ziemlich jedem Spiel ein Witz.
Das nächste Civ soll Tess fürs Terrain nutzen. Da es keinen hohen Tess-Level nutzen wird (warum wohl btw.), wird man sehen können, ob ein höherer sinnvoll wäre.
Knuddelbearli
2014-08-28, 20:02:30
Jedenfalls wäre es wünschenswert wenn AMD die Leistungsaufnahme bei schnöder Video/Bluray-Wiedergabe endlich mal in den Griff bekommt, wobei ich immer noch meine, es könnte auch ein simples Software- bzw. Einstellungsproblem sein.
Ist nicht nur aber zu einem großen Teil eine Software Sache. AMD hat einige Bildverbesserungen ( die ihmo sogar sehr brauchbar sind ) standardmäßig eingeschaltet. Wenn man die manuell deaktiviert ist man zwar nicht auf dem selben Level wie NV aber deutlich näher dran.
aufkrawall
2014-08-28, 20:04:54
Die Videoqualität ist bei AMD sowie NV ein Graus.
DXVA-Scaling nutzt Bilinear + Sharpen, da reißens kosmetische Shader-Spielereien auch nicht raus.
Intel setzt fürs Upscaling auf Lanczos...
Edit: Quelle: madshi. Ich hoffe, ich geb ihn richtig wieder, ist schon etwas her. Könnten wir hier aber auch ganz einfach prüfen.
-/\-CruNcher-/\-
2014-08-28, 20:11:28
Das ist korrekt an Intel kommen momentan weder Nvidia noch AMD ran was den Video DSP Core angeht (Encoding/Decoding).
Intel setzt auf ein Adaptive Lanczos 4 fixed function made in Israel (entwickelt für Entertainment Elektronik) als Scaler erstes einsatzgebiet waren die Atom Socs später dann mit der Verbindung bei Sandy Bridge (2nd Generation) ist die IP dann auch in die CPU/GPU gerutscht.
Die meiste Zeit hat Intel als Video DSP PowerVR IP eingesetzt dann haben sie Angefangen ihr eigenes ding zu bauen (Quicksync) :D
Demnächst irgendwan wird der totale Umzug von PowerVR IP vollzogen sein im Mobile berreich auf ihre eigene IP :)
Unicous
2014-08-28, 20:14:36
@Knuddelbearli
Das weiß ich, sonst hätte ich es nicht so geschrieben. Dennoch sagt iirc z.B. ht4u, dass das Abschalten nichts gebracht hätte und die GPUs weiterhin in höheren Powerstates bzw. mit höherer Spannung als nötig rumeeiern.
aufkrawall
2014-08-28, 20:20:57
Das ist korrekt an Intel kommen momentan weder Nvidia noch AMD ran was den Video DSP Core angeht (Encoding/Decoding).
Intel setzt auf ein Adaptive Lanczos 4 fixed function made in Israel als Scaler
Jedenfalls wär man ziemlich dämlich, wenn man diese Verschlimmbesserungen NEEDI3-Scaling vorziehen würde ;) :
Nvidia DXVA (AMD wohl kaum besser):
http://abload.de/thumb/dxva5sskc.png (http://abload.de/image.php?img=dxva5sskc.png)
madVR NNEDi3 64neurons + Lumasharpen:
http://abload.de/thumb/nnedi9cs8k.png (http://abload.de/image.php?img=nnedi9cs8k.png)
Bei dem Unterschied ist mir der Stromverbrauch vollkommen wumpe. Das eine sieht einfach zum Abkotzen aus, das andere nicht.
Unicous
2014-08-28, 20:24:53
Ich sehe keinen Unterschied. Beides sieht beschissen aus.*
(*Liegt aber am Quellmaterial:P)
aufkrawall
2014-08-28, 20:30:05
(*Liegt aber am Quellmaterial:P)
Ja, sind üble Artefakte drin.
Trotzdem sollte der Unterschied an den Konturen aber sehr deutlich auffallen, Aliasing und Coronas/Ringing sind mit NNEDI3 trotz Sharpening-Filter im Vergleich fast nicht mehr vorhanden.
Es kann nur halt bestimmte Muster etwas verändert darstellen, eine kaum wahrnehmbare Kontur vom Reißbrett verschwindet quasi.
Das bemerkt man aber beim normalen Schauen nicht, der sonstige Bildeindruck ist zigfach besser.
Unicous
2014-08-28, 20:37:46
Ich bezog mich eher auf "Quell-Quellmaterial" (American Dad oder Family Guy oder was das ist):freak:.
Natürlich ist subjektiv das zweite Bild "besser". Dafür sieht es auf den zweiten Blick verwaschen aus, als wäre ein Soap Filter drüber gelegt worden. Sieht man besonders gut bei der Frau. Scharf ist anders.
aufkrawall
2014-08-28, 20:54:22
Das Bild ist um den Faktor 16 vergrößert.
Unicous
2014-08-28, 21:02:37
Und?
Die Konturen bei der Frau scheinen dennoch übertrieben zu sein und dadurch entsteht ein Soap Effekt.
edit:
Nicht Soap Effekt. Wie heißt das denn noch mal. Synonym zu "überzeichnet".
(Außerdem ist das Alles eigentlich gar nicht Thema hier)
aufkrawall
2014-08-28, 21:12:45
Meinst du Ghosting? Kann sein, kann aber auch aus dem Bewegtbild stammen. Hab nicht lange nach einer passenden Szene gesucht.
Abgesehen davon solltest du mal Versuche machen, wie sich welche Scaling-Algos bei welcher Vergrößerung wie auswirken etc. Kann sehr erhellend sein.
Es ist ja nicht ganz OT, AMD & NV sollten bessere Scaler verbauen. Versuchen, mit Postfiltern den Schrott zu übertünchen, hat was von Wein panschen.
Unicous
2014-08-28, 21:38:29
Genau das behauptet doch Anton Shilov in dem Artikel. Es wurde ein besser und effizienterer Scaler implementiert. Inwiefern er besser sein soll würde sich dann frühestens am 2.September herausstellen. Ich hoffe auf Anandtech, die sich dem Thema ja schon öfter angenommen haben.
Jedenfalls wär man ziemlich dämlich, wenn man diese Verschlimmbesserungen NEEDI3-Scaling vorziehen würde ;) :
Nvidia DXVA (AMD wohl kaum besser):
http://abload.de/thumb/dxva5sskc.png (http://abload.de/image.php?img=dxva5sskc.png)
madVR NNEDi3 64neurons + Lumasharpen:
http://abload.de/thumb/nnedi9cs8k.png (http://abload.de/image.php?img=nnedi9cs8k.png)
Bei dem Unterschied ist mir der Stromverbrauch vollkommen wumpe. Das eine sieht einfach zum Abkotzen aus, das andere nicht.
Der Unterschied ist tatsächlich gigantisch. Hoffen wir, dass AMD sich daran annähert.
MfG,
Raff
Unicous
2014-08-29, 00:31:38
Was ist denn bei Denen wieder kaputt?
https://www.youtube.com/watch?v=dTB2Uk43LKU
dTB2Uk43LKU
Zuerst bewirft man sich mit Schmutz und dann lässt man sich wieder kuschelnd und knutschend in der Öffentlichkeit sehen. Ich habe es mir noch nicht angeschaut, aber der Origin PC CEO tätschelt eine 285 und das heißt dann ja wohl, dass sie AMD in Zukunft wieder in ihre PCs einbauen. Vielleicht wollte Herr Wasielewski mit seinem Public Shaming nur einen ordentlichen Rabatt herausschlagen.:freak:
edit:
Bis jetzt ist das Ganze relativ uninformativ. Viel chitty chatty und die "Redakteure" von MAXIMUM PC haben noch nie etwas von knallhartem Nachfragen gehört. Irgendwie haben die immer Schiss, kritische Fragen zu stellen und nachzuhaken, wenn keine ordentliche Antwort kommt.
Das R9 285 Refernzmodell (2GB) soll unter 40dB bleiben, behauptet Roy.
Roy ist der joviale Erzählonkel, aber es kommt nicht viel Konkretes bei rum. Origin und AMD teilen sich ab sofort wieder das Bett und haben sich versprochen gegenseitig anzurufen wenn etwas ist und die Ehe ist somit gerettet.
Roy hat ein Benchmarking-Tool geteasert, auf die Frage was mit Mantle und FRAPS abgeht. Ansonsten viel bla bla. (Besonders von den Redakteuren :rolleyes:)
-/\-CruNcher-/\-
2014-08-29, 03:37:33
Der Unterschied ist tatsächlich gigantisch. Hoffen wir, dass AMD sich daran annähert.
MfG,
Raff
Naja da du die Ergebnise eh schon kennst denke ich mal anhand deiner Aussage ist das nicht ganz der Fall ;)
Nakai
2014-08-29, 09:05:25
Wie man's nimmt, Tonga könnte mit 1.536 ALUs und gleichem Takt einer GTX 770 vermutlich Paroli bieten. Letztere arbeitet ja gewöhnlich mit 1.084 MHz (typischer Boost), im Falle aller OC-Designs meist deutlich mehr; die R9 285 nur mit 918 MHz. AMD spricht auf den öffentlichen Slides IIRC von "up to 15 % faster" gegenüber der GTX 760, was ich für etwas pessimistisch halte. Taktnormalisiert, also wenn man die 285 auf 1.084 MHz übertaktet (+18 %), kommt man wohl an der GTX 770 vorbei, hat aber dabei natürlich noch 17 Prozent mehr Rechenwerke.
MfG,
Raff
Die R9 285 wird eher auf R9 280X-Niveau sein. Bei höheren Auflösungen, wegen weniger VRAM dementsprechend darunter.
Ich bin eher auf die R9 285X gespannt, aber ich hoffe nicht, dass der Stromverbauch in die Höhe schießt. R9 285X sollte R9 280X +~20% sein, was eher GTX 780 und R9 290-Niveau ist.
robbitop
2014-08-29, 09:05:59
Ähm meinst du den Vergleich ehrlich?
AMD ist der Maxtakt der nie gehalten wird und NV der Durchschnittstakt wo man meist darüber ist ( bei custom aber nur knapp )
Und ja ich hasse Boost auch ^^
Ich hasse Boost! :mad:
Wobei ja die 290X im Ubermode mit sehr lautem Lüfter den Takt schon halten sollte.
robbitop
2014-08-29, 09:12:43
Der Unterschied ist tatsächlich gigantisch. Hoffen wir, dass AMD sich daran annähert.
MfG,
Raff
Wer braucht denn heutzutage noch eine Skalierung bei Videomaterial? Ich (und sicher heute die meisten Leute) habe mittlerweile alles in FullHD. Serien, Filme. Da muss nichts mehr vergrößert werden (bis 4K kommt).
SD Konserven gehören entsorgt. Zumal die BQ am Ende wesentlich besser bei nativem FullHD ist als bei aufgeblasenem SD.
Die R9 285 wird eher auf R9 280X-Niveau sein. Bei höheren Auflösungen, wegen weniger VRAM dementsprechend darunter.
Nicht bei dem Takt und der Bandbreite. GTX 760 +15 % sind noch gute 10-15 % unterhalb der 280x.
Ich bin eher auf die R9 285X gespannt, aber ich hoffe nicht, dass der Stromverbauch in die Höhe schießt. R9 285X sollte R9 280X +~20% sein, was eher GTX 780 und R9 290-Niveau ist.
Du erwartest zu viel. Die 285X hat 15 % mehr Recheneinheiten. Ggf kommen nochmal 8-10 % mehr GPU Takt drauf. Und wir alle wissen ja, dass Radeons nicht linear mit den Einheiten skalieren sondern eher 50-60 %.
Am Ende hat die 285X dann 15-20 % mehr Leistung als die 285. Damit ist man dann, wenn es gut läuft, ~10 % über der 280X. Also zwischen 280X und 290.
Damit die Karte das packt, tippe ich auf 4 GiB RAM und ~ 30 % höheren Takt.
dargo
2014-08-29, 09:59:52
Und wir alle wissen ja, dass Radeons nicht linear mit den Einheiten skalieren sondern eher 50-60 %.
Ähm... was? :confused:
Die hier getestete R9 280X ist im Schnitt 20% schneller als die R9 280 non X.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/
Unter Berücksichtigung der Shadereinheiten + Takt ergibt das bei der R9 280X +22%. Es gibt natürlich auch Spiele die 1:1 mit den 22% durchschlagen. Eben dann wenn Shaderleistung gefordert wird.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/3/
Edit:
Übrigens sieht man bei CB, dass die R9 280 non X 13% vor der GTX760 in BF4 liegt (AMD spricht ja von +15% zwischen R9 285 und GTX760). Sind zwar keine High Details sondern Ultra. Da dürfte sich aber auf beiden Seiten kaum was ändern. Somit ist die R9 285 für mich völlig langweilig. Es ist eine R9 280 non X @ca. 960Mhz. Was bleibt ist nur der niedrigere Verbrauch. Aber auch das sollte man nicht überbewerten bei kastriertem SI und 1GB weniger Vram.
fondness
2014-08-29, 10:18:46
Ähm meinst du den Vergleich ehrlich?
AMD ist der Maxtakt der nie gehalten wird und NV der Durchschnittstakt wo man meist darüber ist ( bei custom aber nur knapp )
Und ja ich hasse Boost auch ^^
Das kommt noch dazu das die Kepler-Karte häufig auch höher boostet. Die AMD-Karte sollte zumindest in den meisten Fällen im Uber-Mode den Takt halten.
Nicht bei dem Takt und der Bandbreite. GTX 760 +15 % sind noch gute 10-15 % unterhalb der 280x.
Der 3dmark extreme Wert liegt weit mehr als 15% vor einer GTX760, auf dem Niveau der 280X.
Du erwartest zu viel. Die 285X hat 15 % mehr Recheneinheiten. Ggf kommen nochmal 8-10 % mehr GPU Takt drauf. Und wir alle wissen ja, dass Radeons nicht linear mit den Einheiten skalieren sondern eher 50-60 %.
Am Ende hat die 285X dann 15-20 % mehr Leistung als die 285. Damit ist man dann, wenn es gut läuft, ~10 % über der 280X. Also zwischen 280X und 290.
Damit die Karte das packt, tippe ich auf 4 GiB RAM und ~ 30 % höheren Takt.
Die Skalierung wird bei einem 4-fach Frontend mit nur 32CUs besser aussehen als bei Tahiti oder Hawaii. 2048SPs bei >1Ghz sollte durchaus in die Nähe der GTX780 kommen wenn die Bandbreite nicht zum Flaschenhals wird.
Nakai
2014-08-29, 10:25:33
Der einzige Chip der vergleichbar ist, ist Hawaii...und dieser ist nicht viel vor Tahiti.
dargo
2014-08-29, 10:48:02
Die Skalierung wird bei einem 4-fach Frontend mit nur 32CUs besser aussehen als bei Tahiti oder Hawaii. 2048SPs bei >1Ghz sollte durchaus in die Nähe der GTX780 kommen wenn die Bandbreite nicht zum Flaschenhals wird.Die GTX780 ist auch nichts besonderes. Die ist im Schnitt bei CB gerade mal lächerliche 13% vor R9 280X @1600p. Bei 2048SPs + 10% Takt würde ich eine R9 285X knapp (~8%) unter der GTX780 erwarten, sofern die Bandbreite nicht limitiert.
robbitop
2014-08-29, 11:28:45
Ähm... was? :confused:
Die hier getestete R9 280X ist im Schnitt 20% schneller als die R9 280 non X.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/
Unter Berücksichtigung der Shadereinheiten + Takt ergibt das bei der R9 280X +22%. Es gibt natürlich auch Spiele die 1:1 mit den 22% durchschlagen. Eben dann wenn Shaderleistung gefordert wird.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/3/
Bei R290 (gleicher Bench) ggü R290x ist das aber kaum zu sehen. Auch wenn ich mich an die 7970 vs 7950 Benchmarks erinnere, war die Skalierung kaum über den Wert, den der Mehrtakt erzeugte.
Käsetoast
2014-08-29, 11:33:00
Wer braucht denn heutzutage noch eine Skalierung bei Videomaterial? Ich (und sicher heute die meisten Leute) habe mittlerweile alles in FullHD. Serien, Filme. Da muss nichts mehr vergrößert werden (bis 4K kommt).
SD Konserven gehören entsorgt. Zumal die BQ am Ende wesentlich besser bei nativem FullHD ist als bei aufgeblasenem SD.
Gibt doch noch genug SD Material - gerade viele TV Serien sind SD und werden es oftmals auch für immer bleiben (Ausnahmen wie Star Trek wo die Effekte mehr oder weniger neu produziert werden mal außen vor). Auch kann man sich bei Filmen nicht immer auf die Hersteller verlassen wie etwa beim Predator Wachsgesicht DNR Desaster der Blu-Rays...
robbitop
2014-08-29, 11:36:23
Das kommt noch dazu das die Kepler-Karte häufig auch höher boostet. Die AMD-Karte sollte zumindest in den meisten Fällen im Uber-Mode den Takt halten.
Deswegen habe ich ja Ubermode (max) im Vergleich genommen.
Der 3dmark extreme Wert liegt weit mehr als 15% vor einer GTX760, auf dem Niveau der 280X.
Und wir alle wissen ja, wie aussagekräftig 3dmark ist...
Die Skalierung wird bei einem 4-fach Frontend mit nur 32CUs besser aussehen als bei Tahiti oder Hawaii. 2048SPs bei >1Ghz sollte durchaus in die Nähe der GTX780 kommen wenn die Bandbreite nicht zum Flaschenhals wird.
Wir werden sehen. Hawaii skaliert trotz 4-fach Frontend (R290 ggü R290x) ja auch nicht so besonders.
Ich wäre der erste, der sich freut, wenn Tonga an eine 780/R290 herankäme. Aber ich denke eher, dass es zwischen R280X und R290 bleiben wird. Passt dann von der Einordnung in's Portfolio auch.
R290 hat 2560 SPs. Da mit nur 2048 SPs heranzukommen halte ich für übermütig. Es sei denn, man packt nochmal richtig die Taktkeule aus.
dargo
2014-08-29, 11:42:03
Bei R290 (gleicher Bench) ggü R290x ist das aber kaum zu sehen. Auch wenn ich mich an die 7970 vs 7950 Benchmarks erinnere, war die Skalierung kaum über den Wert, den der Mehrtakt erzeugte.
Wie denn auch wenn die Speicherbandbreite bei R9 290 non X identisch zu R290X ist?
robbitop
2014-08-29, 11:57:03
Wie denn auch wenn die Speicherbandbreite bei R9 290 non X identisch zu R290X ist?
IIRC sind die kein echter Flaschenhals für die 290x. Diese profitiert sehr stark von der Anhebung des Chiptaktes. Und das spricht eher für einen Flaschenhals, der in der GPU sitzt.
dargo
2014-08-29, 12:07:42
IIRC sind die kein echter Flaschenhals für die 290x. Diese profitiert sehr stark von der Anhebung des Chiptaktes. Und das spricht eher für einen Flaschenhals, der in der GPU sitzt.
Speicherbandbreite ist immer ein Flaschenhals. Mal weniger, mal stärker ausgeprägt. Kein IHV ist so dämlich, dass er dermaßen viel Bandbreite einer GPU verpasst, dass diese überhaupt nicht mehr limitiert. Das wäre Geldverschwendung. Im Prinzip hätte man Hawaii XT eher 1400Mhz GDDR5 spendieren sollen. Da spielt aber wohl der IMC nicht mit, schätze ich.
fondness
2014-08-29, 12:41:37
Deswegen habe ich ja Ubermode (max) im Vergleich genommen.
Ändert nichts daran das die 780Ti im Schnitt höher als mit den von dir genannten 928Mhz taktet:
http://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/3/
Und wir alle wissen ja, wie aussagekräftig 3dmark ist...
Also bei den anderen Chips passt die Einordnung recht gut, also warum sollte der Vergleich nicht zulässig sein?
http://www.computerbase.de/2013-11/nvidia-geforce-gtx-780-ti-vs-gtx-titan-test/15/
Ist aber auch egal, wir werden es eh bald erfahren.
Dural
2014-08-29, 12:46:56
Hawaii hat sicher mehr als genug Bandbreite.
Die 290x Karten skalieren auch einen Tick besser als die GTX780Ti bei hohem OC, ab ca. 1300MHz Core Takt spürt man die 384Bit einfach schon.
Jedoch lässt sich Hawaii leider nicht wirklich gut Übertakten und somit wird man nie einen genauen Vergleich pro MHz erhalten.
Ich denke Hawaii, wie so immer bei AMD Chips skalieren einfach schlecht mit den Einheiten. Auch Kepler Skaliert nicht super, die früheren Hot Clock Chips von NV waren in dieser Hinsicht Paradebeispiele von fast 1:1 Pro Einheit. NV geht mit Maxwell ja wieder etwas in diese Richtung.
dargo
2014-08-29, 12:55:08
Hawaii hat sicher mehr als genug Bandbreite.
Quelle?
Edit:
Übrigens sieht man an der R9 295X bei CB, dass diese in einigen Games quasi zu 100% gegenüber einer R9 290X skaliert sofern das CF-Profil passt. Ich gehe immer noch davon aus, dass die Speicherbandbreite bei der R9 290X etwas limitiert. Das erklärt natürlich nicht wenn sie nur 2-3% schneller als eine R9 290 non X ist. Sie sollte theoretisch 16% schneller sein. Hier würde ich mich allerdings fragen... kann der 1000Mhz Takt überhaupt durchgehend wärend des Tests gehalten werden? Afaik verwendet die CB das Refernzdesign.
fondness
2014-08-29, 13:18:41
Hawaii profitiert stärker von mehr Bandbreite als GK110.
reaperrr
2014-08-29, 13:40:49
Hawaii profitiert stärker von mehr Bandbreite als GK110.
Jep. GCN scheint einerseits generell etwas hungriger nach Bandbreite zu sein als Kepler, andererseits hat GK110 auch doppelt so viel L2-Cache wie Hawaii.
Eine 290X hat 37,5% mehr ALU/TMU-Power pro MHz als die 280X, aber eben nur magere 4% mehr Speicherbandbreite und auch nur 25% mehr L2-Cache.
Wenn Pitcairn XT mit 512KB L2, 4,8 GHz Speichertakt und 20 CUs schon relativ stark bandbreitenlimitiert ist, trifft das logischerweise auf Hawaii XT mit doppeltem L2, kaum mehr als doppelter Bandbreite, aber mehr als doppelt so vielen CUs erst recht zu.
Was das Verhältnis von Rohleistung zu L2 und Speicherbandbreite angeht, ist die 290 non-X ganz klar die ausbalanciertere Hawaii-SKU.
Tesseract
2014-08-29, 14:10:36
Hawaii profitiert stärker von mehr Bandbreite als GK110.
hast du dazu eine quelle? wenn ich auf der 290 bei konstanten 1060MHz am core den vram von 800 auf 1400 erhöhe (+75%) kommen unterm strich effektiv um die 5-15% mehr fps raus, das ist extrem wenig. unterschiede beim coretakt wirken sich um ein vielfaches stärker aus.
Dural
2014-08-29, 14:32:06
Quelle?
Was für eine Quelle? Die Begründung steht ja in meinem Post: Hawaii Skaliert mit mehr Takt sehr gut.
Wenn die Bandbreite zu gering wäre, wäre dies gar nicht möglich ;)
Ich gehe sogar soweit und behaupte das Hawaii mehr als genug Bandbreite hat. Es gab Grafikkarte die extrem an der Bandbreite gehangen sind, 8600GT oder 8800GT fallen mir da spontan ein. Ab einem gewissen OC Takt skalierte der Core Takt quasi gar nicht mehr weil nicht mehr Bandbreite zur Verfügung standen. Die 9600GT zb. mit 256Bit konnte man Takten ohne ende und die Leistung kam auch auf der Strasse an.
dargo
2014-08-29, 14:46:06
Was für eine Quelle? Die Begründung steht ja in meinem Post: Hawaii Skaliert mit mehr Takt sehr gut.
Wenn die Bandbreite zu gering wäre, wäre dies gar nicht möglich ;)
Du verstehst es immer noch nicht oder? Wo skaliert bsw. Hawaii XT 1:1 mit 4xMSAA mit wenn du nur den GPU-Takt um sagen wir mal 15% anhebst ohne an der Speicherbandbreite zu drehen? Dass Hawaii mit mehr GPU-Takt noch skaliert ist völlig normal. Alles andere wäre auch ein Witz. Dann hätte AMD Hawaii deutlich zu wenig Bandbreite zur Seite gestellt. Limits gehen übrigens ineinander über. Es gibt nicht nur 100% die eine (Rohleistung) oder andere Seite (Bandbreite).
Edit:
Hier ist übrigens ein netter Test.
http://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/15/
Ich sehe dort bis zu +8% bei +22% mehr Bandbreite.
robbitop
2014-08-29, 14:46:44
hast du dazu eine quelle? wenn ich auf der 290 bei konstanten 1060MHz am core den vram von 800 auf 1400 erhöhe (+75%) kommen unterm strich effektiv um die 5-15% mehr fps raus, das ist extrem wenig. unterschiede beim coretakt wirken sich um ein vielfaches stärker aus.
Sage ich doch. Die Skalierungs"probleme" kommen aus der GPU.
Du verstehst es immer noch nicht oder? Wo skaliert bsw. Hawaii XT 1:1 mit 4xMSAA mit wenn du nur den GPU-Takt um sagen wir mal 15% anhebst ohne an der Speicherbandbreite zu drehen? Dass Hawaii mit mehr GPU-Takt noch skaliert ist völlig normal. Alles andere wäre auch ein Witz. Dann hätte AMD Hawaii deutlich zu wenig Bandbreite zur Seite gestellt. Limits gehen übrigens ineinander über. Es gibt nicht nur 100% die eine (Rohleistung) oder andere Seite (Bandbreite).
Von vollständigen Limits spricht auch keiner. Sondern eher von Tendenzen. Hawaii ist mehr GPU Takt limitiert als Bandbreitenl imitiert.
Dural
2014-08-29, 14:52:43
Was ist das für ein Vergleich? Es ist normal das eine GPU ohne Speichertakt Anhebung nicht 1:1 skaliert. Das bedeutet noch lange nicht das die GPU komplett an der Bandbreite hängt.
Ich finde es sowieso sehr Speziell bei 512Bit von zu wenig Bandbreite zu sprechen wenn es eine GPU gibt die mit 384Bit das gleich rausholt oder sogar etwas mehr ;)
Die R9 285 wird eher auf R9 280X-Niveau sein. Bei höheren Auflösungen, wegen weniger VRAM dementsprechend darunter.
Das halte ich für ziemlich optimistisch (im Mittel). Tahiti wird gern nachgesagt, dass er schlecht skaliert, doch das gilt nur für <= Full HD. Mittlerweile, also in neuen Spielen mit aktuellen Treibern, ist eine HD 7970 Vanilla ziemlich gut mit einer GTX 770 vergleichbar, sofern man jenseits von Full HD unterwegs ist. Und die 280X liegt nochmal 6-8 Prozent darüber.
Wer braucht denn heutzutage noch eine Skalierung bei Videomaterial? Ich (und sicher heute die meisten Leute) habe mittlerweile alles in FullHD. Serien, Filme. Da muss nichts mehr vergrößert werden (bis 4K kommt).
SD Konserven gehören entsorgt. Zumal die BQ am Ende wesentlich besser bei nativem FullHD ist als bei aufgeblasenem SD.
Huh? Also ich kaufe mehrere DVDs im Jahr (die sind oft schön billig), die keineswegs HD oder gar Full HD kennen. Da ist vernünftiges Upscaling am 46-Zöller Gold wert. Nicht jeder "kauft" seine HD-Filme im Internet. :freak: Bei Blu-rays ist's halb so wild, das sieht idR vernünftig aus.
MfG,
Raff
dargo
2014-08-29, 14:55:48
Was ist das für ein Vergleich? Es ist normal das eine GPU ohne Speichertakt Anhebung nicht 1:1 skaliert. Das bedeutet noch lange nicht das die GPU komplett an der Bandbreite hängt.
Lies doch einfach den Link oben im Edit.
Ich finde es sowieso sehr Speziell bei 512Bit von zu wenig Bandbreite zu sprechen wenn es eine GPU gibt die mit 384Bit das gleich rausholt oder sogar etwas mehr ;)
Der Vergleich hinkt gewaltig falls du auf GK110 schielst. Letzterer verwendet bis zu 1750Mhz Speicher und hat größere Caches. Trotz kleinerem SI hat eine GTX Titan Black 5% mehr Bandbreite.
robbitop
2014-08-29, 14:56:42
So ziemlich jeder VoD Store zeigt heute alles in FullHD. Da muss man nichts kaufen, wenn man nicht will.
robbitop
2014-08-29, 14:58:34
Edit:
Hier ist übrigens ein netter Test.
http://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/15/
Ich sehe dort bis zu +8% bei +22% mehr Bandbreite.
Der Test sagt wenig aus. Dort wird der Speicher massiv untertaktet und nicht übertaktet. Also eine völlig andere Balance und anderer Arbeitspunkt. Außerdem versaut man auch noch die Timings, was eine weitere Störgröße ist.
So ziemlich jeder VoD Store zeigt heute alles in FullHD. Da muss man nichts kaufen, wenn man nicht will.
Ich gehöre zum alten Schlag der Jäger und Sammler, möchte also Dinge besitzen statt sie nur zu mieten. :)
MfG,
Raff
dargo
2014-08-29, 15:02:05
Sage ich doch. Die Skalierungs"probleme" kommen aus der GPU.
Er spricht von einer 290, nicht 290X. Dass erstere weniger an der Bandbreite hängt erklärt sich von selbst. Er hat sie zwar auf 1060Mhz getaktet, das reicht aber noch nicht ganz. 1100Mhz wären richtig. Und diese Angaben von 5-15% sagen mir erstmal gar nichts. Unter welchen Bedingungen wurde getestet und mit welchen Spielen?
Der Test sagt wenig aus. Dort wird der Speicher massiv untertaktet und nicht übertaktet.
Oh man... was hat nochmal Hawaii für einen Takt beim Speicher? Richtig... 2500Mhz (korrekt wären eher 1250Mhz).
aufkrawall
2014-08-29, 15:03:35
Wer braucht denn heutzutage noch eine Skalierung bei Videomaterial? Ich (und sicher heute die meisten Leute) habe mittlerweile alles in FullHD. Serien, Filme. Da muss nichts mehr vergrößert werden (bis 4K kommt).
4k ist nur wenige Monate weg.
Bei vervierfachter Auflösung fallen schon wieder überdeutlich Skalierungsartefakte an.
Übrigens lad ich mir ständig irgendwelche Trailer oder Game-Videos, die nicht 1080p sind.
Und selbst 1080p sehen mit bilinearer Skalierung auf 1440p beschissen aus.
Dural
2014-08-29, 15:03:38
Lies doch einfach den Link oben im Edit.
Der Vergleich hinkt gewaltig falls du auf GK110 schielst. Letzterer verwendet bis zu 1750Mhz Speicher und hat größere Caches. Trotz kleinerem SI hat eine GTX Titan Black 5% mehr Bandbreite.
Der Test ist doch nichts Spezielles, das kann man mit fast jeder Grafikkarte und +/- selben Ergebnis machen. 4% mehr bei 550MHz mehr Takt an 512Bit finde ich sogar recht wenig. Das sind immerhin 70GB/s mehr Bandbreite!
Käsetoast
2014-08-29, 15:05:37
Ich gehöre zum alten Schlag der Jäger und Sammler, möchte also Dinge besitzen statt sie nur zu mieten. :)
Zumal man auch vom Betreiber aufgeblähtes SD bekommen kann, wo es auch eher unwahrscheinlich ist, dass da gute Scaler zum Einsatz kommen - dann lieber selber das SD Material haben und wissen wie und womit da hochgerechnet wird. Wäre wirklich schick wenn Tonga in der Beziehung Verbesserungen einführen würde...
Aber AMD scheint die Leaks wirklich sehr gut im Griff zu haben - der Release steht nur noch wenige Tage vor der Tür, aber konkrete Infos zu den interessanten Details oder glaubhafte Gerüchte sind immer noch Mangelware...
Nakai
2014-08-29, 15:08:06
Das halte ich für ziemlich optimistisch (im Mittel). Tahiti wird gern nachgesagt, dass er schlecht skaliert, doch das gilt nur für <= Full HD. Mittlerweile, also in neuen Spielen mit aktuellen Treibern, ist eine HD 7970 Vanilla ziemlich gut mit einer GTX 770 vergleichbar, sofern man jenseits von Full HD unterwegs ist. Und die 280X liegt nochmal 6-8 Prozent darüber.
Im Mittel sicherlich. In FullHD oder kleiner sollte Tonga näher dran sein. Alles darüber eher nicht.
dargo
2014-08-29, 15:25:51
Der Test ist doch nichts Spezielles, das kann man mit fast jeder Grafikkarte und +/- selben Ergebnis machen. 4% mehr bei 550MHz mehr Takt an 512Bit finde ich sogar recht wenig. Das sind immerhin 70GB/s mehr Bandbreite!
Dann hast du entweder die falschen Settings oder Spiele gewählt. Bei CB sind es wie gesagt bis zu 8%. Und mir ist bei CB noch was aufgefallen. Der Grund warum zb. hier Anno 2070:
http://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/15/
nur mit 1% bei 3050Mhz Speicher skaliert ist einfach weil FXAA verwendet wurde. MSAA wurde gar nicht benutzt (weiß jetzt nicht ob das Game überhaupt MSAA unterstützt) wo gerade Bandbreite gefordert wird. Das sieht man an diesem Ergebnis:
http://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/6/#diagramm-anno-2070-2560-1600
Bei Alan Wake wurde 4xMSAA benutzt und es schlagen auch 7% durch bei 22% mehr Bandbreite. Gleiches gilt für Crysis 3 wo 8% durchschlagen.
aufkrawall
2014-08-29, 15:37:36
Anno 2070 hat kein MSAA.
Hawaii XT scheint definitiv etwas bandbreitenabhängiger zu sein als GK110. Letzterer ist ohne MSAA selbst bei hohen Taktraten (+1200Mhz) nur minimal im Bandbreitenlimit. Das sähe bei Hawaii sicher ander aus, wenn CB schon mit 1Ghz deutliche Unterschiede mit MSAA feststellt.
Allerdings mögen beide VRAM-OC nicht sehr gerne. Habe mehrere 290s und mehrere 780 Tis ausprobiert und bei bestimmten Compute-Szenarien crashte es irgendwann schon mit geringer Taktanhebung.
Bei der Ti gehen wenigstens 3,6Ghz durchgängig, mit Hawaii gabs schon mit +50Mhz Crashes in Risen 2 mit extremer HiRes (frustrierende Blackscreen-Geschichten).
Anno 2070 bietet ab Werk nur Shader-AA.
€dit: Mäh, der Thread hat ja noch eine Seite :ugly:
MfG,
Raff
Hübie
2014-08-29, 16:14:09
Ich will euch nicht die Diskussion vermiesen, aber a) ist das eher fallabhängig was besser skaliert und b) kann man nur 2 clock domains anheben. Intern gibt's aber noch einiges mehr (display, crossbar, caches..) und die sind in modernen GPUs unabhängig. Also muss am Ende eh wieder synchronisiert werden. Im Falle von VRAM-OC kann es sogar sein dass Fehlerkorrektur greift und am Ende die gewonnene Leistung in keiner Relation zum Mehrverbrauch steht.
Wie kamt ihr auf dieses elendige Thema schon wieder? Abstruse Vorstellungen was Tonga alles wegputzen würde? Haltet den Ball flach. Tahiti<->Hawaii konnte auch nur sehr wenig Perf/mm² gewinnen. Was soll Tonga da jetzt zaubern - mit einem 50% schmaleren SI?
Knuddelbearli
2014-08-29, 16:24:24
Abstruse Vorstellungen was Tonga alles wegputzen würde? Haltet den Ball flach. Tahiti<->Hawaii konnte auch nur sehr wenig Perf/mm² gewinnen.
Gebe dir zwar recht mit den übertriebenen Erwartungen aber bei der Aussage da oben vergisst du um wieviel mehr DP Performance Hawaii hat was auch sicher nicht gerade wenig Fläche frisst
Unicous
2014-08-29, 16:27:38
@Hübie
Zaubern nicht, aber AMD scheint schon einigermaßen zuversichtlich, dass Tonga das "kleinere" SI ausgleichen kann, daher frage ich mich wie sich die Neuerungen die Anton Shilov bei xbitlabs/Kitguru gespoilert hat
updated instruction set architecture (ISA) fraglich ob das kurzfristig Auswirkungen hat
improved tessellation/geometry processing performance schon von Hawaii bekannt, fraglich wie es sich auf die Performance auswirkt
reduce requirements for memory bandwidth and improve performance in high resolutions, the GCN 1.2 supports delta colour compression fraglich wie es sich auf den frame buffer "verbrauch" auswirkt
auswirken werden oder ob es wirklich nur lächerliche bullet points sind um Innovation vorzugaukeln. Tonga ist mE nich so langweilig wie von Vielen postuliert und ich bin weiterhin gespannt auf die Reviews.
Dieses allgemeine Naysaying ist einfach nur langweilig,( zumal sich die Liste potentieller Käufer hier im Thread und Forum eh in Grenzen hält würde ich mal behaupten).
Hübie
2014-08-29, 16:27:40
Perf/mm2 ist ökonomisch mit der wichtigste Aspekt. Warum soll ich das vergessen?
@Unicous: Die Kompression spart schätzungsweise Bandbreite aber kein VRAM. Eine aktualisierte ISA ist auch nicht gleichbedeutend mit mehr Performance sondern eher erhöhte Effizienz. Ich spreche Tonga keinerlei Qualitäten ab, aber ich versuche die Kirche im Dorf zu lassen ;)
Nakai
2014-08-29, 16:41:47
Naja ARM behauptet, dass ihre Kompression bis zu 50% Bandbreite spart. Dabei geht man auf hohe Auflösungen ein. Eine FBC sollte bei höheren Auflösungen mehr bringen, da die Bildentropie auf größere Bereiche verteilt ist und somit der FBC besser greift. Klingt stark nach der höheren Effizienz bei größeren Auflösungen.
Gipsel
2014-08-29, 16:50:01
Naja ARM behauptet, dass ihre Kompression bis zu 50% Bandbreite spart. Dabei geht man auf hohe Auflösungen ein. Eine FBC sollte bei höheren Auflösungen mehr bringen, da die Bildentropie auf größere Bereiche verteilt ist und somit der FBC besser greift. Klingt stark nach der höheren Effizienz bei größeren Auflösungen.Die 50% sind wohl eher best case für einfachere Bildschirminhalte bei Mobilgeräten. Ich würde im Schnitt nicht über 30% gesparte Bandbreite erwarten, außerdem betrifft es ja nur die ROP-Operationen, also Szenarien, die viel Füllrate benötigen. Hmm, wobei das z.B. beim Berechnen von Shadowmaps schon ganz schön reinhauen könnte, also im Einzelfall wohl auch deutlich mehr bringen dürfte. Aber über das komplette Frame gemittelt würde ich außerhalb von Spezialfällen nicht mehr als 30% erwarten. Aber das ist ja schon ganz ordentlich (erlaubt ~40% höhere Performance für ROP-Operationen bei gleicher Bandbreite).
-/\-CruNcher-/\-
2014-08-29, 17:09:22
Die 50% sind wohl eher best case für einfachere Bildschirminhalte bei Mobilgeräten. Ich würde im Schnitt nicht über 30% gesparte Bandbreite erwarten, außerdem betrifft es ja nur die ROP-Operationen, also Szenarien, die viel Füllrate benötigen. Hmm, wobei das z.B. beim Berechnen von Shadowmaps schon ganz schön reinhauen könnte, also im Einzelfall wohl auch deutlich mehr bringen dürfte. Aber über das komplette Frame gemittelt würde ich außerhalb von Spezialfällen nicht mehr als 30% erwarten. Aber das ist ja schon ganz ordentlich (erlaubt ~40% höhere Performance für ROP-Operationen bei gleicher Bandbreite).
Naja ein guter vergleich ist ja relativ schnell machbar da die GTX 960 ja schon im Oktober einschlagen soll laut Nvidias hidden counter PR zumindest :)
Sehr interessant ist das dem Anschein nach Nvidia jetzt sehr schnell reagieren möchte press event am liebsten schon morgen das sah letztes jahr noch anders aus ;)
Man weiss wie wichtig diese Karten sind und wenn Nvidia AMDs Verspätung zerbrechen kann haben sie wieder einmal einen strategischen Sieg davon getragen ;)
Wie gesagt es kommt jetzt auf viele Faktoren an von DX12 Featureset bis zu Mantle überlegenheit hier werden wir auch einen Compute bassierten Okösystemkampf erleben wie niemals zuvor ;)
fondness
2014-08-29, 17:14:01
Abstruse Vorstellungen was Tonga alles wegputzen würde? Haltet den Ball flach. Tahiti<->Hawaii konnte auch nur sehr wenig Perf/mm² gewinnen. Was soll Tonga da jetzt zaubern - mit einem 50% schmaleren SI?
Wo genau ließt du abstruse Vorstellungen von Tonga?
mczak
2014-08-29, 17:28:00
Hmm, wobei das z.B. beim Berechnen von Shadowmaps schon ganz schön reinhauen könnte, also im Einzelfall wohl auch deutlich mehr bringen dürfte.
Shadowmaps entstehen doch im Z-Buffer. Und Z-Buffer Komprimierung auch ohne MSAA ist nun wirklich ein uralter Hut, das konnte schon der R100 (ja genau das ist der Original-Radeon...). Wobei natürlich dieser R100 anschliessend einen solchen Z-Buffer nicht als Textur verwenden konnte (lag aber nicht nur an der Komprimierung, das ging generell nicht).
Gipsel
2014-08-29, 17:49:13
Shadowmaps entstehen doch im Z-Buffer. Und Z-Buffer Komprimierung auch ohne MSAA ist nun wirklich ein uralter Hut, das konnte schon der R100 (ja genau das ist der Original-Radeon...). Wobei natürlich dieser R100 anschliessend einen solchen Z-Buffer nicht als Textur verwenden konnte (lag aber nicht nur an der Komprimierung, das ging generell nicht).Das stimmt natürlich, die besonders tief hängenden Früchte sind schon weg. Das war zu kurz gedacht von mir.
Wie wahrscheinlich ist eigentlich der Fakt, daß Tonga von Globalfoundries kommt?
Wenn es nämlich so ist, zahlt es sich so oder so schon für AMD aus, da das Waferagreement dann ja wohl eher erfüllt werden kann und keine Strafzahlungen mehr zu begleichen sind. Mal völlig losgelöst von der Leistungs- und Featurediskussion, sondern rein wirtschalftlich gesehen. Tonga ist m.E. der Brot- und Butter Chip für AMD in nächster Zeit, bis endlich ein Shrink möglich ist und damit erst wirklich bessere Chips.
mczak
2014-08-29, 21:08:43
Das stimmt natürlich, die besonders tief hängenden Früchte sind schon weg. Das war zu kurz gedacht von mir.
Wobei es da schon auch neuere Tricks gibt. Bei r300/r500 z.B. konnte der Chip zwar Z-Buffer Daten als Textur lesen (wobei depth comparison eh immer im Shader stattfand), das galt aber eben nicht für komprimierte Daten. Da musste dann extra ein z-decompress pass her (oder eben Komprimierung gar nicht erst verwenden) - beides ist natürlich nicht im Sinne des Erfinders. Weiss gar nicht wie das Problem gelöst wurde, denn selbst GCN (wobei ich Volcanic Islands und somit Tonga da noch ausnehme) hat ja einen separaten ROP-Cache, die Logik zum Dekomprimieren muss aber wohl trotzdem irgendwann von den ROPs Richtung MC gewandert sein...
Ist aber schon so dass FB-Komprimierung an sich nichts Revolutionäres ist, ob das jetzt für Farben oder Z-Daten gemacht wird ist prinzipiell ja wirklich dasselbe nur bringt es halt bei Z-Daten mehr.
CountDoku
2014-08-30, 19:43:34
Rein von den Daten her. Wie soll die Karte schneller als ne 280X sein? Und dann 285 als Namensgebung zu geben irgendwann hörts mal auf mit der Kundenverarsche (hoffe ich). Ich rede auch von nVidia, denn die agieren ähnlich. Es ist keine neue Architektur von AMD wahrscheinlich nur ne beschnittene Version des Vorgängers. Aber gut, schlaue Kunden informieren sich vorher. Für mich sieht es so aus dass das Weihnachtsgeschäft voll und ganz an nVidia geht mit der Maxwell Reihe. Aber lassen wir uns mal überraschen.
AnarchX
2014-08-30, 19:46:07
Rein von den Daten her. Wie soll die Karte schneller als ne 280X sein? Und dann 285 als Namensgebung zu geben
Tonga hat ein Quad-Front-End wie Hawaii, da kann in bestimmten Szenarien die Leistung fast doppelt so hoch sein. Im Shadercore könnte GCN (Ver. V.I.) auch gewisse Optimierung erfahren haben, sodass die effektive Shaderleistung ähnlich bis höher ist.
CountDoku
2014-08-30, 19:59:39
Ja, aber ich denke die 280X ist schneller. Hier träumen einige das ist schon lustig;) aber warten wir doch einfach mal Tests ab. Ich wäre wie gesagt sehr sehr sehr erstaunt würde die 280X geschlagen.
Knuddelbearli
2014-08-30, 20:09:08
und wie sollten sie sie sonst nennen? 275 und du würdest dich aufregen das die 280er langsamer wäre ^^ und zwischen 280 non X und X geht halt nichts.
CountDoku
2014-08-30, 20:13:20
277^^ ne, anders aber nicht höher als ne 280(x). Ich denke die ist nicht schneller und selbst AMD sagt das laut internen Tests. Die wollen sich damit mit der nVidia 760? messen. Irgendwas um den Strich rum war das doch, oder?
Ne GTX 770 ist auf jedenfall schneller da verwette ich meine Eier drauf.
Hübie
2014-08-30, 20:20:58
Wieviel hast du denn zum verwetten? :biggrin: Tonga wird der 770 sicher gefährlich sowie hier und da auch vorbeiziehen. Die Frage ist nur zu welchem "Preis"? ;)
dildo4u
2014-08-30, 20:22:23
770 ist doch irrelevant wenn Maxwell im September kommt.
CountDoku
2014-08-30, 20:24:48
Ich verwette meine beiden Eier. Der Chip wird ganz gewiss nicht schneller als meine GTX 770 und selbst AMD sagt das. Und man weiss auch wie beschissen der Treibersupport von AMD und DX ist. ABer ich bin so mutig und sage hier und heute eine GTX 770 wird schneller sein.
Und ich rede von der 285 AMD Karte.
Hübie
2014-08-30, 20:28:01
Okay ich nagel dich drauf fest :P In 90% der Fälle bin ich auch bei dir. Die 770 könnte aber in der Perf/W und Per/$ abgezogen werden (ziemlich sicher sogar).
CountDoku
2014-08-30, 20:31:14
Ich werde wohl erst auf Maxwell umsteigen wenn ich einen TFT mit höherer Auflösung auf dem Schreibtisch stehen habe denn nahezu alle Karten ab 280X können 1920X1200 in 90 Prozent der Spiele in eben dieser Auflösung flüssig darstellen. Interessant wirds in UHD Auflösung. Aber den TFT brauche ich erstmal.
Hübie
2014-08-30, 20:57:33
Vor 2016 erwarte ich keine single GPU welche alle Spiele in 4k (UHD) @max flüssig darstellen kann. Also immer mit der Ruhe =)
Botcruscher
2014-08-30, 21:09:42
AA runter schrauben und es passt.
aufkrawall
2014-08-30, 21:38:00
Nicht für MP. SP nicht flüssig, aber wohl spielbar.
dargo
2014-08-30, 22:29:02
Tonga hat ein Quad-Front-End wie Hawaii, da kann in bestimmten Szenarien die Leistung fast doppelt so hoch sein.
Welche Szenarien sollen das denn sein? Ich kenne kein Spiel wo Hawaii Faktor 2 von Tahiti liefert (auch nicht fast) und ersterer hat sogar einiges mehr an Rohleistung. Das einzige wo Hawaii sich stärker absetzen kann ist Sniper Elite 3. Das liegt aber zum Großteil an Tessellation wo der Tess-Faktor für Hawaii besonders schmackhaft gewählt wurde.
Akkarin
2014-08-31, 01:51:01
Hatte wir das nicht erst vor ein paar seiten ? Gibt da ein paar tesseltation fälle (z.b. im neuen Sniper Elite) wo durch das drontend sehr hohe unterschiede zwischen Hawaii und Tahiti erreicht werden.
AnarchX
2014-08-31, 10:21:02
Welche Szenarien sollen das denn sein? Ich kenne kein Spiel wo Hawaii Faktor 2 von Tahiti liefert (auch nicht fast) und ersterer hat sogar einiges mehr an Rohleistung. Das einzige wo Hawaii sich stärker absetzen kann ist Sniper Elite 3. Das liegt aber zum Großteil an Tessellation wo der Tess-Faktor für Hawaii besonders schmackhaft gewählt wurde.
Mit Szenarien müssen ja nicht nur Spiele gemeint sein: http://www.hardware.fr/articles/910-7/performances-theoriques-geometrie.html ;)
Und CountDoku meinte ja er sähe anhand der Spezifikationen gar keine potentielle Mehrleistung - was im Bezug auf das Front-End eben falsch ist.
Im Endeffekt sind die R9 285(X) Karten keine Leistungsklasse über den R9 280(X), sondern eher ein modernisierte Varianten zu gleichen Preisen, mit der Tendenz zu noch niedrigen Preisen.
dargo
2014-08-31, 10:29:12
Mit Szenarien müssen ja nicht nur Spiele gemeint sein: http://www.hardware.fr/articles/910-7/performances-theoriques-geometrie.html ;)
Dann sags doch gleich. ;) Nur interessieren Spieler solche synthetischen Benchmarks recht wenig.
M4xw0lf
2014-09-01, 08:42:36
Immer noch keine Leaks? Was ist bloß passiert... :freak:
X.Perry_Mental
2014-09-01, 11:22:58
Die erste 285 Karte im Preisvergleich:
Gigabyte Radeon R9 285 OC, 2GB GDDR5 (http://www.heise.de/preisvergleich/gigabyte-radeon-r9-285-oc-gv-r9285wf2oc-2gd-a1159984.html)
OBrian
2014-09-01, 11:37:39
Ich sags ja, bald besteht die erste Info zu einer neuen Grafikkarte darin, sie überraschend per Amazon Prime aufs Auge gedrückt bekommen zu haben. Da denkste Dir nix Böses und zack haste ne neue Radeon im Briefkasten.
M4xw0lf
2014-09-01, 12:02:40
Ich kann mir nicht vorstellen, dass da noch keine verkauft wurden. War beim Launch der 6970 auch so, am Tag vorher tauchten da Userbenchmarks in Foren auf. Vermutlich zieht die 285 als nicht-Topdog nur nicht so viel Interesse auf sich.
Wie war das bei den AMD-GraKas, 6 Uhr deutscher Zeit ist NDA-Ablauf? Bei CPUs isses ja immer so.
Käsetoast
2014-09-01, 14:56:29
Würde mich auch interessieren. Darf ich mich morgen nach dem Aufstehen über News freuen, oder muss man sich bis abends gedulden?
dildo4u
2014-09-01, 14:58:09
Vermutlich 6 Uhr siehe 290 Tests.
http://www.computerbase.de/2013-11/amd-radeon-r9-290-test/
Es war in der Vergangenheit nicht immer 6 Uhr.
MfG,
Raff
dildo4u
2014-09-01, 16:25:52
Wundert mich das es noch keine China Leaks gibt laut AMD sind die Karten ja Morgen direkt im Handel.
Knuddelbearli
2014-09-01, 16:50:20
gab es doch zuletzt bei AMD nie leaks.
Schaffe89
2014-09-01, 16:50:39
Ja schon komisch, dass es immernoch keine Leaks oder Benchmarks gibt, außer ein paar dubiosen.
Die Hersteller schaffen es wohl immer besser die Lecks zu stopfen.
So wie ich das sehe wird die r9 285 sich 5 bis 10% über einer 280 positionieren und die R9 285x dann ein paar Prozentpunkte unter der r9 290.
dildo4u
2014-09-01, 17:30:16
gab es doch zuletzt bei AMD nie leaks.
Ich meinte eher das es komisch ist,das kein einziger User ne Karte hat wenn sie Morgen angeblich auf Lager sind.
MechWOLLIer
2014-09-01, 18:16:46
Ich glaube, so einige werden sich morgen wundern ;)
dargo
2014-09-01, 18:19:36
Ich glaube, so einige werden sich morgen wundern ;)
Jetzt machst du mich neugierig. :D
Unicous
2014-09-01, 18:21:16
Ich glaube, so einige werden sich morgen wundern ;)
:uban::uban::uban::uban::uban::uban:
Skysnake
2014-09-01, 18:40:32
Ja, AMD hat wirklich ALLE! Leaks gestopft. Ich finde das irgendwie auch ganz richtig so. Die seriöse Presse, die sich die Finger wund testet, bekommt so auch ihren gerechten Lohn dafür, dass Sie sich an die Spielregeln halten.
Für uns Technik-Nerds zwar doof, aber lieber so, als andersrum, denn so lohnt sich ein guter Test auch für die Redaktionen.
maximus_hertus
2014-09-01, 18:41:19
Na ja, in dem Kontext: "Ich meinte eher das es komisch ist,das kein einziger User ne Karte hat wenn sie Morgen angeblich auf Lager sind. " kann es schlicht bedeuten, dass es zumindest in Europa keine Karten zum Launch gibt. Oder ggf. nur ein Exklusivhänder in den ersten Tagen und man so Leaks aus dem Weg geht.
Nur noch ein paar Stunden ;)
Gipsel
2014-09-01, 18:47:50
Glaube kaum, das Pixmania Exklusivhandler ist. Da ist die Version von VTX3D für angeblich 228€ sofort lieferbar (http://geizhals.at/de/vtx3d-radeon-r9-285-x-edition-vxr9-285-2gbd5-dhx-a1159269.html).
Hmm, bei Pixmania selber steht sie schon für 219,99€ drin (http://www.pixmania.de/grafikkarten/vtx3d-r9-285-2-gb-gddr5-pci-express-grafikkarte-vxr9-285-2gbd5-dhx/22285148-a.html?ectrans=1#srcid=47&merch=1).
Edit: Ist sogar leicht übertaktet (945 statt 918MHz).
Unicous
2014-09-01, 18:52:18
Vllt. liegt es auch einfach daran, dass sie noch nicht gelistet werden (dürfen). :wink: Bei gh gibt es 3 Einträge und pixmania behauptet sie hätten Karten auf Lager. Wie du ja sagst, es sind nur noch ein paar Stunden.
edit: Ninja-Gipsel.
dargo
2014-09-01, 18:59:19
Glaube kaum, das Pixmania Exklusivhandler ist. Da ist die Version von VTX3D für angeblich 228€ sofort lieferbar (http://geizhals.at/de/vtx3d-radeon-r9-285-x-edition-vxr9-285-2gbd5-dhx-a1159269.html).
Hmm, bei Pixmania selber steht sie schon für 219,99€ drin (http://www.pixmania.de/grafikkarten/vtx3d-r9-285-2-gb-gddr5-pci-express-grafikkarte-vxr9-285-2gbd5-dhx/22285148-a.html?ectrans=1#srcid=47&merch=1).
Edit: Ist sogar leicht übertaktet (945 statt 918MHz).
Lustig auch, dass auf der Verpackung mit DirectX 12 geworben wird wo wir noch gar nicht wissen wann es kommt. X-D
http://www.vtx3d.com/show_img.asp?id=198&file=image_b_s.jpg
Akkarin
2014-09-01, 18:59:22
Scheint dann ja auch neue kühler zu geben, auf jeden fall sieht das VTX3D design andest aus als die bisherigen Powercolor TurboDuo karten.
AnarchX
2014-09-01, 19:05:57
HDMI 2.0 Support wäre auch mal etwas, immerhin gibt es schon erste 4K-TVs mit diesem deutlich unter 1000€. Ein Adapter von DP scheint hier wohl nicht ohne weiteres möglich.
aufkrawall
2014-09-01, 19:10:24
Lustig auch, dass auf der Verpackung mit DirectX 12 geworben wird wo wir noch gar nicht wissen wann es kommt. X-D
http://www.vtx3d.com/show_img.asp?id=198&file=image_b_s.jpg
Eigentlich könnte MS es auch schon diesen November bringen. :freak:
dildo4u
2014-09-01, 19:12:37
Ich denke eher das es an den Win 9 Launch gebunden ist.
Hübie
2014-09-01, 19:17:11
Ich glaube, so einige werden sich morgen wundern ;)
Über die Vielfalt, Performance oder Verfügbarkeit? Komm schon ein bissl konkreter geht's doch, Wolle :biggrin:
@dargo: das klebte sogar schon auf der Titan Z. Ist wohl auch so ein Qualitätssiegel wie das 80+ :freak:
-/\-CruNcher-/\-
2014-09-01, 19:25:25
Lustig auch, dass auf der Verpackung mit DirectX 12 geworben wird wo wir noch gar nicht wissen wann es kommt. X-D
http://www.vtx3d.com/show_img.asp?id=198&file=image_b_s.jpg
Viel Krasser nichts mit Mantle das ist Marketingtechnisch suspekt das man die eigene API nicht in den Vordergrund stellt oder zumindest neben DX12 auf der Packung.
Nichmtal True Audio findet Erwähnung geschweige den UVD 4 aber Windows 8 UEFI support (Secureboot)
Oder sind das vielleicht die kleinen unscheinbaren sticker oben rechts ?
dargo
2014-09-01, 19:25:56
Eigentlich könnte MS es auch schon diesen November bringen. :freak:
Ich wäre der letzte der was dagegen hat. :D
maximus_hertus
2014-09-01, 19:32:29
Viel Krasser nichts mit Mantle das ist Marketingtechnisch suspekt das man die eigene API nicht in den Vordergrund stellt oder zumindest neben DX12 auf der Packung.
Nichmtal True Audio findet Erwähnung geschweige den UVD 4
Ganz rechts oben auf der Packung ist doch die AMD Mantle API "Werbung"?
Gipsel
2014-09-01, 19:36:43
Viel Krasser nichts mit Mantle das ist Marketingtechnisch suspekt das man die eigene API nicht in den Vordergrund stellt oder zumindest neben DX12 auf der Packung.
[..]
Oder sind das vielleicht die kleinen unscheinbaren sticker oben rechts?Genau. Zumindest für Mantle ist es der rechts über Ruby (der links sagt nur "GCN Architecture").
Edit: Zu spät.
-/\-CruNcher-/\-
2014-09-01, 19:39:56
Genau. Zumindest für Mantle ist es der rechts über Ruby (der links sagt nur "GCN Architecture").
Edit: Zu spät.
Jo danke mal gespannt ob das bei Sapphire genauso aussehen wird ;)
Unicous
2014-09-01, 19:46:01
:rolleyes:
Cruncher: Zuerst Recherchieren, dann das Schaffotbeil schärfen.
http://geizhals.at/p/9266/1159266/1159266-3.jpg
Wobei es doch völlig schnuppe ist, was auf den Verpackungen steht.
@Gipsel
Ich glaube auf dem einen steht nur GCN und auf dem anderen TrueAudio, könnte aber auch falsch liegen.
Oder auch nicht.
http://elchapuzasinformatico.com/wp-content/uploads/2014/08/HIS-Radeon-R9-285-IceQX2-Mini.jpg
fondness
2014-09-01, 20:52:29
Ich glaube, so einige werden sich morgen wundern ;)
Man sind solche Aussagen fies^^
Immer noch keine Leaks? Was ist bloß passiert... :freak:
AMD hat alle Löcher gestopft, jeder der sich nicht ans NDA gehalten hat wurde ohne Rücksicht bestraft.
aufkrawall
2014-09-01, 20:58:04
fondness hat die Wische abgestempelt. :D
M4xw0lf
2014-09-01, 20:58:31
AMD hat alle Löcher gestopft, jeder der sich nicht ans NDA gehalten hat wurde ohne Rücksicht bestraft.
Schon klar. I can into rhetorical question. :wink:
Akkarin
2014-09-01, 21:00:06
Bin ich eigentlich der einzige der meint dass die HIS und VTX3D designs der kühler quasi gleich aussehn ? Hat TUL und HIS jetzt n abkommen oder so dass sie gleiche designs benutzen ?
Ich glaube, so einige werden sich morgen wundern ;)
Davon gehe ich auch schwer aus. :ugly:
MfG,
Raff
aufkrawall
2014-09-01, 21:01:21
Ich schließe mich Unicous an...
maximus_hertus
2014-09-01, 21:04:48
Davon gehe ich auch schwer aus. :ugly:
MfG,
Raff
Alles klar, ihr wartet immer noch auf eure Review-Samples :D und wir werden uns wundern, dass es morgen keine Benches gibt ;)
Wenn AMD selbst zeigt, das die R9 285 bis zu 15% schneller ist in BF4, hoher Auflösung, wo die Radeons generell etwas zulegen, dann weis ich doch wo ich diese geschwindigkeitsmäßig einzuordnen habe. Also wohl knapp über R9 280, bei weniger Verbrauch.
Im Großen und Ganzen ziemlich langweilig, aber wohl zu erwarten:-)
aufkrawall
2014-09-01, 21:06:41
Pixmania mit besseren Connections? :uponder:
Unicous
2014-09-01, 21:17:57
@MR2
Wenig Stunden vor den Reviews noch über Leistungserwartungen zu spekulieren ist ähm, ja...:freak:
@aufkrawall
Ich gehe einfach davon aus, dass Pixmania "aus Versehen", die Karte schon gelistet hat. Da sie Dumping-Preismäßig einsteigen (im Vergleich zu den anderen Listungen jedenfalls) schätze ich, dass sie sich nur in die Preissuchmaschinen platzieren wollten. Der Rest hält sich anscheinend an die NDA.
@all
Die Redaktionsasseln wollen doch nur eure Klicks.:freak:
fondness
2014-09-01, 21:19:09
Also im Vergleich zur 280 und 280X ist selbst der Preis von Pixmania gesalzen. Eine 280X bekommt man billiger.
maximus_hertus
2014-09-01, 21:21:14
Die 280X hat aber kein True Audio ;) Und das neue Crossfire gibt's bisher auch nur bei den 290ern. Ausserdem gibt es doch immer den Launchaufschlag (NEU! - BESSER! - blabla).
dildo4u
2014-09-01, 21:23:12
Man sollte schnell sein 2GB Karten haben 2014/15 ausgesorgt,ich schätze die Restposten der 280 werden schnell weg sein.
Unicous
2014-09-01, 21:25:51
Was hast du dir denn vorgestellt fondness?
Das Ding kommt für 249 €/$.
Das wird sich sicherlich Richtung 200 Euro bewegen und da erst einmal verharren, bis die 280/X abverkauft sind. Die 285X legt sich dann ich schätze mal auf 279 Euro/Dollar, oder wenn es ganz schlimm kommt sogar 299. (Da wäre aber arg nahe an der R9 290 und daher etwas unwahrscheinlich)
fondness
2014-09-01, 21:30:37
Naja die 280 lag auch offiziell bei $249, die 280X liegt offiziell noch immer bei $299. EUR-Preise sind schon deutlich niedriger.
Kriton
2014-09-01, 21:46:54
Ich schließe mich Unicous an...
Das wäre ja mal fast was für die Sig. :biggrin:
Unicous
2014-09-01, 21:48:25
@fondness
Die 280 kostet in den USA immer noch (ab) 219 Dollar während man hier 165 Euro bezahlt. Kann man nicht vergleichen(edit: auch weil es in den USA einen im Vergleich winzigen DIY-Markt gibt und dadurch keinen Wettbewerb mit zig Online-Händlern). In den USA gibt es z.B. noch mail-in rebate bzw. sogar noch z.T. Steuern obendrauf.
Ich rede lediglich vom UVP und der dürfte bei 249 Euro liegen, wie bei der R9 280 nach der Preissenkung.
@Kriton
Ich habe mich auch unwohl gefühlt, als ich das gelesen habe.
fondness
2014-09-01, 21:57:59
NDA fällt morgen erst um 14:00 Uhr unserer Zeit, zumindest wenn ich die Zeitzonen richtig umgerechnet habe :ugly:
maximus_hertus
2014-09-01, 22:01:58
Was soll denn der Mist? 14 Uhr? Sind die total neben der Spur? Ich habe mich morgen auf ein schönes Frühstück mit Benches gefreut :/
mironicus
2014-09-01, 22:02:17
Die sollte eher bei 179 Euro liegen mit nur 2 GB Ram.
Hübie
2014-09-01, 22:02:33
Du sollst arbeiten, maximus_hertus! ;D
AffenJack
2014-09-01, 22:25:52
NDA fällt morgen erst um 14:00 Uhr unserer Zeit, zumindest wenn ich die Zeitzonen richtig umgerechnet habe :ugly:
Wozu musst du da noch Zeitzonen umrechnen? Man muss nur auf alle Amd Launches dieses Jahr gucken. Kaveri, R7 265, R9 295X2, immer war um 14 Uhr NDA Ende. Erstaunlich, dass das hier noch niemand mitbekommen hat, dass Amd den Zeitpunkt seit diesem Jahr verschoben hat;)
-/\-CruNcher-/\-
2014-09-01, 23:55:23
:rolleyes:
Cruncher: Zuerst Recherchieren, dann das Schaffotbeil schärfen.
http://geizhals.at/p/9266/1159266/1159266-3.jpg
Wobei es doch völlig schnuppe ist, was auf den Verpackungen steht.
@Gipsel
Ich glaube auf dem einen steht nur GCN und auf dem anderen TrueAudio, könnte aber auch falsch liegen.
Oder auch nicht.
http://elchapuzasinformatico.com/wp-content/uploads/2014/08/HIS-Radeon-R9-285-IceQX2-Mini.jpg
Hehe einige sind mit DX12 bildchen zurückhaltender die erinnern sich noch an das Nvidia implementation fiasko das Sapphire das Mantle bildchen weglässt schon sehr merkwürdig GNC Technology steht wohl in dem Robo torso ;)
OBrian
2014-09-02, 05:33:27
Naja, wenn es so auf der Packung steht, dann wird bestimmt die eine 285 mit True Audio sein und die andere nicht, die eine hat GCN und die andere GNC-Technologie, und dann gibt es noch wieder einige 285, die nur DX11 können und andere schon DX12 mitbringen, als Zusatzchip wahrscheinlich. In den Packungen sind ja sowieso keine Grafikkarten, sondern in der einen ist ein Roboter und in der anderen eine knackige Rothaarige (und offenbar auch sehr gelenkig, wenn die da reinpaßt).
Oder ist es vielleicht doch so, daß die Verpackungsdesigns von Marketingfritzen zusammengeklickt wurden, die wie alle Marketingfritzen eben null Ahnung von dem haben, was sie tun?
horn 12
2014-09-02, 06:18:03
Also doch 14 Uhr, nicht mehr 06:00 Uhr früh.
Dies hat mir bedeutend besser gepasst, vor der Arbeit etwas Lektüre :-)
Fällt einem das Arbeiten dann aber bedeutend leichter, außer man hat Nachtschicht :-) :-)
AnarchX
2014-09-02, 07:38:11
http://www.xfastest.com/forum.php?mod=viewthread&tid=141840&cp=all
http://picx.xfastest.com/tsaik/IMG_9459.JPG
Hübie
2014-09-02, 07:38:12
Lesberes? X-D Die Erde ist soviele Milliarden Jahre alt, da fallen die paar Stündchen bis Ende des nda nun wirklich nicht ins Gewicht.
horn 12
2014-09-02, 07:58:46
Doch recht schwache Vorstellung, die R9 285X mit ca.+20% würde so immer noch 10-15% langsamer sein als die R9 290 :-(
Das war wohl nix AMD, aber warten wir die dt. Test ab!
M4xw0lf
2014-09-02, 08:52:26
http://www.xfastest.com/forum.php?mod=viewthread&tid=141840&cp=all
http://picx.xfastest.com/tsaik/IMG_9459.JPG
War da was zu sehen? Jetzt kommt da nur ein Login.
Dural
2014-09-02, 09:28:54
die GPU sieht aber nicht ganz klein aus?!
Hübie
2014-09-02, 09:56:08
Doch recht schwache Vorstellung, die R9 285X mit ca.+20% würde so immer noch 10-15% langsamer sein als die R9 290 :-(
Das war wohl nix AMD, aber warten wir die dt. Test ab!
Wo liest du das? Und was erwartet ihr immer? :rolleyes:
M4xw0lf
2014-09-02, 10:14:38
14.00 Uhr ist so eine asi-Zeit für den NDA-Fall. Vermutlich ist es dann auch erst 15.00 oder 16.00 soweit :usad:
fondness
2014-09-02, 10:32:52
Es ist 8:00 am EDT, also nach Adam Riese 14:00 Uhr unserer Zeit.
http://www.xfastest.com/forum.php?mod=viewthread&tid=141840&cp=all
http://picx.xfastest.com/tsaik/IMG_9459.JPG
Auf dem Träger steht übrigens "Made in Taiwan" was weiter für TSMC als Fertiger spricht.
mironicus
2014-09-02, 10:48:58
Was erwartet ihr von der neuen Karte? R290-Niveau bei moderater Übertaktung (1100/1500)?
Edit: Auf Geizhals gibt es neue Listungen.
http://geizhals.de/eu/sapphire-radeon-r9-285-itx-compact-oc-11235-05-20g-a1159268.html Ganz kurze Karte (170 mm).
http://geizhals.de/eu/powercolor-radeon-r9-285-turboduo-axr9-285-2gbd5-tdhe-a1159270.html
http://geizhals.de/eu/diverse-radeon-r9-285-a1159261.html
http://geizhals.de/eu/sapphire-radeon-r9-285-dual-x-oc-11235-03-20g-a1159266.html
Dural
2014-09-02, 10:50:29
also ich denke mit 1073,59MHz wird sie genau so schnell wie eine stock 290 sein.
Woher soll diese Leistung kommen? Hawaii Pro hat immerhin 2.560 Shader-Einheiten.
MfG,
Raff
fondness
2014-09-02, 10:51:16
Alle Folien:
http://videocardz.com/51462/amd-officially-announces-radeon-r9-285-never-settle-space-edition
Leistung dürfte wohl ziemlich exakt bei der 280 liegen.
M4xw0lf
2014-09-02, 10:55:47
Das ist interessant:
http://cdn.videocardz.com/1/2014/09/r9-285-technical-supplement-1-850x478.jpg
Bei niedrigen Tess-Faktoren doppelte, bei höheren bis zu vierfache Leistung? Dann müssen neben der Verdoppelung des Frontends auch noch diverse Käfer erledigt worden sein.
And wat is zis?
http://cdn.videocardz.com/1/2014/09/r9-285-technical-supplement-4.jpg
Verbesserte Downsampling-Fähigkeiten in Hardware? Gib driver implementation nao!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.