PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

AnarchX
2009-06-26, 21:10:44
Die 32GB/s beim Xenos sind lächerlich, gegen das was man bräuchte, wenn man 2 GPUs brauchbar verbinden will.
Dazu kommt, das Problem, dass das Pin-Out für diesen Interconnect wieder Die-Size benötigt und wenn ATi es schaffen sollte bei den 180mm² einen 256-Bit GDDR5 MC und vielleicht für den MGPU-IC 64-Bit, so muss letzerer wohl jenseits der 8GHz takten um hier ein ausreichende Bandbreite zu erbringen.

Gipsel
2009-06-26, 23:30:11
Man darf auch nicht vergessen, dass ATIs GPUs einen Cache haben für den man die Kohärenz bei "richtigem" Verbinden von zwei Chips auch gewährleisten müsste.
Nicht unbedingt. Bei heutigen GPUs wird anders als bei CPUs die Kohärenz der Caches nicht garantiert. Das wird Larrabee (und vielleicht zukünftige GPUs auch) anders machen.

lumines
2009-06-26, 23:33:51
Die 32GB/s beim Xenos sind lächerlich, gegen das was man bräuchte, wenn man 2 GPUs brauchbar verbinden will.

ohne mich jetzt groß einmischen zu wollen, aber der eDRAM ist mit 256GB/s angebunden.

deekey777
2009-06-26, 23:39:08
ohne mich jetzt groß einmischen zu wollen, aber der eDRAM ist mit 256GB/s angebunden.
Ist er auch, nur meint der Gast mit 99,9%iger Wahrscheinlichkeit den Tochter-Die.

mboeller
2009-06-27, 08:25:37
Ist er auch, nur meint der Gast mit 99,9%iger Wahrscheinlichkeit den Tochter-Die.

richtig!

Ailuros
2009-06-27, 08:28:32
http://www.legitreviews.com/article/1001/1/

Wie ich schon auf B3D fragte, gibt es immer noch Grund daran zu denken dass Evergreen lediglich RV7x0 mit aufgeklatschtem DX11 ist?

Gipsel
2009-06-28, 18:17:15
http://www.legitreviews.com/article/1001/1/

Wie ich schon auf B3D fragte, gibt es immer noch Grund daran zu denken dass Evergreen lediglich RV7x0 mit aufgeklatschtem DX11 ist?
Nun, die maximale Größe einer Threadgroup bleibt bei 1024 (die 768 dort für Compute Shader Model 4 ist wohl das Maximum für nvidia, ATIs können jetzt auch schon 1024), was wohl gegen die Gerüchte mit 20 Einheiten pro SIMD (statt 16 jetzt) spricht. Die Wavefrontsize bleibt also eine Zweierpotenz. Dann wird der Local Data Share verdoppelt und man bekommt mehr Flexibilität beim Zugriff darauf (entschärft einen großen Vorteil von Larrabee bei horizontalen Operationen innerhalb eines SIMDs), genau wie man bei Scatter-Operationen erheblich Flexibilität gewinnt. Die Atomic Operations sind dagegen bei ATI was Neues (nvidias können das schon), das mußte man bisher (langsam) nachbilden.

Die Append/Consume Buffers oder Indirect Compute Dispatch klingen auch ganz interessant. Bin gerade am überlagen, ob man damit ein paar rekursive Algorithmen hinbekommen könnte.

Coda
2009-06-28, 18:20:27
ohne mich jetzt groß einmischen zu wollen, aber der eDRAM ist mit 256GB/s angebunden.
Vorsicht. Deekey hat es schon gesagt, aber ich muss das nochmal klar stellen

Die ROPs sind mit 256GB/s angebunden intern IM Tochter-Die. Die Verbindung GPU<->Tochter-Die ist sehr viel langsamer.

mboeller
2009-06-29, 09:50:28
Vorsicht. Deekey hat es schon gesagt, aber ich muss das nochmal klar stellen

Die ROPs sind mit 256GB/s angebunden intern IM Tochter-Die. Die Verbindung GPU<->Tochter-Die ist sehr viel langsamer.

GPU <-> Tochter-Die sind es 32GB/sec.

Es gibt aber eine schöne Alternative:

HT3.1 erreicht 51,2GB/sec mit 32 "Lanes": http://de.wikipedia.org/wiki/HyperTransport

2 x HT3.1 sollten also reichen. Dazu noch ein 128bit Speicherinterface pro Chip und man hat einen "RV870" dual "MCM-Chip" mit 256bit extern und genügend interner Bandbreite. AMD hat schon sehr viel Erfahrung mit HT und sowas sollte deshalb theoretisch möglich sein.

deekey777
2009-06-29, 12:15:42
Und wie sieht es mit der Latenz aus?

mboeller
2009-06-29, 12:17:45
Und wie sieht es mit der Latenz aus?

Keine Ahnung, aber wenn es bei CPU's funktioniert dann sollte es bei GPUs doch erst recht funktionieren.

Ailuros
2009-06-29, 13:25:48
Keine Ahnung, aber wenn es bei CPU's funktioniert dann sollte es bei GPUs doch erst recht funktionieren.

Bei wie vielen threads in flight genau? 2, 4 oder 8?

mboeller
2009-06-29, 13:35:02
Bei wie vielen threads in flight genau? 2, 4 oder 8?

Das ist doch der Vorteil bei der GPU; sie ist wesentlich toleranter gegenüber Latenz-Problemen. Oder sehe ich hier was falsch?

Coda
2009-06-29, 13:52:06
Bei den reinen Daten ja, aber es geht um die Kommunikation die bei der Rasterisierung anfällt usw. und da bin ich mir dann nicht mehr so sicher.

BlackBirdSR
2009-06-29, 14:08:25
Bei wie vielen threads in flight genau? 2, 4 oder 8?

Wobei wir hier nicht davon reden, dass sich zwei Kerne direkt mehrere Threads teilen und diese über Hypertransport synchronisieren.

Ich persönlich würde die Chips ja in 3D stacken und direkt verbinden. Aber darauf müssen wir wohl noch eine Weile warten.

Coda
2009-06-29, 14:10:56
Da ist wohl auch die Kühlung ein enormes Problem.

S940
2009-06-29, 14:19:34
Ein paar DX11 Folien von AMD:
http://www.planet3dnow.de/vbulletin/showthread.php?p=3973682#post3973682

horn 12
2009-06-29, 20:50:52
Nun, langsam wird Platz gemacht für die HD5870-er Serie, die HD4870 X² schon für 265 Euro:eek: (Italien und Pixmania in D,F) und da gehe ich nun von baldigen 250 Euro aus, da es ja auch die HD4870 1GB um 120 Euro bereits gibt...
Also soll wohl das "Loch" zwischen HD4890 1Ghz und HD5870 durch die X²-er Karte NEU gefüllt werden.
Die HD4850/ 4870 wird wohl bald von der Bildfläche verschwinden, bis die HD4870 X² abverkauft ist. Da hat man ja noch 2-3 Monate Zeit.

Wenn dem echt so ist, kann man von den +10-20% Mehrperformance gegenüber einer HD4870 X² schon ausgehen, bei vielleicht mal guten >=300 Euro.
Dies wäre erneut eine Tolle und sehr gute Karte bei excellenter P/L. :eek::eek:
Diese Karte könnte echt Crysis/ Warhead in 1920x1200 8xAA 16AF flüssig darstellen und nimmer unter die 35fps drücken.

derguru
2009-06-29, 20:55:52
Diese Karte könnte echt Crysis/ Warhead in 1920x1200 8xAA 16AF flüssig darstellen und nimmer unter die 35fps drücken.

langsam brauner,eine 4870x² packt gerade mal die 20fps.:smile:

Jake Dunn
2009-06-29, 21:10:01
Lol die Min. FPS sind doch bei M-GPU nicht soo viel besser ;D

derguru
2009-06-29, 21:25:04
wieso min.fps:confused:ich meine avg nicht min,über 35 fps min braucht man ja nun wirklich nicht zu reden.:biggrin:

Gast
2009-06-29, 21:45:45
Die HD4870X2 schafft 20 FPS AVG in Crysis Warhead bei 1680x1050 8xAA/16xAF).
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4770/13/#abschnitt_crysis_warhead

Wie soll da die HD5870 in 1920x1200 8xAA 16AF über 35 FPS AVG schaffen?

Realistisch ist wohl eher etwa HD4870X2 Niveau +/- 20%.

horn 12
2009-06-29, 22:16:59
http://www.radeon3d.org/index/amd/juni_2009/dx11-informationen_von_amd_bringen_licht_ins_dunkle/

Ailuros
2009-06-29, 22:32:12
http://www.radeon3d.org/index/amd/juni_2009/dx11-informationen_von_amd_bringen_licht_ins_dunkle/

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7382701&postcount=1256

Gast
2009-07-02, 17:00:01
Die HD4870X2 schafft 20 FPS AVG in Crysis Warhead bei 1680x1050 8xAA/16xAF).
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4770/13/#abschnitt_crysis_warhead

Wie soll da die HD5870 in 1920x1200 8xAA 16AF über 35 FPS AVG schaffen?

Realistisch ist wohl eher etwa HD4870X2 Niveau +/- 20%.

Eher -20%, aber auch das wäre schon ein Erfolg.

Stormscud
2009-07-02, 22:04:35
8*AA ist auch weniger sinnvoll als 4*AA + Q-TMSAA. Wenn das auf sehr hoch läuft passts ;)

KonKorT
2009-07-03, 19:25:56
"[...] AMD says it will continue to work with the Taiwanese chipmaker, along with its own fab spin-off, Globalfoundries. 'We've had a 10 year relationship with TSMC, they are a primary manufacturing partner,' Rick Bergman, AMD's senior vice president of platforms told the INQ. [...] 'Have we shipped as many? No, but is that problem going to go away? Yes.' [...] 'we want multiple sources, we need both TSMC and Globalfoundries to be successful.'"

http://www.theinquirer.net/inquirer/news/1432493/amd-won-dump-tsmc-globalfoundries

HPVD
2009-07-04, 21:44:06
aus dem Nachbar-Thread:
TSMC 40nm process is good to go http://www.semiaccurate.com/2009/07/03/tsmc-40nm-process-good-go/

Gruß HPVD

Ailuros
2009-07-05, 09:39:09
aus dem Nachbar-Thread:


Gruß HPVD

Welches "RV870" immer noch in den ~Oktober-timeframe platziert. Was sonst ist neu?

_DrillSarge]I[
2009-07-07, 01:26:16
Wie soll da die HD5870 in 1920x1200 8xAA 16AF über 35 FPS AVG schaffen?

wer sagt was von hd5xxx?
http://twitter.com/CatalystMaker/statuses/2501247652
:biggrin::biggrin::biggrin:

BlackBirdSR
2009-07-07, 08:39:41
I[;7400698']wer sagt was von hd5xxx?
http://twitter.com/CatalystMaker/statuses/2501247652
:biggrin::biggrin::biggrin:

Wenn man die übliche Marketingkreativität der einzelnen Hersteller bedenkt (WindowsXP, AthlonXP, Windows7, Corei7), dann bekommen wir es am Ende mit einer Radeon7 zu tun:tongue:

V2.0
2009-07-07, 09:27:59
Readon7 800

horn 12
2009-07-08, 20:14:45
Es wurde äusserst still um die HD5870, nun wenn der 40-er Prozess bereits JETZT verbessert wurde, so hoffe ich doch schon zu einem Release Mitte September und somit ganz ordentlicher Verfügbarkeit der HD5870-er Karte.

Grund:
Wenn NV wirklich früher launchen will, denke ich will AMD-ATI ihnen doch noch zuvorkommen, auch wenn es bei NV im Notebook Segment ist, bei AMD-ATI ja das Performance bis High End Produkt für den Desktop.
Wer als erster Launchen wird ist wohl eine große Prestige Frage und da wird wohl doch AMD-ATI die Nase bis jetzt leicht vorne haben... und schlussendlich nicht im Regen stehen lassen wollen.
Denke sie werden alles daran setzen gute 3 bis 4 Wochen vor NV die Karten zu veröffentlichen...
Die HD4770 ist nun nur mehr ein Strohfeuer, da es ja nun bereits die HD4870 512 MB um gerade mal 99-105 Euro gibt... Da wird nicht mehr viel kommen für diese "TestGrafikkarte" (4770).

mboeller
2009-07-09, 07:46:39
Es wurde äusserst still um die HD5870, nun wenn der 40-er Prozess bereits JETZT verbessert wurde, so hoffe ich doch schon zu einem Release Mitte September und somit ganz ordentlicher Verfügbarkeit der HD5870-er Karte.


Ich denke nicht das wir die neuen DX11-Karten von ATi vor Mitte Oktober sehen werden. Wenn du dir diesen Bericht hier durchliest: http://www.semiaccurate.com/2009/07/03/tsmc-40nm-process-good-go/ (von der letzten Seite kopiert) dann steht da zwar was von Mitte September aber auch das es 10-12 Wochen dauert bis man Chips von TSMC zurück bekommt. Also selbst wenn ATi ihre neuen Aufträge sofort Anfang Juli platziert haben als der Prozess i.O "wurde" dann dauert es noch bis Mitte/Ende September bis sie ihre Chips zurück bekommen. Rechne 2-4 Wochen für den Verbau/Verpackung/Vertrieb etc.. der Karten dazu und du bist bei einem Termin frühestens Anfang Oktober, wahrscheinlich aber Mitte Oktober wie Ailuros schon geschrieben hat.

Das ganze deckt sich übrigens sehr gut mit den Gerüchten das die neuen DX10.1 Notebook-Chips und Desktop-Karten von Nvidia auch erst Mitte Oktober auf den Markt kommen sollen. Beide hängen hier an TSMC dran und müssen mit den gleichen Problemen / Verzögerungen leben.

Gast
2009-07-09, 08:03:34
Dx11 is für mich der unwichtigste Kaufgrund.Ehe Dx11 nur halbwegs genutzt wird vergehen Jahre.Was zählt is die performance für Dx9 Spiele,was 90% aller Games heutzutage,und auch nächstes Jahr noch sind.

Dx10 geht ja ins Geschichtsbuch ein,als größter Flop,der dem Spielegenre ja rein garnichts gebracht hat.

Ailuros
2009-07-09, 13:25:46
Dx11 is für mich der unwichtigste Kaufgrund.Ehe Dx11 nur halbwegs genutzt wird vergehen Jahre.Was zählt is die performance für Dx9 Spiele,was 90% aller Games heutzutage,und auch nächstes Jahr noch sind.

Es reicht fuer IHVs wenn ihre D3D11 GPUs die schnellsten D3D10x GPUs ihrer Klasse werden und X11 Komplianz auf der Schachtel steht.

Dx10 geht ja ins Geschichtsbuch ein,als größter Flop,der dem Spielegenre ja rein garnichts gebracht hat.

Als die ersten echten D3D9.0 Spiele auf Regalen erscheinten hatten wir schon G80 GPUs in unseren PCs. Es wird in der Zukunft schon D3D10 Spiele geben nur dauert es eben ein klein bisschen Zeit (zumindest 3 Jahre fuer einen AAA Titel) wenn man von der Veroeffentlichung der ersten D3D10 HW (November 2006) in Ruecksicht nimmt.

Dass sich die Geschichte wiederholt ueber die Jahre und dass logischerweise die hardware STETS vor der software (sprich Spiele) kommt habt Ihr bis jetzt schon mitbekommen oder nicht? Und nein D3D9.0 Spiele mit einem aufgeklatschten D3D10 path zaehlen fuer mich nicht als D3D10 Spiele.

V2.0
2009-07-09, 13:52:10
Wobei D3D10 ja bislang nicht nur unter fehlender Verbreitung von Hardware gelitten hat, sondern eben auch an fehlender Verbreitung des Betriebssystems.

Ailuros
2009-07-09, 13:56:29
Wobei D3D10 ja vbbislang nicht nur unter fehlender Verbreitung von Hardware gelitten hat, sondern eben auch an fehlender Verbreitung des Betriebssystems.

Es wuerde heutzutage auch nicht besonders viele mehr X10 Spiele geben wenn die Installation von D3D10 auch auf XP als Beispiel moeglich waere.

w0mbat
2009-07-09, 13:56:59
PCGH hatte die Chance eine DX11 GPU in Action zu sehen: http://www.pcgameshardware.de/aid,689413/AMD-glaubt-DirectX-11-Radeons-erfreulich-schnell/Grafikkarte/News/

"I would say we don't make money by delivering slow hardware. Our expectation is that we'll give you a really pleasant surprise this year when we ship our DX11 hardware."
http://www.youtube.com/watch?v=ASgCPK62JmM

Gast
2009-07-09, 14:07:43
Es wuerde heutzutage auch nicht besonders viele mehr X10 Spiele geben wenn die Installation von D3D10 auch auf XP als Beispiel moeglich waere.
DX10 wird, denke ich, übersprungen, da von DX11 auch die alten Karten ohne 10 oder 11 profitieren werden.

Ailuros
2009-07-09, 14:08:53
Von jeglicher zukuenftiger X11 GPU wuerde ich irgendwo bis zu doppelt so viel Leistung im Vergleich zum Vorgaenger erwarten, sonst macht jegliche Aufruestung auch keinen besonderen Sinn am Ende.

Ailuros
2009-07-09, 14:10:28
DX10 wird, denke ich, übersprungen, da von DX11 auch die alten Karten ohne 10 oder 11 profitieren werden.

Ich schenk Dir einen Keks wenn Du Dein eigenes Oxymoron im obrigen Satz selber entdecken kannst ;)

N0Thing
2009-07-09, 18:01:26
Es wuerde heutzutage auch nicht besonders viele mehr X10 Spiele geben wenn die Installation von D3D10 auch auf XP als Beispiel moeglich waere.


Gibt es überhaupt Spiele, die einen reinen DX10 Path haben?

Gast
2009-07-09, 18:16:18
Ich schenk Dir einen Keks wenn Du Dein eigenes Oxymoron im obrigen Satz selber entdecken kannst ;)
Kriegst auch einen, wenn du Oxymoron (http://de.wikipedia.org/wiki/Oxymoron) nachgeschlagen hast. ;)

Ailuros
2009-07-10, 00:03:04
Kriegst auch einen, wenn du Oxymoron (http://de.wikipedia.org/wiki/Oxymoron) nachgeschlagen hast. ;)

Ich brauch gar nichts nachschlagen als Grieche :P. Aber da Du Deinen Widerspruch so oder so nicht finden kannst, bleibt nachzudenken auf welchen GPUs genau D3D11 einen klaren Vorteil geben koennte (ohne X11 Komplianz).

Gibt es überhaupt Spiele, die einen reinen DX10 Path haben?

IMHLO alle Spiele die einen D3D10 path haben, aktivieren Faehigkeiten die deutlich zu D3D10 gehoeren. Es scheint mir aber so dass es jegliches Spiele viel zu viel "ueberfordert" ebenso wie zu der Zeit wo die ersten angeblichen "DX9.0" Spiele erschienen, wo es eigentlich in der Mehrzahl Spiele waren mit einem DX7 Geruest und ein paar Shader-Effekte dazugeklatscht.

Coda
2009-07-10, 00:11:21
Wobei D3D10 ja bislang nicht nur unter fehlender Verbreitung von Hardware gelitten hat, sondern eben auch an fehlender Verbreitung des Betriebssystems.
D3D10 leidet vor allem daran, dass es keinerlei Abwärtskompatibilität bietet. Das wird mit 11 anders.

Gast
2009-07-10, 13:31:32
Launch im September/Oktober laut Fudzilla
http://www.fudzilla.com/content/view/14609/1/

Ailuros
2009-07-11, 21:51:08
http://forum.beyond3d.com/showpost.php?p=1311535&postcount=1051

(...aus den chiphell Foren)

RV830 800 SP
RV840 1200 SP
RV870 RV830X2 native dual-core 1600SP
R800 RV870X2 3200SP

Follow-up to the possibility of an extension of a smaller number of products
RV890 RV840x2 2400SP
R850 RV890x2 4800SP
Water-cooled R850 RV890x2 4800SP


Ich will hoffen dass RV830 in der 120-130mm2 Region liegt :wink:

dargo
2009-07-11, 22:02:01
RV870 RV830X2 native dual-core 1600SP
Was erwartet uns hier genau? CF oder doch was anderes? Wenn letzteres, wie sind die beiden GPUs miteinander verbunden?

Ailuros
2009-07-11, 22:13:47
Keine Ahnung auf jeden Fall klingt mir als Laie bei etwas dass man "native dual core" nennt CF als Bloedsinn. So wie ich es mir vorstelle klingt es eher nach zwei cores auf dem gleichen die.

Wie dem auch sei verstehe ich den Sinn dieser Strategie momentan nicht ganz ausser ich verpasse irgend etwas hier. Der angebliche RV840 sieht nach einem merkwuerdigen Einzelgaenger aus der nicht unbedingt ins ganze Bild passt; wenn man sich schon die Muehe macht einen einzigen chip zu bauen der 400SPs mehr als 830 hat, koennte man auch in dem Sinn auch einen einzelnen 1600SP chip auch gleich herstellen. Ich will auch hoffen dass die Geruechte von chiphell ueber zusaetzlich $10 fuer packaging was RV870 betrifft nicht stimmen; sonst ist die ganze Grundidee einfach daemlich.

Liszca
2009-07-11, 22:19:27
Vermutlich sind also die geschätzten 150 W einfach nur ein Schätzfehler von "Nordichardware".

Das heißt es kommt mit 1x6pin Stromanschluß.

dargo
2009-07-11, 22:22:38
So wie ich es mir vorstelle klingt es eher nach zwei cores auf dem gleichen die.

Klingt irgendwie verrückt, welchen Sinn bzw. Vorteil sollte dies im Vergleich zum 1600SP "Singlecore" haben?

Gast
2009-07-11, 22:26:01
Ist wohl eine Ausgeburt diverser Tagträumer, die meinen es müsse "Dualcore GPUs" geben. ;)

Ailuros
2009-07-11, 22:27:26
Klingt irgendwie verrückt, welchen Sinn bzw. Vorteil sollte dies im Vergleich zum 1600SP "Singlecore" haben?

Ich vermute um angeblich die Herstellungs-kosten bzw. -zeiten zu reduzieren. Vorraussetzung waere aber dass wie schon erwaehnt jeder 830 core nicht groesser als ~130mm2 ist und dass das chiphell Geruecht ueber 10$ zusaetzlicher Package-Kosten fuer RV870 nicht stimmt.

=Floi=
2009-07-11, 23:39:00
das wäre das ende für ati. die 4 chips würden zwar viel leistung bringen, aber die MGPU nachteile wären einfach zu groß und damit würde man nv freie bahn machen für ihre single gpu.

_flx
2009-07-11, 23:40:42
Wie viele GPUs hatte 3dfx noch gleich auf einem PCB bevor sie von der Bildfläche verschwanden?


scnr ;)

dargo
2009-07-11, 23:45:33
das wäre das ende für ati. die 4 chips würden zwar viel leistung bringen, aber die MGPU nachteile wären einfach zu groß und damit würde man nv freie bahn machen für ihre single gpu.
Welche MGPU-Nachteile? Zumindest bei dem angeblichen RV870 (RV830X2 native dual-core 1600SP) sehe ich keine wenn die mit nativ auch wirklich nativ meinen. Denn dann hat es nichts mehr mit CF zu tun.

Wie viele GPUs hatte 3dfx noch gleich auf eine PCB bevor sie von der Bildfläche verschwanden?

Und was haben die primitiven GPUs von 3dfx mit heutigen gemeinsam?

Gast
2009-07-11, 23:46:59
Wie viele GPUs hatte 3dfx noch gleich auf eine PCB bevor sie von der Bildfläche verschwanden?


scnr ;)2. ;)


das wäre das ende für ati. die 4 chips würden zwar viel leistung bringen, aber die MGPU nachteile wären einfach zu groß und damit würde man nv freie bahn machen für ihre single gpu.
Bisher haben die Magazine MGPU auch gut gelobt.

Bei einem gemeinsamen Die kann etwas mehr als nur stupides AFR erwarten. Eine 5870 mit doppeltem VRAM, eine 5870 X2 mit 4 fachen VRAM, nein das können die nicht bringen.
Eher erwarte ich, das sich der Chip wie einer verhält, nur eben mit einem eigenauten Flaschenhals namens Sideport.

Botcruscher
2009-07-11, 23:47:46
Wie viele GPUs hatte 3dfx noch gleich auf eine PCB bevor sie von der Bildfläche verschwanden?
scnr ;)

Im Handel gerade mal 2. Da hatte eine Voodoo 1 oder 2 mehr.;)

][immy
2009-07-12, 01:34:09
das wäre das ende für ati. die 4 chips würden zwar viel leistung bringen, aber die MGPU nachteile wären einfach zu groß und damit würde man nv freie bahn machen für ihre single gpu.

naja, zumindest bei den 2 chips auf einem DIE könnte ich mir schon vorstellen, das man einige Multi-GPU eigenheiten relativ problemlos aus der welt schaffen kann, wenn die verbindung unter den chips entsprechend ausgereift ist, was bei bisherigen mutli-gpu lösung ja nicht der fall ist.


aber an sich muss ich gestehen verstehe ich nicht, warum multi-gpu bei GPUs so ein großes problem darstellt. zugegeben, wenn die chips voneinander getrennt sind, dann müssen ziemlich schnelle und breite datenleitungen zwischen beiden liegen, damit sich diese "absprechen" können um nicht zu viel doppelt zu berechnen (wenn alle an einem bild rechnen). aber an sich ist eine GPU doch eh schon in sich eine ansammlung von vielen rechenkernen (für die verschiedensten zwecke), also warum sollte es (besonders wenn sie sich auf einem DIE befinden) so schwierig sein, 2 GPUs annährend so effizient rechnen zu lassen, wie eine die doppelt so groß ist.
gerade auf einem DIE könnte man ja eine relativ günstige und schnelle verbindung realsieren. das es nicht so einfach über das gesamte PCB bei getrennten chips geht, leuchtet mir ja noch ein, aber auf einem DIE dürfte das ja an sich kein problem darstellen.

Ailuros
2009-07-12, 01:40:30
Den albernen Witz ueber wieviele chips auf einem PCB bei 3dfx hockten vor deren Untergang will ich uebersehen.

Da die V5 6000 es nie zum desktop schaffte, nur 2 chips fuer die V5 5500 und bis zu 16 chips fuer die AAlchemy Systeme bei Quantum3D. Nach dem 3dfx Aufkauf schloss NV einen Vertrag mit Quantum ab und liefert ihnen seither Quadros fuer ihre professionellen Flugsimulatoren aus.

Es gibt keinen besonderen Unterschied zwischen multi-chip und multi-GPU wenn man bedenkt wie die Leistung im desktop Markt durch die Treiber skaliert wird (AFR). Nichtdestominder ist die neueste GTX295 auch ein PCB mit 2 chips.

Ailuros
2009-07-12, 01:48:24
[immy;7409902']naja, zumindest bei den 2 chips auf einem DIE könnte ich mir schon vorstellen, das man einige Multi-GPU eigenheiten relativ problemlos aus der welt schaffen kann, wenn die verbindung unter den chips entsprechend ausgereift ist, was bei bisherigen mutli-gpu lösung ja nicht der fall ist.

Nach den obrigen hypothetischen Specs haben sie einen nativen dual core RV870 (2*RV830) welcher fuer die X2 dann nach wie vor als X2 erscheinen soll wenn ich es nicht falsch verstanden habe.

Man loest hier praktisch gar nichts, denn die high end Loesung wird nach wie vor anscheinend auf AFR beruhen. Wenn es stimmt heisst es lediglich dass jetzt AMD nichtmal mehr single core Performance GPUs entwickelt sondern irgendwo im oberen mainstream halt macht.


aber an sich muss ich gestehen verstehe ich nicht, warum multi-gpu bei GPUs so ein großes problem darstellt. zugegeben, wenn die chips voneinander getrennt sind, dann müssen ziemlich schnelle und breite datenleitungen zwischen beiden liegen, damit sich diese "absprechen" können um nicht zu viel doppelt zu berechnen (wenn alle an einem bild rechnen). aber an sich ist eine GPU doch eh schon in sich eine ansammlung von vielen rechenkernen (für die verschiedensten zwecke), also warum sollte es (besonders wenn sie sich auf einem DIE befinden) so schwierig sein, 2 GPUs annährend so effizient rechnen zu lassen, wie eine die doppelt so groß ist.
gerade auf einem DIE könnte man ja eine relativ günstige und schnelle verbindung realsieren. das es nicht so einfach über das gesamte PCB bei getrennten chips geht, leuchtet mir ja noch ein, aber auf einem DIE dürfte das ja an sich kein problem darstellen.

Wenn sie diese Masche fuer RV870 (2*RV830) auf einem die und fuer RV870 X2 dann 4 chips auf einem PCB haetten wuerde ich das Ganze ja auch leichter verstehen koennen.

So wie es aussieht wird die RV870 X2 eigentlich aus einem PCB mit zwei dual core RV870 chips bestehen die miteinander nach wie vor via AFR kommunizieren werden.

][immy
2009-07-12, 01:58:03
Nach den obrigen hypothetischen Specs haben sie einen nativen dual core RV870 (2*RV830) welcher fuer die X2 dann nach wie vor als X2 erscheinen soll wenn ich es nicht falsch verstanden habe.

Man loest hier praktisch gar nichts, denn die high end Loesung wird nach wie vor anscheinend auf AFR beruhen. Wenn es stimmt heisst es lediglich dass jetzt AMD nichtmal mehr single core Performance GPUs entwickelt sondern irgendwo im oberen mainstream halt macht.




Wenn sie diese Masche fuer RV870 (2*RV830) auf einem die und fuer RV870 X2 dann 4 chips auf einem PCB haetten wuerde ich das Ganze ja auch leichter verstehen koennen.

So wie es aussieht wird die RV870 X2 eigentlich aus einem PCB mit zwei dual core RV870 chips bestehen die miteinander nach wie vor via AFR kommunizieren werden.

es könnte natürlich auch sein, das amd hingegen will und die zweite GPU z.B. für Physikbeschleunigung etc nutzen will. d.h. in diesem fall würde die trennung zwischen den GPUs nicht einmal mehr ins gewicht fallen. würde zwar mit getrennten chips jetzt auch schon funktionieren (wenn sie denn eine physik api direkt unterstützen würden) jedoch wäre es so wohl einfach günstiger zu produzieren.

für den GPGPU bereich wäre ein solches 4-chip gespann wohl aber ein segen. dort stört es überhaupt nicht das es 4 chips sind und zudem könnte man dann mit Crossfire 8 chips in einem rechner werkeln lassen. so gesehen könnte es natürlich auch sein, das amd weg will von Crossfire mittels 2 PCIe slots. denn hier wird es definitiv immer die multi-gpu probleme geben, da nur stark begrenzte bandbreite und geschwindigkeit zur verfügung steht (mit "erheblichen" latenzen (im vergleich zu eine on-chip variante) dazu auch noch)

Der_Korken
2009-07-12, 02:03:06
Der RV840 passt wirklich nicht in dieses Line-Up. Dass der RV870 einfach ein Dual-RV830 ist, das würde ich ja vielleicht noch glauben, aber wozu dann noch einen zweiten Chip entwickeln, der genau dazwischen liegt? Damit frisst man den Vorteil des Dualchips ja wieder auf. Es könnte höchstens so sein, dass zuerst RV830 und 870 da sind und dann später RV840 und 890 als Refresh der beiden (so ähnlich wie beim RV7xx).

mboeller
2009-07-12, 08:59:08
Auf Chipbell wurde in dem gleichen Thread auch noch über den R600 diskutiert. Wenn ich es durch die google-Übersetzung nicht falsch verstanden habe, dann ist das neue Lineup eine Art Nachfolger des R600. Der Ringbus des R600 (der laut Chipbell-Diskussion nicht richtig funktioniert hat) würde dann einfach auf 2 GPUs aufgespalten. Also das alte System wie es schon seit einem Jahr diskutiert wird.

Spekulation: Später, wenn der 32nm od. 28nm Prozess bei GF richtig funktioniert kann man dann vielleicht 4 GPUs auf ein MPU-Die "kleben" um die Leistung noch weiter zu erhöhen. Dann wäre der Ringbus des R600 durch 4 kleine GPUs vollständig nachgebildet.

Ailuros
2009-07-12, 09:13:49
[immy;7409917']es könnte natürlich auch sein, das amd hingegen will und die zweite GPU z.B. für Physikbeschleunigung etc nutzen will. d.h. in diesem fall würde die trennung zwischen den GPUs nicht einmal mehr ins gewicht fallen. würde zwar mit getrennten chips jetzt auch schon funktionieren (wenn sie denn eine physik api direkt unterstützen würden) jedoch wäre es so wohl einfach günstiger zu produzieren.

Erstens wiederspricht diese Idee zum Konzept einer jeglichen Stream Prozessing GPU; wieso wuerde man sich das Leben schwerer machen einen interconnect zu entwickeln fuer etwas das im Grund besser auf einem theoretischen 1600SP chip gehen wuerde?

Da mir die angebliche RV840 nicht ins Bild passt, klingt mir die RV870 (falls das Zeug erstmal stimmt) eher nach einer relativ schnellen Notloesung.

für den GPGPU bereich wäre ein solches 4-chip gespann wohl aber ein segen. dort stört es überhaupt nicht das es 4 chips sind und zudem könnte man dann mit Crossfire 8 chips in einem rechner werkeln lassen.

Ein Segen fuer GPGPU ist aktive generelle Unterstuetzung und nicht wie man von A auf B kommt mit der HW. Noch besser waeren ALUs die so viel wie moegliche Befehle/Applikationen parallel und unabhaengig bearbeiten koennten so nahe wie moeglich am MIMD Konzept, welches aber im Gegensatz zu Deiner obrigen Idee liegt.

Wie dem auch sei momentan verstehe ich dass nur RV870 ein nativer dual core ist und die X2 aus 2*RV870 chips auf einem PCB besteht (wie die heutigen X2).

Wo genau hier der Segen sein soll kann ich momentan nicht sehen; high end Tesla besteht heute aus 4 Quadros in einer Kiste fuer den Server-Markt.

so gesehen könnte es natürlich auch sein, das amd weg will von Crossfire mittels 2 PCIe slots. denn hier wird es definitiv immer die multi-gpu probleme geben, da nur stark begrenzte bandbreite und geschwindigkeit zur verfügung steht (mit "erheblichen" latenzen (im vergleich zu eine on-chip variante) dazu auch noch)

Fuer GPGPU macht eine jegliche andere Masche keinen Unterschied der mir einfallen koennte; fuer professionelle Applikationen wird sowieso kein AFR benutzt.

Ailuros
2009-07-12, 09:16:53
Auf Chipbell wurde in dem gleichen Thread auch noch über den R600 diskutiert. Wenn ich es durch die google-Übersetzung nicht falsch verstanden habe, dann ist das neue Lineup eine Art Nachfolger des R600. Der Ringbus des R600 (der laut Chipbell-Diskussion nicht richtig funktioniert hat) würde dann einfach auf 2 GPUs aufgespalten. Also das alte System wie es schon seit einem Jahr diskutiert wird.

Spekulation: Später, wenn der 32nm od. 28nm Prozess bei GF richtig funktioniert kann man dann vielleicht 4 GPUs auf ein MPU-Die "kleben" um die Leistung noch weiter zu erhöhen. Dann wäre der Ringbus des R600 durch 4 kleine GPUs vollständig nachgebildet.

Das mit dem ringbus glaube ich erst wenn ich es sehe; ausser AMD hat es tatsaechlich geschafft so ein Ding anstaendig auf die Beine zu stellen, denn bei Intel's LRB ist der ringbus einer der Wehwehchen der nicht unbedingt ein Vorteil ist.

V2.0
2009-07-12, 13:29:51
Warum baut man 2 Chips mit nur 50% Unterschied in den SPs.

Sinn macht der Gedanke eigentlich nur, wenn die größere Version auch über eine breitere Speicheranbindung verfügt. Also z.B. 256Bit gegen 128Bit. Aber dann macht die X2 des kleinen Chips wenig Sinn.

KonKorT
2009-07-12, 13:38:56
... zumal man für 1200 SPs von 16 auf 20 5D-Einheiten pro Cluster umsteigen müsste, was absolut keinen Sinn ergibt.

deekey777
2009-07-12, 13:49:24
... zumal man für 1200 SPs von 16 auf 20 5D-Einheiten pro Cluster umsteigen müsste, was absolut keinen Sinn ergibt.
Das ist alles Frage des Compilers.

Coda
2009-07-12, 13:51:58
Nö, das interessiert den Compiler nicht.

deekey777
2009-07-12, 13:53:21
Nö, das interessiert den Compiler nicht.
Brainfart.

KonKorT
2009-07-12, 13:53:44
Das ist alles Frage des Compilers.
Ehm, nenn mir mal bitte einen vernünftigen Grund, warum man bei einem(!) Chip die SIMDs so umbrechen sollte? Von der höheren Branch-Granularität ganz zu schweigen...

Und nein, es ist keine Frage des Compilers!

Coda
2009-07-12, 13:53:58
Auf Chipbell wurde in dem gleichen Thread auch noch über den R600 diskutiert. Wenn ich es durch die google-Übersetzung nicht falsch verstanden habe, dann ist das neue Lineup eine Art Nachfolger des R600. Der Ringbus des R600 (der laut Chipbell-Diskussion nicht richtig funktioniert hat) würde dann einfach auf 2 GPUs aufgespalten. Also das alte System wie es schon seit einem Jahr diskutiert wird.

Spekulation: Später, wenn der 32nm od. 28nm Prozess bei GF richtig funktioniert kann man dann vielleicht 4 GPUs auf ein MPU-Die "kleben" um die Leistung noch weiter zu erhöhen. Dann wäre der Ringbus des R600 durch 4 kleine GPUs vollständig nachgebildet.
Dir ist aber schon klar, dass der Ringbus nur für die Daten da war und nicht für sämtliche interne Chipkommunikation?

So einfach wie du es dir machst ist es nicht. Und doch, er hat funktioniert nur ist ein Ringbus einer Crossbar IMMER unterlegen, das liegt in der Sache. Einen Ringbus verbaut man um Platz zu sparen, weil man nicht alles mit allem verbinden muss. Dafür bekommt man mehr Latenz zwischen weit entfernten Hops.

deekey777
2009-07-12, 13:55:21
Ehm, nenn mir mal bitte einen vernünftigen Grund, warum man bei einem(!) Chip die SIMDs so umbrechen sollte? Von der höheren Branch-Granularität ganz zu schweigen...
Es müssen ja nicht bei 5 SPs bleiben, es können auch 6 sein.
http://www.planet3dnow.de/vbulletin/showthread.php?t=362621&garpg=5#content_start
Sicher kennen viele den Itanium von Intel. Seine Architektur beruht auf einem EPIC (Explicitly Parallel Instruction Computing) genannten Konzept. Die Idee hierbei ist, den Aufwand zur Ausnutzung des ILPs von der Hardware in die Software, d.h. in einen Compiler zu verlagern. Der Prozessor bekommt dabei sogenannte VLIWs (Very Long Instruction Words) zur Ausführung zugeteilt, d.h. immer ganze Bündel an Befehlen (für jede Ausführungseinheit genau einen Befehl) für die der Compiler sichergestellt hat, dass sie parallel ausgeführt werden können. Im Gegensatz zu einem superskalaren Prozessor (das sind fast alle modernen x86-CPUs) muss dafür keine Hardware eingesetzt werden. Ebenso bei den GPUs. Insgesamt kann ATI so weitere Funktionseinheiten integrieren und spart die Kontroll-Logik, die für weitere Kerne notwendig wäre. Man erhöht also die theoretische Performance pro Transistor, macht sich aber dafür abhängiger vom Compiler, der auch genügend parallele Instruktionen finden muss, damit das Konzept aufgeht.

Coda
2009-07-12, 13:57:55
Und um wieviel würde dann die effektive Rechenleistung zunehmen bei normalem Shadercode?

Theoretisch sind es 20% pro ALU. Effektiv eher 10 - wenn's gut läuft.

KonKorT
2009-07-12, 13:59:02
Es müssen ja nicht bei 5 SPs bleiben, es können auch 6 sein.
Eine super Idee, wo deren Auslastung jetzt schon im Mittel <= 0,75 liegt. Um es kurz zu machen: Das werden sie ganz bestimmt nicht tun!

Und nehme ich mich deinem Beispiel auch nurmal theoretisch an, wüsste ich nicht, wie du mit besagten 16 6D-Einheiten pro SIMD-Block auf insgesamt 1200 SPs kommen willst. Das wären dann 12,5 SIMD-Blöcke. ;)

Coda
2009-07-12, 14:02:40
http://www.planet3dnow.de/vbulletin/showthread.php?t=362621&garpg=5#content_start
Und was möchtest du damit sagen? Itaniums bündeln immer drei Instructions. Je mehr man nimmt, desto geringer ist die Effizienz. 5 ist schon ziemlich schwer auszulasten.

deekey777
2009-07-12, 14:04:22
Wieso 16? Warum nicht acht wie beim RV730? Oder je acht pro SIMD?
Warum seid ihr so konservativ?

Und was möchtest du damit sagen? Itaniums bündeln immer drei Instructions. Je mehr man nimmt, desto geringer ist die Effizienz. 5 ist schon ziemlich schwer auszulasten.
Ich will nur sagen, dass auch sechs SPs nicht unmöglich sind.

Coda
2009-07-12, 14:08:10
Wer sagt dass ich konservativ bin? Mit 8 und der derzeitigen Architektur hätten sie doppelt so viele TMUs wie bisher, weil immer eine Quad-TMU an einem SIMD hängt. Das ist der Grund.

Wenn sie ALU:TEX erhöhen wollen, dann müssen sie mehr Vec5 pro SIMD verbauen.

NVIDIA verbaut dagegen mehrere (zwei, drei oder vier) Vec8-SIMD pro Octa-TMU.

KonKorT
2009-07-12, 14:08:22
Wieso 16? Warum nicht acht wie beim RV730? Oder je acht pro SIMD?
Warum seid ihr so konservativ?
Bei 8 6D-Einheiten pro SIMD-Block wären es dann insgesamt 25 SIMD-Blöcke. Würde man weiter Quad-TMUs pro Block verbauen, käme man auf 100 TMUs bei 1200 SPs - ein sehr rückschrittiges Verhältnis.
Und deine 8 6D-Einheiten-Logik macht eh nur begrenzten Sinn: Wie willst du dann die ebenfalls angeblichen 800 und 1600 SPs erreichen? Mit 16,67 und 33,33 SIMD-Blöcken? Nett, dass du versuchst, irgendwie den Stuss da in richtige Bahnen zu leiten, aber es ist wohl vergebens.

Ich will nur sagen, dass auch sechs SPs nicht unmöglich sind.
Möglich ist vieles, aber nicht alles sinnvoll.

|MatMan|
2009-07-12, 14:31:02
Da es gerade um die Anzahl der SPs geht...
Wäre 6 nicht evtl. sogar besser als 5? Könnte man dann nicht an den Farbwerten von 2 Pixel gleichzeitig rechnen (2x RGB = 6), oder vielleicht sogar auf 8 gehen, wenn man Alpha noch dazu nimmt? Oder ist das bei ATI nicht möglich?
Wäre natürlich schlecht fürs Branching...

Gast
2009-07-12, 14:31:07
Es müssen ja nicht bei 5 SPs bleiben, es können auch 6 sein.
http://www.planet3dnow.de/vbulletin/showthread.php?t=362621&garpg=5#content_start
War das jetzt Absicht, dass du gerade den hocherfolgreichen Itanium als Beispiel zitiert hast?

=Floi=
2009-07-12, 14:52:46
ich frage mich, was daran jetzt besser ist wenn man dem compiler so viel arbeit macht und das ganze nicht einfach wie bei nv mit einer feineren granularität macht. vorteil davon ist die sehr hohe effizienz bei sehr kleinen berechnungen und ebenso sehr hohe effizienz bei sehr komplexen berechnungen. man braucht hald mehr logik und mehr platz, aber dafür bekommt man hinten auch mehr leistung.

Gast
2009-07-12, 14:56:09
NV hat keine feinere Granularität.

Coda
2009-07-12, 17:25:34
Das ist so nicht richtig. R600/RV670/RV770 haben eine Granularität von 64 Threads, die kleineren Modelle je nach SIMD-Konfiguration auch 32 oder 16.

Alle NVIDIA seit G80 haben eine Granularität von 32 Threads.

Gast
2009-07-12, 17:49:09
Der gute Mann meinte IMO aber die Vec5 gegen die propagierten Skalareinheiten.

Coda
2009-07-12, 17:54:55
Jo, das hat auch Vorteile. Man braucht z.B. weniger Instructions In-Flight bei Vec5. Fraglich ist halt meiner Meinung nach die Energieeffizienz.

Die ALUs werden mit sehr leakigen High-Performance-Transistoren gefertigt. Und wenn da nun ein NOP kommt kann man nicht mal kurz innerhalb eines Taktes Power-Gating machen. Dafür schalten diese Gate-Transistoren zu langsam.

Aquaschaf
2009-07-12, 19:06:40
man braucht halt mehr logik und mehr platz, aber dafür bekommt man hinten auch mehr leistung.

..und mit dem selben Platz kann man auch mehr Einheiten mit einfacherer Logik hinsetzen, logischerweise. Woraus folgt dass sich nicht so einfach sagen läßt, was besser ist.

horn 12
2009-07-12, 19:09:43
Nun, wenn der RV870 im August (Und das Monat hat 31 Tage!!) fertiggestellt wird, dann kann man wohl nach ca. 4-6 Wochen mit einem Release der Karten rechnen, wenn alles glatt läuft könnte es gar Mitte-Ende September werden...
Also doch bedeutend früher als der Win7 Start.

Nakai
2009-07-12, 19:30:21
Damit soetwas überhaupt klappt, muss ATI aber die Treiber und die Verbindung zwischen den Chips sehr stark verbessern.

Naja dann haben wir eben 4 GPUs auf einer Grafikkarte.
Knappe 8TFlop an Shaderleistung.

RV830 800 SP
RV840 1200 SP
RV870 RV830X2 native dual-core 1600SP
R800 RV870X2 3200SP

Follow-up to the possibility of an extension of a smaller number of products
RV890 RV840x2 2400SP
R850 RV890x2 4800SP
Water-cooled R850 RV890x2 4800SP

Ich verstehe es nicht. RV830 passt ja noch. RV840 passt mit 1200SPs auch noch ins Schema. Aber der RV870 ist ja die totale Kagge.
Nativer Dualcore...mhh, ich geh eher davon aus, dass es zwei Dies in einem Package sind. Bis jetzt war DualCore bei GPUs immer alles getrennt.


mfg Nakai

dargo
2009-07-12, 19:38:11
Nativer Dualcore...mhh, ich geh eher davon aus, dass es zwei Dies in einem Package sind.

Dann bin ich aber auf die Verbindung beider gespannt. Wie hoch müsste eigentlich die Bandbreite sein um die beiden nicht auszubremsen? Weit über 100GB/s?

Nakai
2009-07-12, 19:45:09
Dann bin ich aber auf die Verbindung beider gespannt. Wie hoch müsste eigentlich die Bandbreite sein um die beiden nicht auszubremsen? Weit über 100GB/s?

Wie schnell sind die Verbindungen zwischen den zwei Chips auf einer HD4870X2?

Es muss ja nicht heißen, dass sie sich gegenseitig ausbremsen, solange alle ihren eigenen Speicher haben.

Auf jeden Fall muss die Verbindung zwischen den Chips deutlich besser und schneller werden.


mfg Nakai

Coda
2009-07-12, 19:46:33
Es muss ja nicht heißen, dass sie sich gegenseitig ausbremsen, solange alle ihren eigenen Speicher haben.
Das ist nur der Fall solange man AFR macht.

AnarchX
2009-07-12, 19:49:44
Wie schnell sind die Verbindungen zwischen den zwei Chips auf einer HD4870X2?

http://img513.imageshack.us/img513/85/sideport9349586wl4.jpg


Es muss ja nicht heißen, dass sie sich gegenseitig ausbremsen, solange alle ihren eigenen Speicher haben.

Wenn AMD etwas will, ist es doch dass beide GPUs auf den gleichen Speicher zugreifen können.

dargo
2009-07-12, 19:50:01
Wie schnell sind die Verbindungen zwischen den zwei Chips auf einer HD4870X2?

Was hat das mit nativen 2x RV830 zu tun? HD4870x2 ist nichts anderes als die AFR-Sche... Wenn AMD schon AFR beim RV870 anbietet dann gute Nacht. :ugly:

Ailuros
2009-07-12, 21:54:15
Nun, wenn der RV870 im August (Und das Monat hat 31 Tage!!) fertiggestellt wird, dann kann man wohl nach ca. 4-6 Wochen mit einem Release der Karten rechnen, wenn alles glatt läuft könnte es gar Mitte-Ende September werden...
Also doch bedeutend früher als der Win7 Start.

Nagel Oktober in Deinem Hinterkopf fest im besten Fall; es hilft Enttaeuschungen zu entgehen.


Naja dann haben wir eben 4 GPUs auf einer Grafikkarte.
Knappe 8TFlop an Shaderleistung.

Woher sollen denn die 8 TFLOPs genau herkommen? Wird die RV870 X2 auf 900MHz getaktet sind es wohl eher 5.76TFLOPs.

Gast
2009-07-12, 22:40:46
Darüber hinaus (über die falschen TFLOPs) sich immer schön sich mit TFLOPs brüsten.

Gibt ja nichts anderes wie Bandbreite oder Füllrate.

Nakai
2009-07-12, 23:04:00
Wenn AMD etwas will, ist es doch dass beide GPUs auf den gleichen Speicher zugreifen können.

Das hab ich vorhin auch schon mal erwähnt und wurde dafür zurecht gestutzt.

Woher sollen denn die 8 TFLOPs genau herkommen? Wird die RV870 X2 auf 900MHz getaktet sind es wohl eher 5.76TFLOPs.

Ein möglicher 2xRV890 mit 4800SPs. Irgendwie versteh ich die gesamte Logik was AMD sich dabei gedacht hat nicht.

http://img513.imageshack.us/img513/8...9349586wl4.jpg


Der Sideport wird ja noch nicht genutzt. Imo sehe ich keine Möglichkeit, dass eine so hohe Bandbreite erreicht wird.

Was hat das mit nativen 2x RV830 zu tun? HD4870x2 ist nichts anderes als die AFR-Sche... Wenn AMD schon AFR beim RV870 anbietet dann gute Nacht.

RV840 wird mit 1200SPs einigermaßen interessant. Der Rest is für die Katz.


mfg Nakai

Ailuros
2009-07-12, 23:07:47
Darüber hinaus (über die falschen TFLOPs) sich immer schön sich mit TFLOPs brüsten.

Gibt ja nichts anderes wie Bandbreite oder Füllrate.

Wie bedeutungslos generell sterile Spezifikationszahlen (FLOPs um einiges mehr) sind hab ich persoenlich schon so oft erwaehnt dass ich es schon als selbstverstaendlich halte.

Als waschreiner TBDR-Fan koennte ich Dir auch so manche langweilige Geschichten erzaehlen wie bedeutungsvoll oder bedeutungslos Bandbreite und Fuellrate sein koennte bei Sachen wie MRTs, alpha blending, antialiasing oder weiss der Geier was noch.

Es ist wichtiger wie eine Architektur ihre Bandbreite bzw. Fuellrate behandelt als die eigentliche rohe Bandbreite als Beispiel.

Wie dem auch sei Effizienz hin und her falls das bisherige Zeug stimmen sollte koennte es sein dass das FLOP Verhaeltnis bei RV870 X2 vs. G300 im Vergleich zu RV770 X2 vs. GT200 leicht schrumpft. Ergo bleibt abzusehen was genau NV im generellen Bereich der Effizienz ihrer X11 Architektur genau angestellt hat.


Ein möglicher 2xRV890 mit 4800SPs. Irgendwie versteh ich die gesamte Logik was AMD sich dabei gedacht hat nicht.

Schritt fuer Schritt bitte; der erste Teil koennte sogar teilweise stimmen der Absatz darunter klingt nur nach frivoler Spekulation auf RV8x0@40nm Basis mit einem zukuenftigem Herstellungsprozess. Wenn es wirklich so weit kommen muss spekuliere ich jetzt auf auch ueber den uebernaechsten Herstellungsprozess auf dem NV hoechstwahrscheinlich eine dual-chip GPU praesentieren koennte (nennen wir sie schon jetzt "GTX395" LOL...) und dagegen sieht diese angebliche 4800SP Konstellation auch nicht mehr so toll aus.

VlaDeZ
2009-07-13, 01:23:50
Ich habe neulich mal meine Gedanken schweifen lassen; man könnte bei Dual GPU Karten (also auch "DualCore GPUs) einen externen Speichercontroller verwenden.

Wie ihr ja garantiert alle wisst, sind bei der Core Architektur alias Merom und Penryn 2 Kerne vorhanden, die auf einem gemeinsamen Speicher zugreifen können.
Das könnte man doch auch auf GPUs übertragen, hier mal eine tolle Paint Skizze :D

http://www.abload.de/thumb/dualgpua2vu.jpg (http://www.abload.de/image.php?img=dualgpua2vu.jpg)


Das Problem wäre ein relativ mniedriger Durchsatz und hohe Latenzen - das Problem mit der Speicherbanbreite könnte man durch schnellen GDDR5 Speicher mindern oder gar aus dem Weg räumen.
Um gegen die Latenzen "anzukämpefen" nehme ich auch den Core als Vorbild, durch große Caches in der GPU und einem schnellen Zwischenspeicher für jede GPU könnte man mithilfe eines guten Algorithmuses dem Latenzproblem vorbeugen.

Diese Methode könnte natürlich bei einer "nativen" Dual GPU Karte (wie viele es nennen) auch nutzen.


Dadurch hätte man den doppelten Speicher bei Dual GPU schon mal beseitigt, ob es aber überhaupt einen Vorteil bringt, das weiß ich natürlich nicht.



Ps. Ich habe echt absolut keine Ahnung beim Aufbau eines Mikrochips und habe mir das alles in meiner Phantasie zusammengereimt! --> Ich würde mich sehr freuen, wenn ihr euch dazu äußern würdet :p

Ailuros
2009-07-13, 01:42:49
LOL zur tollen paint skizze :biggrin:

Spass beiseite die die area die fuer RV8x0 momentan spekuliert wird laesst nicht an grosse caches denken (natuerlich kommt es auch darauf was Du mit "gross" genau meinst...).

Der vorgezeigte Wafer mit den ~180mm2 cores klingt hoechstwahrscheinlich nach RV840. Wehe wenn RV830 so gross ausgefallen ist (was mir aber auch schwer faellt zu glauben).

=Floi=
2009-07-13, 02:50:10
das ist sowieso die pure verschwendung. bei 2 chips geht es ja noch, aber bei 4 hat man unnötig viel overhead min 2x eher 3x vorhanden welchen man eigentlich nicht braucht. was ich bei der yieldrate einspare geht unweigerlich hier wieder drauf und beim einzelnen chip kann ich auch keine redundanz einsparen!

V2.0
2009-07-13, 07:09:39
Es besteht ja auch ein erheblicher Intressenkonflikt in der Entwicklung. Will man RV830 möglichst geeignet für die Dual-GPU Lösung machen wird er größer und damit wirtschaftlich unattraktiver als Single-Chip.

Captain Future
2009-07-13, 09:22:22
Und was haben die primitiven GPUs von 3dfx mit heutigen gemeinsam?
Sie hatten zum Beispiel kein Mikroruckeln, konnten gemeinsam an 4x und 8x SGSSAA arbeiten, nutzten einen gemeinsamen Framebuffer.

Oh - Mist. Das sind ja keine Gemeinsamkeiten, sondern Sachen die 3dfx besser gemacht hat.

Gast
2009-07-13, 09:46:07
3dfx hat seine Produkte dazu ausgelegt, das der Kunde einen Mehrwert hat.
Heute sind die AFR Produkte dazu ausgelegt, das man sie teurer verkaufen kann und das sie lange Balken erzeugen.

Kleiner, aber feiner Unterschied, der alles erklärt.

samm_Gast
2009-07-13, 12:14:58
3dfx hat seine Produkte dazu ausgelegt, das der Kunde einen Mehrwert hat.
Heute sind die AFR Produkte dazu ausgelegt, das man sie teurer verkaufen kann und das sie lange Balken erzeugen.

Kleiner, aber feiner Unterschied, der alles erklärt.Wenn du hier von Nostalgie geprägtes Marketing-Gewäsch loslässt, muss angemerkt werden, dass 3dfx deutlich an den Kundenbedürfnissen vorbeientwickelt hat, resp. sie konnten den angeblichen Mehrwert nicht so darstellen, dass er allgemein als solcher wahrgenommen wurde. Folge: Verlust von Marktanteilen, Aufkauf, keine Weiterverwendung ihrer MGPU-Strategie (ausser des Namens).

Falls ATi nun wirklich eine derartige MGPU-Strategie fährt, die ein minderwertiges Ergebnis produziert (und ich rede nicht nur von Filter-Spartricks), hoffe ich, dass das dem potentiellen Kunden klar ist, und eben genauso wie bei 3dfx das Marketing versagt (das nämlich dem Zielpublikum ebendiese Minderwertigkeit als Mehrwert andrehen werden will) ;) Im besten Falle jedoch kommt wieder alles anders als man denkt, wie beim RV770, diesmal aber auf Qualität bezogen, nicht nur auf "Speed", wobei meine Hoffnungen diesbezüglich eher in weiterer Zukunft bei den R...9er liegen...

dargo
2009-07-13, 12:53:06
Sie hatten zum Beispiel kein Mikroruckeln, konnten gemeinsam an 4x und 8x SGSSAA arbeiten, nutzten einen gemeinsamen Framebuffer.

Und inwiefern wäre das bei heutigen GPUs noch möglich? Meinst du denn die IHVs sind blöd und bieten AFR an wenn besseres kostengünstig möglich wäre?

Gast
2009-07-13, 13:13:16
Wer sagt das die IHVs blöd sind? Eher sind es die Kunden, auch teils weil sie schlecht informiert werden.

Eine 4850/70 X2 ist kein Zwang, es geht auch mit einer GTX 280/285.

Aber der Kunde wird so schlecht informiert, das er zur X2 greift.

Tarkin
2009-07-13, 13:53:58
Picture Improves for Nvidia (Hä?? Wie meinen?)
J.P. Morgan raised estimates on the graphics-chip maker.

OUR CHECKS FOR NVIDIA (ticker: NVDA) indicate shipments of graphics chips have been slightly better than expected in the company's July quarter (fiscal second-quarter 2010) due to share gains.

Nvidia appears to be gaining share in desktop graphics. Despite AMD's (AMD) improved graphics roadmap, it appears Nvidia is currently gaining share in graphics, primarily due to price reductions on desktop components (estimated 39% of fiscal first-quarter 2010 revenue). We note the Mercury Research data indicated the desktop share gains began in calendar fourth-quarter 2008. In addition to the lower prices, we believe AMD's early start on 40 nanometer has been impaired by poor yields at Taiwan Semiconductor Manufacturing (TSM). We believe Nvidia is experiencing the most relative strength from its chipset segment (28% of fiscal first-quarter 2010 revenue), and we estimate it should grow 11% quarter-over-quarter.

But price pressure should put a lid on margin recovery in the second quarter. Due to lower pricing, we are lowering our fiscal second-quarter gross-margin estimate from 33.0% to 32.5%. We continue to believe the single most important factor for meaningful gross-margin expansion at Nvidia is a resumption of high-end graphics card purchases (think: consumer discretionary) and a recovery in workstation graphics (think: corporate information-technology budgets). We would note our recent checks indicate orders are stable for workstation cards (but not rebounding) but high-end graphics-processing-unit sales remain weak.

Channel inventories still below normal, which could be positive for the fiscal third quarter. Our checks in the graphics card food chain indicate inventories remain below normal levels, even after robust Nvidia shipments in fiscal first quarter. Assuming end-demand is normal for the back-to-school season, low channel inventories could offer potential opportunity for revenue upside beyond end-market growth for companies such as Nvidia due to inventory restocking.

Thoughts on 40 nanometer and the holiday product cycle. While both AMD and Nvidia appear to be having yield problems on the transition to 40-nanometer manufacturing technology, we believe both companies have found workarounds to the problem at Taiwan Semiconductor which should improve yields in the second half of calendar 2009. In addition, our checks indicate AMD is on track to release its new family of DX11 GPUs (new "Evergreen" family architecture) in September/October. We believe Nvidia should have its new family ("GT300") afterward, in late calendar fourth quarter or possibly calendar first quarter. If AMD is able to execute on the launch in volume (an assumption, given it is on 40 nanometer), it could give AMD a marketing lead in the important holiday season and Windows 7 launch.

We are concerned on limited profitability and are Neutral on Nvidia stock. We could become more positive on Nvidia stock after the correction if we can see a path toward meaningful gross margin recovery.

We believe margins could meaningfully recover after Nvidia improves its product offering (potentially by end of calendar 2009), after supply-chain order patterns and end-demand normalize (especially at the high-end), and if AMD is unsuccessful in its attempts to aggressively move into the Workstation GPU segment (16% of Nvidia's fiscal first-quarter 2010 revenue).

We also are concerned on risk to the company's chipset business due to legal issues with Intel (INTC). If the company can resolve the licensing issue and continue to ship Intel chipsets, we would be less concerned on risk to our estimates.

Quelle: http://online.barrons.com/article/SB124725011233824459.html

Bemerkung am Rande: EPIC Headline FAIL! In den nächsten Monaten dürfte es wohl eher schlimmer als besser werden wenn AMD im Sept./ Okt. mit den neuen Karten kommt (was auch im Artikel steht). Wie man dann auf so eine Headline kommt ist mir ein Rätsel!

V2.0
2009-07-13, 13:58:38
Naja, das dürfte primär von der Starke des ATI Angebots abhängen.

Coda
2009-07-13, 13:59:29
Ddann macht man halt nen Pseudo-Hard-Launch mit richtiger Verfügbarkeit erst 2010 und gut is. Dann ist auch die "Holiday-Session" gerettet.

Tarkin
2009-07-13, 14:10:53
naja.. ich schätze mal EGAL was kommt... es wird alles andere buchstäblich "alt" aussehen lassen. Und es wird auf KEINEN FALL dazu führen dass nvidia MEHR Karten verkauft (was die Überschrift im Artikel impliziert)

Pictures improves... my ASS. Wie kann man angesichts AMD Produkt-Launch sowas schreiben? Ist doch lächerlich! :|

LovesuckZ
2009-07-13, 14:15:01
Genau, wie kann man im Juli - also heute - schreiben, dass nVidia's Situation sich besser entwickelt als man erwartet hätte. Wie wäre es einfach, wenn du deine Fanboyphantasien in anderen Foren auslebst. Oder am besten gleich beim twitter von den AMD Typen. Und natürlich steigen nVidia's Verkäufe im 3. Quartal - vorallen, wenn der Konkurrent eventuell erst Ende September (du weißt, dass ist am Ende des 3.Q) liefern kann.
Epic Fail sind nur deine Trollversuche - Deekay, wo bist du?

_flx
2009-07-13, 14:23:44
...nevermind.

Gast
2009-07-13, 14:24:41
toll... im Q3 gehts weniger schlecht als erwartet, dafür perpasst man dann komplett das umsatzstärkste Quartal im Jahr (Q4).

Das nennt man dann "Pictures improves".

Anaylsten-Logik.

w0mbat
2009-07-13, 14:32:45
@Tarkin: Les den Text mal genauer!

...
shipments of graphics chips have been slightly better than expected in the company's July quarter
...
We believe Nvidia is experiencing the most relative strength from its chipset segment (28% of fiscal first-quarter 2010 revenue), and we estimate it should grow 11% quarter-over-quarter.
...
low channel inventories could offer potential opportunity for revenue upside beyond end-market growth

Black-Scorpion
2009-07-13, 14:41:04
@LZ

Gerade du solltest mit dem Wort Fanboyphanatasien sehr Vorsichtig sein.

Tarkin
2009-07-13, 14:46:41
@Tarkin: Les den Text mal genauer!

Darum gehts mir nicht. Ich finds einfach nur idiotisch dass hier jemand von "picture improves" spricht wenn es doch offensichtlich ist, dass im Q4 eine mehr oder weniger schallende Ohrfeige ansteht.

never mind... ist auch egal.

V2.0
2009-07-13, 14:47:10
Alt aussehen ist relativ. Die ganze GT21X Serie steht ohne Konkurrenz da, denn da hat auch ATI keine DX11 Chips so schnell fertig. Bleibt nur der Desktop-Markt. Auch wenn ATI da schon ein Line-Up haben sollte, so kann doch nur eine NV-Karte genug FUD erzeugen um die Verkäufe arg zu behindern, wenn sie in der Leistung entsprechend reinhaut.

Hvoralek
2009-07-13, 14:59:22
Darum gehts mir nicht. Ich finds einfach nur idiotisch dass hier jemand von "picture improves" spricht wenn es doch offensichtlich ist, dass im Q4 eine mehr oder weniger schallende Ohrfeige ansteht.Wenn die Ohrfeige schwächer ausfällt als vorher erwartet, ist das doch eine Verbesserung :confused:

LovesuckZ
2009-07-13, 15:06:23
toll... im Q3 gehts weniger schlecht als erwartet, dafür perpasst man dann komplett das umsatzstärkste Quartal im Jahr (Q4).


Für AMD und nVidia haben die neuen Produkte keine großartigen Auswirkungen für das 4.Q - denn die Bestellungen werden alle schon wesentlich früher getätigt.
nVidia bringt mit den kleinen 10.1 40nm Ableger massenweise Low-End in den Markt - und wir wissen ja, wo man das Geld verdient (ich wollt jez nurmal AMD Logik anwenden).

Captain Future
2009-07-13, 15:51:25
Und inwiefern wäre das bei heutigen GPUs noch möglich? Meinst du denn die IHVs sind blöd und bieten AFR an wenn besseres kostengünstig möglich wäre?
Sie bieten es an, weil es die längsten Balken ermöglicht.

Gast
2009-07-13, 16:07:08
Sie bieten es an, weil es die längsten Balken ermöglicht.
Es wäre aber ein existenzielles Risiko, AFR kann einem sehr schnell um die Ohren fliegen, wenn die öffentliche Wahrnehmung kippt. Andererseits, AMD hat sich bereits aus dem HighEnd-Bereich verabschiedet und alles auf den Performance-Sektor gesetzt. Außerdem hat man hat sich relativ unbeschadet aus dem Wettbewerb um Bildqualität und Features verabschiedet und musste nicht einmal in der Mikroruckler-Problematik treiberseitig gegensteuern. AMD definiert Kundenbedürfnisse neu und hat damit Erfolg. Es scheint doch fast so, als renne Nvidia momentan AMD hinterher, weil AMD in einem Spiel, das sie nicht gewinnen können, einfach geschickt die Spielregeln ändern.

Innerhalb einer Strategie, sich nun zentral noch eine Preisklasse tiefer zu positionieren, könnte man das jetztige Performance-Segment natürlich mit AFR notnageln und dafür unterhalb von 100$ den Markt mit besonders attraktiven Karten fluten.

LovesuckZ
2009-07-13, 16:12:18
Sie bieten es an, weil es die längsten Balken ermöglicht.

Nur dort, wo ein Profil existiert. Aber da die Reviewer mitspielen und monatelang immer die selben Games verwenden, wird das kaum zum Nachteil werden.

[fu]121Ah@work
2009-07-13, 16:28:43
wieso denkt jeder, dass die karten so lahm sein werden im vergleich zu NV's angebot?

V2.0
2009-07-13, 16:56:30
Naja, wenn der 800SP Chip ungefähr so groß ist wie RV740 und DX11 hat, was soll man da an Wunder erwarten?

[fu]121ah@home
2009-07-13, 18:49:28
Naja, wenn der 800SP Chip ungefähr so groß ist wie RV740 und DX11 hat, was soll man da an Wunder erwarten?
naja, es bedeutet auch nicht zwingend, dass die 800SP den 800SP beim rv740/770 entsprechen, zudem weis man ja, dass die AMD architektur vorallem über die TMUs an geschwindigkeit gewinnen könnte, ist zumindest mein eindruck von der sache. kann natürlich auch falsch liegen...

was ich sagen will, nehmen wir 10% leistungssteigerung durch verbesserung der SP's, hinzu kommen dann z.b. 10% leistungssteigerung durch taktraten, dann noch z.b. 10% durch mehr TMUs und Filter, bessere branching unit, whatever.

damit wäre sämtliche speku schon wieder am arsch, natürlich ganz zu schweigen davon, dass ich hier mehr als nur speku betreibe.

V2.0
2009-07-13, 20:20:00
121ah@home;7412558']naja, es bedeutet auch nicht zwingend, dass die 800SP den 800SP beim rv740/770 entsprechen, zudem weis man ja, dass die AMD architektur vorallem über die TMUs an geschwindigkeit gewinnen könnte, ist zumindest mein eindruck von der sache. kann natürlich auch falsch liegen...

was ich sagen will, nehmen wir 10% leistungssteigerung durch verbesserung der SP's, hinzu kommen dann z.b. 10% leistungssteigerung durch taktraten, dann noch z.b. 10% durch mehr TMUs und Filter, bessere branching unit, whatever.

damit wäre sämtliche speku schon wieder am arsch, natürlich ganz zu schweigen davon, dass ich hier mehr als nur speku betreibe.

Und mehr TMUs und DX11 kriegt man in die gleiche Die-Fläche im gleichen Prozess? Ich würde eher mit weniger TMUs rechnen als mit mehr.

Coda
2009-07-13, 20:24:16
Wenn wie spekuliert RV870 mit Clustern aus 20er SIMDs bestehen würde, dann wäre das eine Erklärung. Dann wären es nämlich nur noch 32 statt 40 TMUs.

Headman
2009-07-13, 20:33:10
Die ganze GT21X Serie steht ohne Konkurrenz da, denn da hat auch ATI keine DX11 Chips so schnell fertig.

Na ja, die gt218 wird mit ihren 16SP wohl immernoch knapp hinter rv710 liegen, die gt216 dürfte mit rv730 gleich ziehen.
Rv740 und gt215 sollten auch auf einem ähnlichen Niveau liegen.

Sieht für mich eher nach Gleichstand auf ganzer Linie aus.
Nvidia wird bei gt216 und gt218 Vorteile bei der Kerngröße haben, dafür war Ati früher am Markt.

][immy
2009-07-13, 22:25:08
Und mehr TMUs und DX11 kriegt man in die gleiche Die-Fläche im gleichen Prozess? Ich würde eher mit weniger TMUs rechnen als mit mehr.

vielleicht haben sie ja die tesslations-einheit "kleiner" bekommen. bzw, directx11 mit directx 11 kam ja eine tesslationseinheit hinzu. die hatte ati ja auch schon vorher, wenn vielleicht auch primitiver. daher könnte ich mir schon vorstellen, das die directx 11 implementierung bei ati jetzt nicht so viel mehr transistoren etc verbraucht.

Ailuros
2009-07-13, 22:30:58
3dfx hat seine Produkte dazu ausgelegt, das der Kunde einen Mehrwert hat.
Heute sind die AFR Produkte dazu ausgelegt, das man sie teurer verkaufen kann und das sie lange Balken erzeugen.

Kleiner, aber feiner Unterschied, der alles erklärt.

Bei scan line interleaving skalierte keine Geometrie mit.

Coda,

Wenn wie spekuliert RV870 mit Clustern aus 20er SIMDs bestehen würde, dann wäre das eine Erklärung. Dann wären es nämlich nur noch 32 statt 40 TMUs.

1600 / 5 = 320 / 20 = 16 * 4 = 64 TMUs

Wie schon erwaehnt wehe wenn "RV830" der ~180mm2 chip ist.

[immy;7413006']vielleicht haben sie ja die tesslations-einheit "kleiner" bekommen. bzw, directx11 mit directx 11 kam ja eine tesslationseinheit hinzu. die hatte ati ja auch schon vorher, wenn vielleicht auch primitiver. daher könnte ich mir schon vorstellen, das die directx 11 implementierung bei ati jetzt nicht so viel mehr transistoren etc verbraucht.

Nochmal die ff Tesselationseinheit der bisherigen Radeons ist nicht gut genug fuer X11 Komplianz. Es kamen fuer Tesselation noch zwei shader stages (hull und domain shader) hinzu und diese gibt es nirgends in heutigen Radeons.

][immy
2009-07-13, 22:45:02
Nochmal die ff Tesselationseinheit der bisherigen Radeons ist nicht gut genug fuer X11 Komplianz. Es kamen fuer Tesselation noch zwei shader stages (hull und domain shader) hinzu und diese gibt es nirgends in heutigen Radeons.

und nochmal ...
das mag ja durchaus sein, aber eine tesslationseinheit (welcher art auch immer) ist schon seit geraumer zeit verbaut. diese kann nun aber "wegfallen" und ersetzt, oder unter umständen entsprechend erweitert werden und kostet dadurch nicht so viele "neue" transistoren im vergleich dazu, was es an transistoren und platz kosten würde, wenn die tesslationseinheit nochmal komplett dazu kommen würde.
es geht mir nicht darum das die gleiche technologie verwendet werden kann, es geht mir dabei nur um die chipgröße.

Ailuros
2009-07-13, 22:54:30
[immy;7413054']und nochmal ...
das mag ja durchaus sein, aber eine tesslationseinheit (welcher art auch immer) ist schon seit geraumer zeit verbaut.

Wie schwer ist es zu verstehen dass programmierbare Tesselation (X11) nicht weniger in Transistoren wird als nur einfachere sture Tesselations-Einheit?

Ganz grob vereinfacht hat ATI vom Xenos bis zu RV7x0 nur eine Tesselations-Einheit.

D3D11 schreibt Tesselations-Einheit + Hull Shader + Domain Shader vor.


diese kann nun aber "wegfallen" und ersetzt, oder unter umständen entsprechend erweitert werden und kostet dadurch nicht so viele "neue" transistoren im vergleich dazu, was es an transistoren und platz kosten würde, wenn die tesslationseinheit nochmal komplett dazu kommen würde.
es geht mir nicht darum das die gleiche technologie verwendet werden kann, es geht mir dabei nur um die chipgröße.

Sobald Du verstehst dass die X11 Vorraussetzungen fuer Tesselation nicht nur aus einer primitiveren Tesselations-Einheit bestehen, wird das Bild auch um einiges klarer.

Und wenn's schon sein muss jeglicher tesselation/hull shader/domain shader Schnickschnack wird fuer beide IHVs eher als Checkbox Features dienen. Bis zum Punkt wo sie zusaetzliche Transistoren die Effizienz fuer sehr viele und kleine Dreiecke zu erhoehen, reichen die kommenden Implementierungen lediglich fuer Developer-Experimente aus.

Coda
2009-07-13, 23:02:29
Das ist so aber auch nicht richtig. Man kann im Hull-Shader sehr gut LOD einbauen, bzw. die Tesselation für entfernte Objekte ganz ausschalten.

Ailuros
2009-07-13, 23:05:25
Das ist so aber auch nicht richtig. Man kann im Hull-Shader sehr gut LOD einbauen, bzw. die Tesselation für entfernte Objekte ganz ausschalten.

Uebertrieben ja; aber Du weisst besser als alle andere dass IHVs grundsaetzlich zuerst fuer eine erste Implementierung kuemmern und erst bei spaeteren Generation fuer hoehere Leistung bzw. Effizienz sorgen.

][immy
2009-07-13, 23:21:04
Wie schwer ist es zu verstehen dass programmierbare Tesselation (X11) nicht weniger in Transistoren wird als nur einfachere sture Tesselations-Einheit?
ok, letzter versuch (manchmal fühl ich mich einfach nicht versstanden ;))

einfach mal ein beispiel davon was ich damit aussagen will (die zahlen sind einfach nur beispiele um es vielleicht leichter erklären zu können):
meintewegen waren es vorher 10.000 transistoren, jetzt mögen es 20.000 sein, d.h. es würden "nur" 10.000 mehr werden, wodurch der platzbedarf nicht (im vergleich zu vorher) um 20000 transistoren steigen würde, sondern eben nur um 10000.

das es selbstverständlich mehr transistoren werden, dürfte wohl jedem klar sein. mit etwas besseren herstellungsprozessen und entsprechender planung, könnte es aber auch sein, das der "platzbedarf" nur geringfügig ansteigt. besonders wenn es sich nur um ein checklistenfeature handeln sollte, wird es so billig und sparsam wie möglich implementiert sein (besonders bei dem sparkurs von ati).

allerdings könnte ich mir bei ati auch vorstllen, das die tesslationseinheit größere aufmerksamkeit von ihnen erhält, als notwendig. schließlich versuchen sie schon seit einigen generationen immer mal wieder so eine einheit (wenn bisher auch um einiges primitiver) auf ihren karten unter zu bringen.


gibt es eigentlich sonst noch irgendwelche denkbaren aufgaben, womit man das ding (oder auch nur teile davon) füttern kann? denn irgenwas muss ati ja von mal zu mal dazu ermutigen so ein ding auf die karten zu bringen. diesmal kann ich den grund ja noch verstehen (dx11) aber bei den alten generationen die eine tesslationseinheit hatten (z.B. radeon 8500) kann ich es nicht verstehen.

Ailuros
2009-07-14, 00:04:42
[immy;7413128']
einfach mal ein beispiel davon was ich damit aussagen will (die zahlen sind einfach nur beispiele um es vielleicht leichter erklären zu können):
meintewegen waren es vorher 10.000 transistoren, jetzt mögen es 20.000 sein, d.h. es würden "nur" 10.000 mehr werden, wodurch der platzbedarf nicht (im vergleich zu vorher) um 20000 transistoren steigen würde, sondern eben nur um 10000.

ATI hat (genauso wie PowerVR) die Tesselations-Einheit aus ihrer Architektur bisher nicht entfernt weil es mehr Aufwand heissen wuerde sie zu entfernen als sie einfach stehen zu lassen. Dass sie das Ding schon drin haben brachte und bringt keinen besonderen Vorteil.

Damit es klarer wird ich antworte die ganze Zeit schon auf den Satz hier:

daher könnte ich mir schon vorstellen, das die directx 11 implementierung bei ati jetzt nicht so viel mehr transistoren etc verbraucht.

1. Verbraucht die Tesselations-Einheit keine Unmenge an Transistoren. Der ff Rasterizer einer heutigen GPU nimmt weniger als 5% der heutigen dies ein.

2. Wie schon oefters erwaehnt besteht der Weg zur X11 Komplianz nicht nur aus der oeden Tesselations-Einheiten sondern neben den vorerwaehnten hull und domain shader noch etliche andere Vorraussetzungen.

3. Angeblich soll G300 mit 512SPs "lediglich" 1 Mrd Transistoren mehr haben als die 240SP/GT200.

Nun beweiss mir warum der Weg zu X11 fuer ATI kuerzer sein soll.

das es selbstverständlich mehr transistoren werden, dürfte wohl jedem klar sein. mit etwas besseren herstellungsprozessen und entsprechender planung, könnte es aber auch sein, das der "platzbedarf" nur geringfügig ansteigt. besonders wenn es sich nur um ein checklistenfeature handeln sollte, wird es so billig und sparsam wie möglich implementiert sein (besonders bei dem sparkurs von ati).

Je billiger und evolutionaerer man vorgeht, desto mehr kann es auf die Effizienz hauen. Ist der Weg in dem Fall fuer D3D11 kuerzer oder laenger? Und damit Du das "kurz" und "lang" nicht falsch verstehst, RV770 ist nach zwei ganzen fraglichen Versuchen "R600 done right".


allerdings könnte ich mir bei ati auch vorstllen, das die tesslationseinheit größere aufmerksamkeit von ihnen erhält, als notwendig. schließlich versuchen sie schon seit einigen generationen immer mal wieder so eine einheit (wenn bisher auch um einiges primitiver) auf ihren karten unter zu bringen.

Der Grund warum die Tesselations-Einheit stecken blieb seit Xenos steht weiter oben. TruForm war eine eher nutzlose Schnappsidee, wie sie alle IHVs durch ihre langjaehrige Karriere hatten. Normalerweise haette programmierbare Tesselation schon in D3D10 erscheinen soll; es jammerten aber zich IHVs dass sie nicht so viel unterbringen koennen (wie Intel und co) und das Ding blieb bei ATI und PowerVR stecken.

***edit: und damit Du auch verstehst wieso ich PowerVR in die Debatte reinmische: deren SGX ist eingebettes Material fuer SoCs. Generell haben diese cores die kleinste die area in ihrer Klasse trotz hoeheren Faehigkeiten. Wenn man so ein Dingsda selbst in einem 2.6mm2@65nm minicore unterbringen kann, nimmt es sicher nicht viel Platz ein. Die cores rangieren von 2.6mm2 bis zu 12.5mm2@65nm und die Komplianz rangiert von >SM3.0 bis zu SM4.1.

V2.0
2009-07-14, 07:07:02
Bei scan line interleaving skalierte keine Geometrie mit.

Coda,

1600 / 5 = 320 / 20 = 16 * 4 = 64 TMUs



1600?

Die Gerüchte sagen doch 800SP für den kleinen Chip und 1200SP für den großen.

Macht also

800 / 5 = 160 / 20 = 8 *4 = 32

1200/ 5 = 240 / 20 = 12 * 4 = 48 :confused:

Gast
2009-07-14, 09:48:30
Bei scan line interleaving skalierte keine Geometrie mit.
Was an sich keine Ausrede ist den sub 300€ Markt mit AFR zu fluten.


Der über 300€ Kunde hört es auch nicht gerne, wenn man ihm erzählt, das es aus Kostengründen keine Entwicklung gibt, sondern er die AFR Technik von vor 5 Jahren bekommt.
Schlimmer noch, man ist sogar auf AMD angewiesen, das sie Profile einbauen.

Ailuros
2009-07-14, 12:48:35
1600?

Die Gerüchte sagen doch 800SP für den kleinen Chip und 1200SP für den großen.

Macht also

800 / 5 = 160 / 20 = 8 *4 = 32

1200/ 5 = 240 / 20 = 12 * 4 = 48 :confused:

RV830 800 SP
RV840 1200 SP
RV870 RV830X2 native dual-core 1600SP
R800 RV870X2 3200SP

Ergo Deine erste Rechnung mal 2x.

Was an sich keine Ausrede ist den sub 300€ Markt mit AFR zu fluten.

Dich zwingt auch keiner jegliche Loesung zu kaufen.

Der über 300€ Kunde hört es auch nicht gerne, wenn man ihm erzählt, das es aus Kostengründen keine Entwicklung gibt, sondern er die AFR Technik von vor 5 Jahren bekommt.

AFR wird noch einige Jaerchen im Umkreis bleiben ob es Dir steht oder nicht. Und wenn es schon sein muss NVIDIA fuehrte als erste dual-GPU durch SLi und ATI hinkte nach. Im ersten Fall war es der Einfluss der ex-3dfx engineers die multi-GPU wieder vorstellten.

Schlimmer noch, man ist sogar auf AMD angewiesen, das sie Profile einbauen.

Dann kauf Dir zwei GF's fuer SLi und lass die Dinger konstant in SFR laufen. Das Resultat wird so oder so auf 3dfx scan line interleaving liegen.

V2.0
2009-07-14, 13:01:22
Ah Du meintest

2 x (800 / 5 = 160 / 20 = 8 *4 = 32)

igg
2009-07-14, 15:39:43
RV830 800 SP
RV840 1200 SP
RV870 RV830X2 native dual-core 1600SP
R800 RV870X2 3200SP
Gilt das denn als sicher? Ein RV870 als AFR-Lösung basierend auf 2 RV830 würde mich doch sehr überraschen, auch wenn es irgendwie zu ATIs Strategie der kleinen Chips passen würde.

derguru
2009-07-14, 15:47:57
Gilt das denn als sicher? Ein RV870 als AFR-Lösung basierend auf 2 RV830 würde mich doch sehr überraschen, auch wenn es irgendwie zu ATIs Strategie der kleinen Chips passen würde.

vorallem leistungstechnisch zum 4870x2 wäre sogut wie kein unterschied außer vom dx 11 feature.ich kanns mir auch kaum vorstellen.

Gast
2009-07-14, 15:49:55
vorallem leistungstechnisch zum 4870x2 wäre sogut wie kein unterschied außer vom dx 11 feature.ich kanns mir auch kaum vorstellen.
Was erwartest du?
Mal eben mehr als die doppelte "Leistung"? Lächerlich, wie soll das gehen.

derguru
2009-07-14, 16:07:47
Was erwartest du?
Mal eben mehr als die doppelte "Leistung"? Lächerlich, wie soll das gehen.
jepp genau das erwarte von einer karte der neuen generation ohne wenn und aber.eine singlegpu die vergleichbar ist mit einer 4870x2 in fast perfekter skalierung.
so wie es auch schon die vorgänger gemacht haben.8800gtx zu 280 gtx oder 3870 zu 4870.

Coda
2009-07-14, 16:08:50
Eine GTX 280 ist aber nicht doppelt so schnell als eine 8800GTX.

Aber ein größerer Sprung wäre mal wieder angebracht. Nur erwarte ich das dieses Mal eher wieder von NVIDIA als von ATI.

reunion
2009-07-14, 16:13:33
Eine GTX 280 ist aber nicht doppelt so schnell als eine 8800GTX.

Aber ein größerer Sprung wäre mal wieder angebracht. Nur erwarte ich das dieses Mal eher wieder von NVIDIA als von ATI.

NV liefert das sicher, die Frage ist was von ATI kommt.

AnarchX
2009-07-14, 16:16:41
so wie es auch schon die vorgänger gemacht haben.8800gtx zu 280 gtx oder 3870 zu 4870.
Es kann aber halt auch anders gehen, wie X1950XT zu 2900XT, übrigens auch ein Wechsel wo es drastischere Änderungen am Featureset gab.

Jedoch wäre, AFR schon bei einem RV870 und somit bei $199-299 Karten doch schon ziemlich abschreckend und würde AMDs Potential nach oben verbauen, denn mehr als 4-Way-AFR würde man sich wohl auch nicht trauen.

Im Endeffekt hält sich AMD noch ziemlich bedeckt, sodass man hier noch keine konkreten Aussagen treffen kann.

Einzig was gesichert sein dürfte, ist dass man eine D3D11-GPU um die 180mm² hat, die entsprechend ihrer Größe und dem gezeigten Kühlerdesign wohl eher unter $199 zu finden sein wird und bei der reinen Rohleistung wohl im Bereich schon erhältlicher Lösungen liegen dürfte. Wenn entsprechend optimiert wird, könnte es wohl auch etwas schneller werden:
http://www.pcgameshardware.de/aid,689881/DirectX-11-Compute-Shader-Dank-Local-Data-Share-dreimal-schneller-als-unter-DX101/Grafikkarte/News/

derguru
2009-07-14, 16:17:33
Eine GTX 280 ist aber nicht doppelt so schnell als eine 8800GTX.

Aber ein größerer Sprung wäre mal wieder angebracht. Nur erwarte ich das dieses Mal eher wieder von NVIDIA als von ATI.
ja aber ungefähr,seid mal nicht so pingelig:tongue:

Es kann aber halt auch anders gehen, wie X1950XT zu 2900XT, übrigens auch ein Wechsel wo es drastischere Änderungen am Featureset gab.
du weißt ja das es in die hose ging ob das wiederholt wird glaub ich kaum,wenn doch gute nacht und ehrlich gesagt zweifel ich noch an den spekulierten werten.

Captain Future
2009-07-14, 16:22:03
Nur dort, wo ein Profil existiert. Aber da die Reviewer mitspielen und monatelang immer die selben Games verwenden, wird das kaum zum Nachteil werden.
SLI ist auch nicht besser. Für das Nischenprodukt WoW fehlt auch ein Profil...

Ailuros
2009-07-14, 16:26:46
du weißt ja das es in die hose ging ob das wiederholt wird glaub ich kaum,wenn doch gute nacht und ehrlich gesagt zweifel ich noch an den spekulierten werten.

Es gibt tatsaechlich bis jetzt keine Indizien dass ATI wieder so bloed ist auf einen Ringbus zu greifen oder verbuggte ROPs in der Evergreen Familie hat ;)

LovesuckZ
2009-07-14, 16:30:51
SLI ist auch nicht besser. Für das Nischenprodukt WoW fehlt auch ein Profil...

Ich rede allgemein von AFR. Das ganze mGPU Konzept auf Basis von AFR steht doch sowieso nur deswegen so gut dar, weil ein Größteil der getesteten Spiele nie aktuell sind. Es wird also ein falscher Eindruck erweckt, als ob die mGPU jederzeit eine Alternative darstellen würden. Ist für den Käufer dann doof, wenn die Demo oder das neue gekaufte Spiel ohne Profil und somit Leistungssteigerung vorhanden ist. Aber solche Kleinigkeiten sind eben auch vollkommen unrelevant, wenn man mGPU testet und bewertet. ;D
Oh und ich hab SLI in WoW. ;)

AnarchX
2009-07-14, 16:33:21
du weißt ja das es in die hose ging ob das wiederholt wird glaub ich kaum,wenn doch gute nacht und ehrlich gesagt zweifel ich noch an den spekulierten werten.
Vom einem Extrem zum anderen. Vom zu großen Chip, dessen Tapeout Probleme macht, zu zu kleinen Chip(s), wo die Verschaltung für Probleme sorgt.:D

Gast
2009-07-14, 16:42:01
Oh und ich hab SLI in WoW. ;)
Schön für dich. Und das hat jetzt genau was mit RV870 zu tun?

derguru
2009-07-14, 17:03:31
Vom einem Extrem zum anderen. Vom zu großen Chip, dessen Tapeout Probleme macht, zu zu kleinen Chip(s), wo die Verschaltung für Probleme sorgt.:D

naja warten wir es ab,ati hat wohl gefallen gefunden alle in die irre zuführen.:biggrin:

Jedoch wäre, AFR schon bei einem RV870 und somit bei $199-299 Karten doch schon ziemlich abschreckend und würde AMDs Potential nach oben verbauen, denn mehr als 4-Way-AFR würde man sich wohl auch nicht trauen.


abschrecken würde mich schon 2-Way-AFR ,da kommt mir schon das grauen mit all den nachteilen.nein so blöd sind die doch nicht auf so einer basis aufzubauen es sei denn die haben ein weg gefunden die multigpu nachteile zu minimieren.

Gast
2009-07-14, 17:15:21
abschrecken würde mich schon 2-Way-AFR ,da kommt mir schon das grauen mit all den nachteilen.nein so blöd sind die doch nicht auf so einer basis aufzubauen es sei denn die haben ein weg gefunden die multigpu nachteile zu minimieren.
Aus AMDs Sicht gibt es höchstens einen Nachteil: Die Notwendigkeit der Profile im Treiber.

Was der Kunde mit seinen ruckeligen FPS macht ist dabei irrelevant.

Gast
2009-07-14, 17:23:20
Aus AMDs Sicht gibt es höchstens einen Nachteil: Die Notwendigkeit der Profile im Treiber.

Was der Kunde mit seinen ruckeligen FPS macht ist dabei irrelevant.
ähm, mal ne frage allgemein wegen AFR, bei dx11 ist das problem mit den vorausgerenderten bildern immernoch ein problem? also im sinne von, mehr als 3 bilder (tripplebuffering) geht net sinnvoll?

Coda
2009-07-14, 18:31:35
D3D10 und D3D11 erlauben 4 Bilder.

Gast
2009-07-14, 19:35:14
D3D10 und D3D11 erlauben 4 Bilder.
k thx.

dann ist afr ja im ansatz schon scheisse, sorry wenn ichs so ausdrücke, für den einsatz bei m-gpu + normalem cf/sli? hat ati eigentlich gesagt WIE sie die interchip kommunikation handhaben? ob dafür überhaupt CF/AFR eingesetzt wird? wär ja eigentlich voll stupide...

Coda
2009-07-14, 19:38:03
Es ist doch noch nichtmal sicher, dass an diesen Spekulationen überhaupt irgendetwas dran ist. Mich würde es sehr wundern, wenn RV870 nicht einfach wieder ein "großer" monolithischer Chip werden würde.

KonKorT
2009-07-14, 19:52:05
Das kommt ganz darauf an, wie du "großer" monolithischer Chip definierst...

Coda
2009-07-14, 20:09:01
Ein Siliziumplättchen eben.

V2.0
2009-07-14, 20:13:38
Hmm, der Wafer den man zeigte sah eher nach ca. 130mm² aus. Die Infos zum den Chips kommen aus der Quelle, die auch auf die erhöhten Integrationskosten für RV870 hinwies. Gerüchte über den Tape-Out eines großen (ca. 250mm²) Chips von ATI sind lange nicht zu hören. Man hört eher etwas von unter 200mm² und um 130mm².

Es würde mich überraschen wenn ATI wirklich diesen Weg geht, aber momentan sieht es nicht unwahrscheinlich aus.

Coda
2009-07-14, 20:14:22
Hmm, der Wafer den man zeigte sah eher nach ca. 130mm² aus.
Wer sagt, dass das RV870 war?

aylano
2009-07-14, 21:08:12
Es ist doch noch nichtmal sicher, dass an diesen Spekulationen überhaupt irgendetwas dran ist. Mich würde es sehr wundern, wenn RV870 nicht einfach wieder ein "großer" monolithischer Chip werden würde.
Ganz meiner Meinung.
Denn so eine RV870 (2xRV830) würde ja nur funktionieren, wenn die Verbindungstechnologie zu 100% funktioniert.
Erst dann würde diese Wirtschaftlichkeits-Strategie "Two-Die-in-one-Package" funktionieren.
Somit müsste diese Technolgie schon länger funktionieren, damit es kein Risiko ist, diese einzuführen.
Das hätte man dann auch beim RV790 testen können und daraus einen "nativen RV790X2 mit 1600 SP" machen können.
Aber das machte man nicht. Somit bin ich sehr skeptisch, dass sowas bei der ersten DX11-Karte kommt.
(Oder man testete es ewig im Geheimen und keine Infos flossen raus)

Denn wenn das nicht im Performancen (& High-End) funktioniert, dann ist das ATI-Image für DX11 fürn Arsch, was sich dann auch auf Low-End & Mainstream auswirkt über viele Jahre auswirkt.
Abgesehen davon, dass sich dann die Performance & High-End-Karten kaum verkaufen lassen.

Diese Strategie hätte ein viel zu großes Risiko( nur dass sie sich eine Die-Entwicklung ersparen)
Und diese Strategie entspricht nicht momentane AMD-Strategie, wo sie wenn möglich einen Schritt nach den anderen machen.

Ailuros
2009-07-14, 21:10:04
Hmm, der Wafer den man zeigte sah eher nach ca. 130mm² aus. Die Infos zum den Chips kommen aus der Quelle, die auch auf die erhöhten Integrationskosten für RV870 hinwies. Gerüchte über den Tape-Out eines großen (ca. 250mm²) Chips von ATI sind lange nicht zu hören. Man hört eher etwas von unter 200mm² und um 130mm².

Es würde mich überraschen wenn ATI wirklich diesen Weg geht, aber momentan sieht es nicht unwahrscheinlich aus.

Das hoere ich zum ersten Mal; die Mehrzahl der bisherigen Schaetzungen lagen auf ca. 180mm2.

V2.0
2009-07-14, 21:50:24
Mir wurde zugetragen, dass erhebliche Ähnlichkeiten zu RV740 bestanden.

Primär fehlt mir aber ein zuverlässiges Gerücht über den Tape-Out eines monolitischen Chips in 250+mm². Ich würde den großen Chip nicht ausschließen, denn dafür beschäftige ich mich mit der Materie zu wenig, aber wie unten schon geschrieben, ist das Gerücht recht alt, dass man früh auf 2 GPU setzen wollte.

MR2
2009-07-14, 21:50:34
hier stand nix

Nakai
2009-07-14, 21:57:49
Ka, was kommen wird.

Aber RV830 kann man mit 800SPs als sicher ansehen. Er wird wohl den missglückten RV740 ersetzen.
RV870 wird wohl dann mit 1200 oder 1600SPs kommen.


mfg Nakai

MR2
2009-07-14, 22:02:41
Anfang des Jahres mal gelesen:
http://news.ati-forum.de/index.php/n...t-als-x4-geben


Nach den auftretenden Gerüchten (auch bei NordicHardware) zufolge, soll der neue, im 3. oder 4. Quartal 2009 erscheinende, High-End Grafikchip von ATi/AMD in Grafikkarten-Ausführungen auf den Markt kommen, welche über 1 (RV870), 2 (R870) und 4 GPUs (R800) verfügen soll. Diese Informationen sollte man getrost als "Desinformation" einstufen. So wird die letzte, auf der R600 basierenden, GPU als normale Grafikkarte mit einer GPU auf den Markt kommen. Es wird ein DualGPU-Modell geben, welches sich jedoch von der aktuellen Bauweise, der Radeon HD3870 X2 und 4870 X2 nicht unterscheidet. So wird dies in "normaler" Crossfire-Bauweise den Markt betreten. Auch ein MCM- (Multi Chip Modul) Design, welches zuerst favorisiert wurde, wurde verworfen.

Alle aktuellen Daten und Informationen weisen darauf hin, dass der RV870 (Codename Lil Dragon) als normale Upgrade- oder Refresh-GPU kommen wird. Er wird, wie bereits bekannt, über DirectX 11 verfügen und in der 40nm Strukturbreite gefertigt sein. AMD wird auch hier vermutlich dem aktuellen Namensschema, z.B. 5870 und 5870 X2, treu bleiben; zumindest noch beim RV870.


zum RV770 las man Folgendes:

Im Forum von VR-Zone wird unter Bezug auf die chinesische Seite Chiphell gemeldet, dass der neue Grafikchip RV770 die enorme Anzahl von 800 Stream-Prozessoren besitzen soll. Damit würde die neue Grafikchipgeneration von AMD/ATI 2,5x mehr Stream-Prozessoren besitzen als der R600.
Aufgrund der zweifelhaften Quelle erscheint dies nicht sonderlich wahrscheinlich, da schon länger von ca. 40% Mehrleistung im Vergleich zum aktuellen RV670 gesprochen wird. 800 Stream-Prozessoren, sofern sie denn genutzt werden, dürften hier einen wesentlich größeren Leistungsschub verursachen. Andererseits würde so ein GPU-Monster gut zu dem aktuellen Gerücht über ein Projekt namens "Thunder" passen, mit dem AMD Nvidia angeblich das Fürchten lernen will.

Als gesichert sah man letztes Jahr im März 480/32/16 an..


Ich will mal nicht so hoch ansetzen, DX11 braucht einige Transistoren, also sage ich mal ..so um die 1600 Shaderprozessoren. Wetten? :-)

Gast
2009-07-14, 22:05:55
Aber RV830 kann man mit 800SPs als sicher ansehen. Er wird wohl den missglückten RV740 ersetzen.
Kann nur funktionieren wenn RV740 an sich missglückt ist und nichts anderes, wie zb die Fertigung noch nicht so weit war/ist.
Kann nur funktionieren, wenn RV830 Produkte im selben Preisbereich nicht teurer macht.

Nakai
2009-07-14, 22:16:38
Kann nur funktionieren wenn RV740 an sich missglückt ist und nichts anderes, wie zb die Fertigung noch nicht so weit war/ist.
Kann nur funktionieren, wenn RV830 Produkte im selben Preisbereich nicht teurer macht.

Der RV740 war früher geplant. Nur weil sich ein Produkt verzögert, heißt das nicht, dass sich die Produkte danach verzögern.

Ich gehe davon aus, dass die Fertigung und die Packdichte verbessert wurde.


mfg Nakai

Ailuros
2009-07-14, 22:24:51
Mir wurde zugetragen, dass erhebliche Ähnlichkeiten zu RV740 bestanden.

Und wieso muss es die die area sein und nicht als Beispiel die Anzahl der cluster?

Primär fehlt mir aber ein zuverlässiges Gerücht über den Tape-Out eines monolitischen Chips in 250+mm². Ich würde den großen Chip nicht ausschließen, denn dafür beschäftige ich mich mit der Materie zu wenig, aber wie unten schon geschrieben, ist das Gerücht recht alt, dass man früh auf 2 GPU setzen wollte.

Lassen wir mal zur Seite ob RV870 aus zwei kleineren cores auf dem gleichem package bestehen koennte oder einem einzelnen core, kommst Du wenn Du RV830 auf ca. 130mm2 einschaetzt auf irgendwo 250-260mm2 und ja da koennten durchaus bis zu 1600SPs IMHLO reinpassen, aber wohl nicht unbedingt mit der gleichen Anzahl an TMUs pro chip.

Coda
2009-07-14, 22:42:11
Also ich fänd's natürlich sehr interessant wenn es AMD wirklich geschafft hätte die ganzen Rasterizer-Arbeit auf zwei Chips zu verlegen und die komplette Kohärenz die dabei gewährleistet werden muss performant zu erledigen.

Nur muss man auch skeptisch sein dürfen. Das wäre wirklich ein enormer Designaufwand.

BeeRockxs
2009-07-14, 22:50:30
ähm, mal ne frage allgemein wegen AFR, bei dx11 ist das problem mit den vorausgerenderten bildern immernoch ein problem? also im sinne von, mehr als 3 bilder (tripplebuffering) geht net sinnvoll?
Das vorausrendern von mehreren Bildern bei Direct3D ist kein echtes Triplebuffering, wird nur fälschlicherweise so genannt, siehe hier:
http://anandtech.com/video/showdoc.aspx?i=3591

Gast
2009-07-15, 00:59:59
Was tun die Entwickler eigentlich,damit diese Mini Ruckler im SLI Crossfire usw aufhören?

Coda
2009-07-15, 02:14:01
Entwickler von was? Applikationen? Die können gar nichts tun.

V2.0
2009-07-15, 07:07:50
Und wieso muss es die die area sein und nicht als Beispiel die Anzahl der cluster?

Lassen wir mal zur Seite ob RV870 aus zwei kleineren cores auf dem gleichem package bestehen koennte oder einem einzelnen core, kommst Du wenn Du RV830 auf ca. 130mm2 einschaetzt auf irgendwo 250-260mm2 und ja da koennten durchaus bis zu 1600SPs IMHLO reinpassen, aber wohl nicht unbedingt mit der gleichen Anzahl an TMUs pro chip.

Die gleich Clusteranzahl würde ja bedeuten, dass das Verhältnis ALU:TMU noch stärker Richtung ALU verschoben wird. Möglich sicherlich. Wobei meine Quelle von "Size" sprach. "Size was closer to RV740, than to anything people would expect for a RV870". Was aber so gesehen bei 180 mm² auch noch richtig wäre.

Beim zweiten Punkt stime ich Dir zu. Das ist möglich.

horn 12
2009-07-15, 07:23:44
Nun gut, die Frage wird wohl der Preis werden und wieviel ATI SICH DIES BEZAHLEN LÄSST bis NV soweit ist um den Konter zu starten.
Wenn eine RV870 (2xRV830??) mit ca. 280-300 Euro zu buche schlagen sollte, könnte die Karte echt ein Renner werden und sich gut absetzen.
Außer AMD-ATI lässt sich die ersten 40-er Karten zu gut bezahlen bis die Konkurrenz da ist, aber denke sie wollen sich schon etablieren und groß absahnen... und dies zu "kleineren" Preisen.

Gast
2009-07-15, 13:47:46
Die gleich Clusteranzahl würde ja bedeuten, dass das Verhältnis ALU:TMU noch stärker Richtung ALU verschoben wird. Möglich sicherlich.
Leider nicht nur möglich, sondern sehr wahrscheinlich.

GT300 verspricht auch eine weniger starke Zunahme der Texturleistung.
Jetzt ist es soweit, wir bekommen das versagen und Samthandschutätschelung der Magazine zu spüren.

Coda
2009-07-15, 14:01:27
Naja, das seh ich weniger kritisch. Die Texturleistung von G300 wird für die nötigen Texturlagen auch in höheren Auflösungen ausreichen. Mehr braucht man ja nicht.

Irgendwann kommt wirklich der Punkt an dem ALU-Leistung mehr zählt.

Nightspider
2009-07-15, 17:25:15
Was sind die neuesten Angaben bezüglich des Releases vom RV870 ?

=Floi=
2009-07-16, 00:23:19
ati könnte auch noch am takt drehen und der einsatz einer getrennten taktdomäne steht auch noch aus. damit könnte man durchaus noch erheblich mehr leistung herausholen.

warten wir mal ab.

reunion
2009-07-16, 15:51:42
FUAD:

We’ve heard some updates on AMD’s DirectX 11 generation and so far everything is looking good. AMD is still planning to release its DirectX 11 generation later this year and the launch could take place either in very late Q3, eg. September or early Q4.

This might give ATI an upper hand over Nvidia, as Nvidia’s September 40nm update is only DirectX 10.1 and its DirectX 11 might come as super high end but only in late Q4 09.

ATI is working on the entire generation and Evergreen is one of the codenames, but more details are expected in August when ATI finalizes its hardware, branding and clocks.

http://www.fudzilla.com/content/view/14687/1/

aylano
2009-07-16, 16:11:30
Eigentlich müsste noch eine Low-End-DX11-GPU kommen, die dann 1 Jahr später in die Fusion-CPU wandert.

Eigentlich so wie in der Vergangenheit
RS880 ... RV620 ... Low-End ... 1 Jahr nach der RV620-Grafikkarte
RS780 ... RV610 ... Low-End ... 1 Jahr --- "---
RS690 ... RV410 ... Mainstream ... 2 Jahre
RS480 ... RV350 ... Mainstream ... fast 2 Jahre
RS350 ... RV280 ... Low-End ... 1 Jahr

Und bis dahin als billigste DX11-GPU verkauft werden kann, was sicher für OEMs interessant wird.

Ailuros
2009-07-16, 21:15:21
Die gleich Clusteranzahl würde ja bedeuten, dass das Verhältnis ALU:TMU noch stärker Richtung ALU verschoben wird. Möglich sicherlich. Wobei meine Quelle von "Size" sprach. "Size was closer to RV740, than to anything people would expect for a RV870". Was aber so gesehen bei 180 mm² auch noch richtig wäre.

Beim zweiten Punkt stime ich Dir zu. Das ist möglich.

Klingt schon klarer so gesehen; nur kann RV870 selbstverstaendlich nicht nur insgesamt ~130+mm2 sein. Uebrigens glaub ich nach Dave's letzter Aussage bei B3D dass die chiphell Geruechte Unsinn sein koennten.

Ailuros
2009-07-16, 21:29:58
FUAD:



http://www.fudzilla.com/content/view/14687/1/


....und zur gleichen Zeit das hier:

http://www.fudzilla.com/content/view/14688/1/

Es gilt fuer Fudo genauso wie jeglichen Charlie: es gibt einen gewaltigen Unterschied zwischen echten Infos und einer eher langen Reihe von zusammengereimtem Unsinn. Dein Link koennte in direkten Konflikt mit dem zweiten oben kommen.

Erstens hilft es mir gar nichts wenn man aus 10 Schlaegen nur 2-3 aus Dummenglueck richtig hinbekommt und zweitens (damit ich nicht falsch verstanden werde) hat NV seit ~Mai total und ich meine TOTAL dicht gemacht was jegliche Info fuer zukuenftige Plaene betrifft.

Diese vielleicht dieses...ich schaetze das andere Unsinn ist egal was es betrifft fuer die Muelltonne. Der wahrscheinlichste Grund warum NV dicht gemacht hat ist dass sie es entweder noch sehr spaet in 09' schaffen oder gar nicht mit "G300" und weniger wahrscheinlich dass sie die insgesamte Welt wieder mal verarschen und uns alle mit einem ploetzlichen Launch ueberraschen.

Dass NV ihre 40nm zurueckgehalten hat weil sie wussten dass AMD schlechte yields mit RV740 haben wird, ist die albernste Geschichte ueberhaupt.....pfffffffffff

Gast
2009-07-16, 23:03:49
Ich bleibe dabei, und AMD/ATI verarscht uns gehörig und die Specs des/der Chips sind vermutlich bis jetzt in keinem Gerücht oder absichtlicher Desinformation enthalten. Vll. sind sie ja mal kurz aufgetaucht, ich würde mich aber nicht wundern, wenn sie versuchen uns so lange es geht zu verunsichern, was ja bis jetzt ordentlich klappt. Mann wird vermutlich erst ein paar Tage vorm Launch wissen, womit man es zu tun haben wird.
Denn die Chips die sie auf der Computex gezeigt haben: Wer weiß sicher ob das wirklich ein RV 870 oder RV 830 war ? Seien wir ehrlich: Das könnte so ziemlich alles gewessen sein, und ich würde mich wundern wenn dies überhaupt eine zukünftige GPU wäre. Denn diese angeblichen "Vertraulichen Informationen", sind doch wahrscheinlich der beste Trick viele Leute zu verwirren. Vor allem wenn man auch noch halbwegs seriöse Quellen über dritte oder sogar vierte "missbraucht"...

MR2
2009-07-16, 23:11:05
Das klappt nicht nur bis jetzt ordentlich, das hat es in letzter Zeit immer:-) Der RV770 sollte 480Shaderprozessoren haben. Und dann? Kann mich noch an die ersten geleakten Benches erinnern, zur Urlaubszeit. Da trieb es mich sogar im Urlaub ins Internetcafe..Grauenvoll:biggrin:

So langsam wirds wieder spannend. Es gibt doch nichts Schöneres als Spekulatius über neue Grafikchips:-), naja, fast..

V2.0
2009-07-17, 07:14:44
Beide streuen momentan viele Fehlinfos, sowohl über eigene als auf fremde Next-Gen-Chips. NV ist selber allerdings extrem still. Das kann bei ihnen gut (G80) oder schlecht sein.

horn 12
2009-07-18, 18:09:42
Nun, die HD4890 und HD4870 X² fällt zwar auch langsam im Preis... und nur mehr 2-3 großer Graka-Hersteler haben noch große Vorräte bei Geizhals lieferbar, andere gehen bereits Richtung Null.
Ein Indiz dass es wohl bald losgehen wird, nur der Abverkauf der 4870X² Karte geht mir zu langsam, da beriets eine HD4870 1GB für 115-120 Euro zu haben ist.
Die X²-er Karte aber noch 275-290 Euro kostet, vielleicht doch ein Indiz dass die HD5870 an eine HD4870 X² nicht ganz heranreicht, (-10-15%) obwohl bei anderen Vorzügen punken kann.
Ansonsten wird Sapphire an den Karten sitzen bleiben, bei deren Nachteilen (Hitze, Lautstärke und gegebenfalls MR Problematik)

Was meint IHR dazu ?

V2.0
2009-07-18, 19:06:55
So schnell erwarte ich nichts. Die X2 kosten eben auch in der Produktion Geld und niemand wird die Verramschen, wenn er nicht muss. Vor Oktober erwarte ich nichts neues.

AnarchX
2009-07-18, 19:50:49
RV870 erst im November? (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/577-rv870-erst-im-november)

Wenn das so weiter geht, dann gibt es wohl dieses Jahr keine D3D11-Karten mehr bzw. nur Paperlaunches.

nagus
2009-07-19, 10:11:37
ich glaub eher, dass das eine (gezielte?) falschmeldung ist. wieso verschleudert AMD dann jetzt schon die karten so billig wenn nicht wirklich bald was neues kommt?

AnarchX
2009-07-19, 10:58:47
Die Preise von Nvidia sind doch ebenso niedrig, ausserdem verlangt der Markt wohl nach so niedrigen Preisen bzw. dieser Leistung zum entsprechenden Preis.

Wenn man sieht, dass bei Alternate keine einzige HD 4770 lieferbar ist, dann sieht man doch dass die 40nm Situation noch nicht wirklich unter Kontrolle scheint.

V2.0
2009-07-19, 11:20:15
Der Preis ist für beide das einzige Mittel noch Kunden zu finden. Es gibt gerade kein Spiel, dass so einen Hype auslöst, dass es eine massive Aufrüstung auslöst. Extrem viele haben bereits Karten der 3870 / 8800GT Klasse und besser, da ist auch neu Aufrüstung kaum zwingend, wenn man nicht grade einen größeren Monitor kauft.

horn 12
2009-07-19, 11:36:57
Ja, die Flaschmeldung... Könte durchaus sein, und NV schiesst die HD4770 komplett ab um so mehr Platz für RV870 und RV830 zu schaffen und einen zeitgleichen Release zu ermöglichen.
Das Schlimme an RV740 ist dass nun bereits die HD4870 512 MB bei ca. 100 Euro ist, zwar mit höherem Stromverbrauch aber auch oft leiser Kühlung, ausreichender Kühllösung und doch bedeutend schneller als die 4770-er Karte.
Vielmehr war das Problem dass diese Karte viel zu spät auf den Markt kam, gute 3-4 Monate zu spät, da eben die Ausbeute unter alles Sau war.

Wenn sie nun alles auf eine Karte setzen, 2-3 Karten bei Release ist dies sicherlich die bessere und vernünftigere Lösung als noch groß den RV740 zu bringen.

Gast
2009-07-19, 11:46:44
Extrem viele haben bereits Karten der 3870 / 8800GT Klasse und besser, da ist auch neu Aufrüstung kaum zwingend, wenn man nicht grade einen größeren Monitor kauft.
Schon blöd das man diese Karten so verscherbelt hat.

-> Damals kaum Gewinn.
-> Heute kaum Gewinn.

--> Übermorgen auch kaum Gewinn, neue HD5xxx können auch nicht abartig teuer werden.


Der Kunde freut sich auch nicht wirklich, seine alte Hardware hat schnell an Wert verloren und dennoch gibt es nichts, was ihm zum Kauf einer kaum besseren Karte animiert.

LovesuckZ
2009-07-19, 12:32:52
Die Preise von Nvidia sind doch ebenso niedrig, ausserdem verlangt der Markt wohl nach so niedrigen Preisen bzw. dieser Leistung zum entsprechenden Preis.


Nicht der Markt hat danach verlangt, sondern AMD hat sie wie beim Drogensüchtigen schön abhängig gemacht. Denn der Markt hat auch die hochpreisigen Karten in Massen gekauft. Wer High-End plötzlich nur noch für die Hälfte verkauft, der sollte immer auch einen Plan für die Zukunft in petto haben. Das hatte AMD nicht und deswegen dürfen sich bei IHVs mit Preisen rumschlagen, die kaum als erstrebenswert sind.
Wenn man sich überlegt, dass alleine CPUs soviel kosten wie eine komplette rv770 oder G92b/GT200 Grafikkarte, dann stimmt auf den Markt etwas nicht.

dargo
2009-07-19, 12:33:16
Der Kunde freut sich auch nicht wirklich, seine alte Hardware hat schnell an Wert verloren und dennoch gibt es nichts, was ihm zum Kauf einer kaum besseren Karte animiert.
Wieso? Ich warte schon sehnsüchtig auf den G300 und der will einfach nicht kommen. Oder bin ich kein Kunde? :D
Apropo Wertverlust - Hardware ist keine Geldanlage (wurde schon zigfach gesagt). Wenn du eine Wertanlage brauchst kauf dir eine Immobilie, investiere in Gold oder sonstiges.

Gast
2009-07-19, 12:49:25
Wieso? Ich warte schon sehnsüchtig auf den G300 und der will einfach nicht kommen. Oder bin ich kein Kunde? :D
Man kann nur kaufen, was es im Laden gibt. ;)

Apropo Wertverlust - Hardware ist keine Geldanlage (wurde schon zigfach gesagt). Wenn du eine Wertanlage brauchst kauf dir eine Immobilie, investiere in Gold oder sonstiges.
Als Mittelklasse Käufer erwartet man nicht, das seine Hardware mal eben in wenigen Monaten um mehr als die Hälfte, auf 100€ absackt und anschließend 1,5 Jahre auf diesem Niveau verbleibt.

Früh verkaufen nützt auch nichts, GTX 2xx gabs erst nach dem Preisverfall und dann noch erheblich teurer, 200-300€.

Gast
2009-07-19, 12:53:04
Nicht der Markt hat danach verlangt, sondern AMD hat sie wie beim Drogensüchtigen schön abhängig gemacht. Denn der Markt hat auch die hochpreisigen Karten in Massen gekauft. Wer High-End plötzlich nur noch für die Hälfte verkauft, der sollte immer auch einen Plan für die Zukunft in petto haben. Das hatte AMD nicht und deswegen dürfen sich bei IHVs mit Preisen rumschlagen, die kaum als erstrebenswert sind.
Wenn man sich überlegt, dass alleine CPUs soviel kosten wie eine komplette rv770 oder G92b/GT200 Grafikkarte, dann stimmt auf den Markt etwas nicht.
Hör mal entlich damit auf. Jeder weiß, dass Nvidia mit der 8800GT vor der HD3870 auf den Markt kam und zwar zu Preisen von 250€. AMD wollte die Karten für kanpp 300€ verkaufen, das konnten sie nicht mehr, also runter auf 200€. Bedanken können sich alle bei Jen-Hsun Huang und Co. Aus damaliger Sicht war das auch richtig von Nv, immerhin war es die Möglichkeit schlechthin AMD aus dem oberen und mittleren Preisklassen rauszudrücken. Das ist nunmal das normale Verhalten in einem freien Markt, das du lieber einen Nv dominierten Markt mit Preisen von 5000€ für HighEnd hättest ist uns auch klar...

dargo
2009-07-19, 12:55:22
Als Mittelklasse Käufer erwartet man nicht, das seine Hardware mal eben in wenigen Monaten um mehr als die Hälfte, auf 100€ absackt und anschließend 1,5 Jahre auf diesem Niveau verbleibt.

Den Grund hat schon LovesuckZ im Post #1451 genannt. Ob dies der Hauptgrund ist mag ich nicht behaupten da wir keinen Vergleich mit hohen Preisen haben. Ich bezweifle aber, dass heute noch viele bereit sind für eine Grafikkarte 500-700€ (an die G8800GTX denk) zu bezahlen. Und wenn die High-End-Dinger im Regal verstauben hat auch Niemand was davon.

Black-Scorpion
2009-07-19, 13:00:59
Welche Hauptgrund hat er genannt?
Die Leier die er immer ablässt, das AMD den Markt versaut hat.
Wäre es andersrum gekommen würde er kein Wort darüber verlieren oder es als genialen Schachzug verkaufen.
Und der Vergleich mit CPUs hinkt auch gewaltig.
Man kann sich, bei den GFX Preisen, auch die Frage stellen warum die CPUs so teuer sind.

Gast
2009-07-19, 13:05:30
Hör mal entlich damit auf. Jeder weiß, dass Nvidia mit der 8800GT vor der HD3870 auf den Markt kam und zwar zu Preisen von 250€. AMD wollte die Karten für kanpp 300€ verkaufen, das konnten sie nicht mehr, also runter auf 200€.
Eine 8800 GT musste mit 250€ starten, dadrüber war bereits die 8800 GTS 640 angesiedelt.
AMD musste bei 200€ einsteigen, damit ihre 3870 gekauft wird. Für 300€ hätte die Karte keine Chance gehabt, nachdems die 2900 Pro für lau und die 2900 XT im Abverkauf gab und die 8800 GTS 640 auch kaum über 300€ lag.

Soweit ist alles klar.
Aber jetzt kommst: Die Karten sind auf einmal in die Tiefe gestürzt, warum? Und anschließend auf einem stabilen 100€ Niveau für 1,5 Jahre geblieben.

AnarchX
2009-07-19, 13:10:13
Bitte beim Thema bleiben - R8xx.

V2.0
2009-07-19, 14:21:43
Ich bin wirklich auf die gesamte neue Generation gespannt. Wird man die Preise wieder erhöhen können? Wie positionieren sich die kommenden Performance-Modelle gegenüber dem alten High-End in Leistung und Preis?
Wie stark wird die neue Generation angenommen?

Gast
2009-07-19, 15:12:11
Dank DX11 hätte man ein gutes Argument, ob das aber bei den derzeitigen wirtschaftlichen Aussichten zieht ist wieder eine andere Frage.

horn 12
2009-07-19, 15:40:50
War ne Finte in diesem Forum, Sorry!

AnarchX
2009-07-20, 10:22:43
With the new sources, huh, huh, but not the NDA sources, so true unknown

RV870 is a package with two RV840, Sideport enhanced high-speed Internet, so that from a practical application, performance-driven point of view including the RV870 looks like a GPU, the RV840 specifications for the double 1600SP/256bit, A11 XT version of 3Dmark Vantage at least P17000 +. Single RV840 core area is similar to RV670, but the impact of performance 128bit between 4850 and 4890 between, RV870 certainly can not go beyond the performance of the legendary two-out 512 of the GT300, but the poison code-named R800 (dual RV870) victory sure.

Feedback points:
1. A true strategy in mind and N have significant differences in mind, N core in mind, A mind is a multi-GPU technology, the Internet challenge
2. 256bit the GDDR5 can not be on the performance of



Separate downstairs replies:

In fact, the specifications of RV870 is the first yellow very violent ..... 1920SP ... 384bit .... .... unfortunately fail to live up to TSMC


TSMC not able to do not come, but the immature enabled TSMC 40nm temporary reduction ATI specifications, put it bluntly, 40nm is now the core of this case no one who is greater the more serious leakage problem, GT300 difficult to let go? Not because core of what mine ...
http://we.pcinlife.com/thread-1211919-1-1.html

Tarkin
2009-07-20, 10:36:36
rv840 bei 190mm2 mit 800SP? ... wohl eher irgendwo bei 150mm2, oder?

http://vgacentral.wordpress.com/2009/07/13/amd-ati-rv830-rv840-info-bits/

(k.a. ob das BS ist oder nicht * klingt jedenfalls realistischer wie 800SP bei 190mm2)

SEHR SPANNEND jedenfalls! ;D:biggrin::D

(Die Chips die AMD auf der Computex gezeigt hat, hatten etwa 180mm2)

AnarchX
2009-07-20, 10:42:56
rv840 bei 190mm2 mit 800SP? ... wohl eher irgendwo bei 150mm2, oder?

~18xmm², also den Die, wechen AMD schon gezeigt hat, ist ja auch etwa so groß wie RV670.

Und wenn schon ein RV740 137mm² für 640SPs benötigt, dann würde ich bei 18xmm² auch nicht wirklich mehr als 800SPs sehen, immerhin muss ja noch D3D11 implementiert werden, welches durch seine Anforderungen an größere Caches schon allein wohl einiges an Transistoren braucht.

Und wenn AMD hier wirklich zwei Dies brauchbar verbinden will, brauch es dafür noch ein entsprechend breites Interface, was wiederum Transistoren kostet.

V2.0
2009-07-20, 10:44:30
Und wenn man es so sieht, dann hat AMD bei der Vorstellung des Wafers mit dem ca. 180 mm² Chips auch RV870 vorgestellt.

Bot@work
2009-07-20, 11:00:03
RV840 mit seinen 1200SP ergibt für mich da aber keinen Sinn. Da könnte man auch gleich zwei davon zusammen löten. Das Teil hätte ja 3/4 der Leistung eines "RV870". Neee Jungs, da stimmt was nicht.

Sorkalm
2009-07-20, 13:15:49
Laut der neuen Quelle hätte RV840 die 800 SPs.

Spasstiger
2009-07-20, 14:22:55
Was soll eigentlich das "native dual-core" beim RV870 bedeuten? Nativ im Sinne von monolithisch? Das würde ja keinen Sinn machen, denn dann könnte man auf die Diefläche gleich eine "Single-Core-GPU" packen und müsste sich nicht den Ärger mit Multi-GPU-Rendering einbrocken.

reunion
2009-07-20, 14:25:13
Damit meint man wohl zwei Dice welche sich wie eines verhalten. Ob es wirklich so kommt ist natürlich eine andere Frage.

Nakai
2009-07-20, 14:41:03
Es gibt jedenfalls etwas Hoffnung, dass der MGPU-Support seitens ATI etwas verbessert wurde.

Wenn der RV830 mit 180mm² kommt, ist das eine Enttäuschung.


mfg Nakai

€: Naja es werden wohl eher 150mm² sein.

Gast
2009-07-20, 14:53:15
naja wenn ein rv830 mit 180mm^2 kommt und mit 1200sp daherkommt, ist's wohl keine Entäuschung. Ja ich weiß, dass dies unwahrscheinlich ist. Aber bis jetzt gibt es eh noch keine sicheren Informationen. Es bleibt also spannend.

Spasstiger
2009-07-20, 18:13:21
Wenn der RV830 mit 180mm² kommt, ist das eine Enttäuschung.
Der RV840 soll ja 180 mm² besitzen. Der RV830 wird sicherlich kleiner. Wenn AMD die Tradition fortsetzt, dann wird der RV830 einfach ein RV740 mit D3D11.
In 180 mm² passen bei D3D11-Fähigkeit imo höchstens 1000 SPs, 40 TMUs und ein 256-Bit-SI. 1200 SPs erscheinen mir schon arg hoch gegriffen.

AnarchX
2009-07-20, 18:20:55
Die originäre Quelle für die letzten Gerüchte ist Chiphell und ein bekannter User:
http://bbs.chiphell.com/viewthread.php?tid=49649&extra=page%3D1

Der RV840 soll ja 180 mm² besitzen. Der RV830 wird sicherlich kleiner. Wenn AMD die Tradition fortsetzt, dann wird der RV830 einfach ein RV740 mit D3D11.

Wenn dieser 180mm² Die wirklich 800SPs/128-Bit hat, dann würde ich nicht wirklich Sinn in einem RV740 mit D3D11 sehen.

Als kleinere RV8xx könnte ich mir vorstellen:
- 400SPs, 20TMUs, 128-Bit ~100mm²
- 120SPs, 12TMUs, 64-Bit ~60mm²

Spasstiger
2009-07-20, 18:33:23
Wenn dieser 180mm² Die wirklich 800SPs/128-Bit hat, dann würde ich nicht wirklich Sinn in einem RV740 mit D3D11 sehen.
Soll es wirklich beim 128-Bit-SI bleiben? Das würde beim RV870 dann ja 2*128 Bit bedeuten, was mir schon etwas schwachbrüstig erscheint. Die Speicherbandbreite würde dann ja gegenüber der HD 4890 bestenfalls um 28% steigen, wenn man die 5 Gbps von verfügbarem GDDR5-RAM voll ausnutzt (wird imo aber eher auf 4,4-4,8 Gbps hinauslaufen). Die theoretische, maximale Rechenleistung würde dagegen um bis zu 100%, die Texelfüllrate wohl noch um bis zu 60% steigen (bei 2*32 TMUs). Alles in allem wird die HD 5870 dann wohl um die 60-70% schneller als die HD 4890 plus DX11-Vorteil plus evtl. Mikroruckel-Nachteil.

- 120SPs, 12TMUs, 64-Bit ~60mm²
So würde ich einen RV810 in voller Ausbaustufe auch einschätzen.

AnarchX
2009-07-20, 18:49:34
Soll es wirklich beim 128-Bit-SI bleiben? Das würde beim RV870 dann ja 2*128 Bit bedeuten, was mir schon etwas schwachbrüstig erscheint.
Umso breiter das SI, umso breiter muss auch wieder der Interconnect zwischen beiden Dies werden, wenn man beide wirklich verbinden will.
Zudem scheint man ja bei Chiphell zu äußern, dass ein 384-Bit RV870 bzw. 2x192-Bit wegen den 40nm Problemen gecancelt wurde.

Nakai
2009-07-20, 19:04:16
Es macht keinen Sinn. Wieso soll ein RV870 nur 2*800SPs haben, wenn der RV840 schon mit 1200 SPs kommt. Wär ja ungefähr 33% mehr Recheneinheiten. Und das zwei Chips sich wie ein Chip verhalten halte ich für ein Gerücht. Da müsste der Interchip-Connect enorm sein, nicht nur breit sondern auch verdammt schnell und mir geringer Reaktionszeit.

Und dann noch der Stromverbrauch. Das zwei Chips á 800SPs mehr Verbrauchen als ein Chip mit 1600SPs sollte klar sein.
Wieviel wird dann ein R800 verbrauchen?


mfg Nakai

AnarchX
2009-07-20, 19:09:31
Es macht keinen Sinn. Wieso soll ein RV870 nur 2*800SPs haben, wenn der RV840 schon mit 1200 SPs kommt.
Beide Chips schließen sich natürlich aus, jedenfalls wird dieser 180mm² Die wohl kaum 1200SPs haben.

Entweder stimmen die MCM-Gerüchte oder AMD hat noch einen Die bei ~300mm², der dann 1600SPs haben könnte und vielleicht auch ein SI >256-Bit. Oder eine deutlich weiterentwickelte Architektur, aller RV7xx+D3D11-Gerüchte zu trotz. :D

reunion
2009-07-20, 19:28:34
Alles in allem wird die HD 5870 dann wohl um die 60-70% schneller als die HD 4890 plus DX11-Vorteil plus evtl. Mikroruckel-Nachteil.


Wenn es wieder auf AFR und Microrockler hinaus laufen würde würde man sich das nicht antun.

][immy
2009-07-20, 22:12:22
was mir gestern nach ice age 3d mal so einfiel, könnte ati mit den Quad-crossfire auf einer karte vielleicht in diese richtung gehen, das jeweils 2 chips an einem bild arbeiten aus 2 unterschiedlichen perspektiven um diese dann mit einer simplen 3d-brille wieder zusammenzuführen?

das würde zumindest die mikroruckler minimieren (zumindest auf das niveau eines normalen crossfire gespanns) und man hätte eine sinnvolle aufgabe für die chips. würde aus meiner sicht die qualität von spielen um einiges erhöhen, wenn sie so etwas unterstützen. zumindest klappt es mit diesen billig-brillen besser als mit den shutter teilen, bei deinen man nach ner weile kopfschmerzen bekommt.

LovesuckZ
2009-07-20, 22:16:40
Bezweifel ich, da selbst nVidia massige Probleme mit SLI hat, wenn S3D aktiviert wurde. Dieser ganze mGPU ist perfekt für experimentierfreudige Menschen, aber es in den Bereich unter 200€/250$ einzuführen ist ohne ein anständiges Konzept der reinste Fehler.

Coda
2009-07-20, 22:38:39
Steroe-3D wäre aber wirklich die perfekte Anwendung für zwei Chips. Das liegt nur am Treiber. Da sollte eigentlich immer 100% mehr Leistung rauskommen ggü. einem.

LovesuckZ
2009-07-20, 22:41:23
Das wieder das selbe Problem wie mit den AFR Profilen: Ohne richtiges Profil scheint es nicht zu funktionieren. Und zZ wird wohl für nVidia erstmal die Single-CPU im Vordergrund stehen. Denn mit SFR zu spielen - ich weiß nicht, ob das der richtige Weg für SLI und S3D sein wird.

Coda
2009-07-20, 22:46:39
Nein, das sollte völlig profillos und immer funktionieren. Da braucht man auch weder AFR noch SFR. Jeder Chip berechnet einfach eins der beiden Bilder.

][immy
2009-07-20, 22:51:39
Steroe-3D wäre aber wirklich die perfekte Anwendung für zwei Chips. Das liegt nur am Treiber. Da sollte eigentlich immer 100% mehr Leistung rauskommen ggü. einem.

dann würden sogar 4 chips auf einer karte sinn ergeben. denn so hätte man immerhin normales crossfire und ein ziemliches killer-feature "ohne leistungsverlust", für das sich auch kleinere chips (wie z.B RV830) verwenden lassen würden.

Nein, das sollte völlig profillos und immer funktionieren. Da braucht man auch weder AFR noch SFR. Jeder Chip berechnet einfach eins der beiden Bilder.
es müsste doch an sich nur vom spiel direkt unterstützt werden, oder geht es noch einfacher?

Coda
2009-07-20, 22:52:12
Da ergibt gar nichts Sinn. 3D ist ein viel zu kleiner Markt.

Hvoralek
2009-07-20, 23:05:49
Statt solcher 3D- Experimente würde ich eher auf SSAA hoffen. Das gab es ja bei R5xx- CF sogar schon einmal. Der potenzielle Nutzerkreis wäre natürlich auch da ziemlich klein. Und das bringt keine längeren Balken, sondern "nur" BQ.

Gast
2009-07-20, 23:28:06
Gab es beim RV 770 nicht starke Gerüchte, dass man den Chip noch deutlich kleiner machen hätte können, man jedoch padlimitiert war und man somit nicht noch kleiner werden konnte ? Vll. sieht es ja diesmal anders aus und man kann die Packdichte noch weiter erhöhen ?

Coda
2009-07-20, 23:30:41
Bei RV770 wurde dann mit ALUs aufgefüllt. Er hätte ursprünglich wohl nur 8 statt 10 Cluster haben sollen.

derguru
2009-07-20, 23:36:44
Statt solcher 3D- Experimente würde ich eher auf SSAA hoffen.
kennst du ein dx10 spiel wo du ssaa nutzen kannst?

Coda
2009-07-20, 23:48:01
Crysis per Konsole ;)

V2.0
2009-07-21, 07:28:59
Träumt doch nicht von Features, das entscheidende Feature ist mit einem möglichst kleinen Chip und mit möglichst wenigen Chips und somit wengi R+D Aufwand möglichst viel der Marktes abzudecken.

AnarchX
2009-07-21, 10:40:19
AMD's Evergreen codenames revealed (http://www.theinquirer.net/inquirer/news/1468991/amd-evergreen-codenames-revealed)
The highest-end enthusiast offerings are purportedly called Cypress, with performance offerings dubbed Redwood, mainstream offerings called Juniper and Cedar, and low level entry offerings named after the poisionous shrubbery, Hemlock. [bwing me a shwubbery!]

Zudem glaubt man an einen Launch Ende September.

Nakai
2009-07-21, 11:49:11
[immy;7427712']
es müsste doch an sich nur vom spiel direkt unterstützt werden, oder geht es noch einfacher?

NV machts über den Treiber, ergo greift man wohl direkt über die API rein, wodurch eine nahezu 100% theoretische Kompatibilität gewährleistet sein sollte. Also 3D würde sich über SLI und CF locker realisieren lassen. Die CPU muss nur ein Bild berechnen, jede GPU bekommt somit die gleichen Daten, welche dann nur etwas seitenversetzt verrechnet werden müssen. Ebenso müssen nicht alle Buffer dupliziert werden.


mfg Nakai

Ailuros
2009-07-21, 11:59:07
Ich will immer noch hoffen dass RV870 nicht aus etwas in der Richtung von 2*180mm2 besteht, sonst kommt dann eine hypothetische X2 auf bruellende ~720mm2 insgesamt und ich kann es schon jetzt nicht vertragen von all den ATI fans lesen zu muessen wie scheissegal perf/mm2 genau ist ;D

Mir war von Anfang an bewusst dass AMD ihren perf/mm2 Vorteil zwischen RV770X2 vs. GT200 unter 40nm nicht mehr wiederholen koennte zumindest nicht zum gleichen Grad, aber dass ein bisschen etwas davon uebrig bleiben koennte glaubte ich schon.

Falls sie jetzt so weit gehen wie im ersten Paragraph will ich erstmal erklaert haben wo der angebliche Vorteil von AMD's Strategie nochmal genau sein soll. Gut ich will einsehen dass sie bessere Chancen haben etwas frueher zu veroeffentlichen; und was danach?

Ailuros
2009-07-21, 12:00:46
AMD's Evergreen codenames revealed (http://www.theinquirer.net/inquirer/news/1468991/amd-evergreen-codenames-revealed)


Zudem glaubt man an einen Launch Ende September.

Echt? Ich hoere eher etwas von Anfang Oktober und mit dem groesserem Zeug ca. 1 Monat spaeter bin mir aber auch nicht sicher.

horn 12
2009-07-21, 12:22:13
In nem anderen Forum war mal die Rede von 23. September bis 27 September 09... Da ich aber keine Quelle nennen darf, habe ich es gelöscht.
Nun aber sit bereits eine weitere Meldung für Ende September angetreten, denk das könnte echt hinhauen... Mitte November vielleicht gar die HD5870 X²wenn man da wohl nicht Veräppeln wollte...

reunion
2009-07-21, 12:30:52
Ich will immer noch hoffen dass RV870 nicht aus etwas in der Richtung von 2*180mm2 besteht, sonst kommt dann eine hypothetische X2 auf bruellende ~720mm2 insgesamt und ich kann es schon jetzt nicht vertragen von all den ATI fans lesen zu muessen wie scheissegal perf/mm2 genau ist ;D

Mir war von Anfang an bewusst dass AMD ihren perf/mm2 Vorteil zwischen RV770X2 vs. GT200 unter 40nm nicht mehr wiederholen koennte zumindest nicht zum gleichen Grad, aber dass ein bisschen etwas davon uebrig bleiben koennte glaubte ich schon.

Falls sie jetzt so weit gehen wie im ersten Paragraph will ich erstmal erklaert haben wo der angebliche Vorteil von AMD's Strategie nochmal genau sein soll. Gut ich will einsehen dass sie bessere Chancen haben etwas frueher zu veroeffentlichen; und was danach?

Minimaler R&D-Aufwand ganz einfach. Wenn es so wäre könnte man mit nur einem Die sehr viele Märkte bedienen und ganz wichtig man wäre überall sofort auf dem Markt. Die Time-to-market ist entscheidend für den Erfolg eines Produktes. Während NV noch an den kleineren Modellen herumdoktorn muss könnte sich AMD schon wieder auf den Nachfolger konzentrieren. Und 4 x 180mm² ist ungleich 720mm².

mboeller
2009-07-21, 12:31:21
Falls sie jetzt so weit gehen wie im ersten Paragraph will ich erstmal erklaert haben wo der angebliche Vorteil von AMD's Strategie nochmal genau sein soll. Gut ich will einsehen dass sie bessere Chancen haben etwas frueher zu veroeffentlichen; und was danach?

Mainstream-, Performance- und Enthusiast-Karten von Anfang an (1 GPU; 2 GPU's; X2 ). Und nicht so wie bei Nvidia und ATi früher erst nach 6-9 Monaten. Dadurch hat man von Anfang an den Volumenmarkt im Griff und kann über die wesentlich höheren Stückzahlen bessere Preise bei TSMC aushandeln.

AnarchX
2009-07-21, 12:34:30
Wobei natürlich die MGPU-Technologie auch funktionieren muss:
I will find out what I can about Evergreen, but as of now, I am not hearing anything bad. There are rumblings of packaging problems on Cypress, but I can't confirm or deny them yet.
http://www.semiaccurate.com/forums/showthread.php?p=1122#post1122

Botcruscher
2009-07-21, 12:35:18
Ich will immer noch hoffen dass RV870 nicht aus etwas in der Richtung von 2*180mm2 besteht, sonst kommt dann eine hypothetische X2 auf bruellende ~720mm2 insgesamt und ich kann es schon jetzt nicht vertragen von all den ATI fans lesen zu muessen wie scheissegal perf/mm2 genau ist ;D


Stellt sich die Frage was und zu welchem Preis da raus kommt. 720mm ja kein Problem wenn die Leistung stimmt. Für den Kunden spielt der Parameter erstmal keine Rolle.

Falls sie jetzt so weit gehen wie im ersten Paragraph will ich erstmal erklaert haben wo der angebliche Vorteil von AMD's Strategie nochmal genau sein soll. Gut ich will einsehen dass sie bessere Chancen haben etwas frueher zu veroeffentlichen; und was danach?

Das hängt nun eben von der ominösen Verbindung und deren Kosten ab. Besonders auf die Yield dürfte es sich sehr positiv auswirken. Damit wären dann wieder günstigere Chips möglich.

Für eine genaue Antwort gibts hier einfach zu wenig Infos und im Grunde wissen "wir" garnichts. Da könnte alles kommen. Einige der Spekus ergeben ja nichtmal Sinn.