PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

Ailuros
2009-07-21, 12:46:30
Minimaler R&D-Aufwand ganz einfach.

Ich will hoffen dass sie diesen Aspekt langfristig nicht teurer bezahlen als sie orginal geschaetzt haben. E F F I Z I E N Z.

Wenn es so wäre könnte man mit nur einem Die sehr viele Märkte bedienen und wäre überall sofort auf dem Markt.

Dann zaehl mal die Unzahl an Maerkten ausserhalb von desktop und notebook schnell auf. Und wenn Du schon dabei bist kannst Du auch gleich dafuer sorgen meine selbstverstaendliche Frage danach auf einen Schlag zu beantworten.

Während NV noch an den kleineren Modellen herumdoktorn muss könnte sich AMD schon wieder auf den Nachfolger konzentrieren. Und 4 x 180mm² ist ungleich 720mm².

Ach so heisst jetzt die Ausrede fuer die Moeglichkeit dass AMD diesmal mehr die area verplempern koennte als die Konkurrenz? Gott sei Dank sind die Marketing-Kaugummis beider Seiten so elastisch dass Ihr sie in beide Richtungen stets wie es passt dehnen koennt.

LovesuckZ
2009-07-21, 12:51:08
Ich sehe auch kein R & D Vorteil, da die Kosten für die generelle GPU nicht abhängig davon ist, wieviele Cluster am Ende vorhanden sind. Außerdem muss AMD ein mGPU Konzept entwickelt und umsetzen, dass jederzeit und in jeder Anwendung zu 100% funktioniert - also profillos, microrucklerlos, Shared-Memory, 100% Bandbreitenverfügung jeder GPU zu jeder Zeit etc. Das ist wesentlich umständlicher und aufwendiger als eine GPU zu entwickeln, die 480mm^2 groß ist statt nur 180mm^2.

Ailuros
2009-07-21, 12:54:11
Stellt sich die Frage was und zu welchem Preis da raus kommt. 720mm ja kein Problem wenn die Leistung stimmt. Für den Kunden spielt der Parameter erstmal keine Rolle.

Natuerlich stimmt es; nur sollte es jeglichem Kunden jederzeit egal sein egal von welchem IHV es gerade kommt ;)

Wenn die Leistung stimmt oder wenn die Leistung bei Preis X gegenueber der Konkurrenz stimmt? Es ist ja nicht so als ob Evergreen die einzigen X11 GPUs fuer 2010 auf den Regalen sein werden.

Das hängt nun eben von der ominösen Verbindung und deren Kosten ab. Besonders auf die Yield dürfte es sich sehr positiv auswirken. Damit wären dann wieder günstigere Chips möglich.

Wenn ich dem "RV870= native dual chip" Geruecht glauben soll, dann glaube ich auch gleich das +10$ zusaetzliche Kosten (fuer packaging) Geruecht.

Ich sag ja nicht dass es stimmt, aber falls ja sind 10 Dollar zusaetzliche Kosten ziemlich viel fuer so ein Ding und nein es bewegt sich in solch einem Fall nicht unbedingt in einem optimalem Kosten-Bereich eher das Gegenteil.

reunion
2009-07-21, 12:57:15
Ich will hoffen dass sie diesen Aspekt langfristig nicht teurer bezahlen als sie orginal geschaetzt haben. E F F I Z I E N Z.


Ja, genau Effizienz. Wenn man nur einen statt drei Chips entwickeln muss ist das effizient.


Dann zaehl mal die Unzahl an Maerkten ausserhalb von desktop und notebook schnell auf. Und wenn Du schon dabei bist kannst Du auch gleich dafuer sorgen meine selbstverstaendliche Frage danach auf einen Schlag zu beantworten.

Die Märkte werden dieselben sein wie bei Single-GPUs auch wenn man das richtig umsetzt. Ansonsten bezog sich das natürlich auf den Preisbereich. Ein Die für ~100-500$.


Ach so heisst jetzt die Ausrede fuer die Moeglichkeit dass AMD diesmal mehr die area verplempern koennte als die Konkurrenz? Gott sei Dank sind die Marketing-Kaugummis beider Seiten so elastisch dass Ihr sie in beide Richtungen stets wie es passt dehnen koennt.

Welche Ausrede? Es ist nur ein Unterschied ob 4 x 180mm² oder 720mm². Yieldraten sind wesentlich besser, man hat weniger Verschnitt am Rand.

Botcruscher
2009-07-21, 12:59:54
Wenn die Leistung stimmt oder wenn die Leistung bei Preis X gegenueber der Konkurrenz stimmt?

Nur Letzteres ergibt überhaupt Sinn. Genau deswegen gibts doch auch die Perf/mm² Debatte. Am Ende zählt immer der Preis.

V2.0
2009-07-21, 13:05:25
Nur wenn sie viel in Multi-GPU gesteckt haben also relativ viele Transistoren für den Sideport usw. draufgingen, dann ist der Single-Chip wieder ineffizient.

LovesuckZ
2009-07-21, 13:13:44
Nur wenn sie viel in Multi-GPU gesteckt haben also relativ viele Transistoren für den Sideport usw. draufgingen, dann ist der Single-Chip wieder ineffizient.

Generell ist dieses Konzept ineffizient, da vieles redundant ist. Wenn man dieses Konzept verfolgt, benönigt man soetwas wie NVIO von nVidia. Einen extra 2D Chip mit Speicher, der alleine für die 2D und 3D Ausgabe im officebetrieb zuständig ist. Der große 3D Chip muss über ein Hybrid-Power Konzept daran angeschlossen sein.
Was bringt es mir einen 180mm^2 Single GPU Chip zu fertigen, der beim Einsatz im mGPU Konzept 4x den gleichen IO-Bereich hat? Selbst wenn man annimmt, dass 35mm^2 ausreichend dafür wären, sind das 105mm^2 beim vierer Konzept, die komplett überflüssig wären. Das ist fast ein ganzer rv740 ohne IO-Bereich.

Gast
2009-07-21, 13:22:27
Der Weg ist auf jeden Fall klar und geht in Richtung MultiGPU. Das werden wieder einige nicht warhaben wollen so wie bei den CPUs auch, aber es wird kommen. Es stellt sich nur die Frage ob und welcher Hersteller es besser hinbekommen wird...

reunion
2009-07-21, 13:25:55
Generell ist dieses Konzept ineffizient, da vieles redundant ist. Wenn man dieses Konzept verfolgt, benönigt man soetwas wie NVIO von nVidia. Einen extra 2D Chip mit Speicher, der alleine für die 2D und 3D Ausgabe im officebetrieb zuständig ist. Der große 3D Chip muss über ein Hybrid-Power Konzept daran angeschlossen sein.
Was bringt es mir einen 180mm^2 Single GPU Chip zu fertigen, der beim Einsatz im mGPU Konzept 4x den gleichen IO-Bereich hat? Selbst wenn man annimmt, dass 35mm^2 ausreichend dafür wären, sind das 105mm^2 beim vierer Konzept, die komplett überflüssig wären. Das ist fast ein ganzer rv740 ohne IO-Bereich.

35mm² in 40nm ist auch viel zu viel IMHO, da würde es wirklich keinen Sinn machen. Der "I/O-Bereich" muss sowieso vorhanden sein, alles was man braucht ist ein Interface welches Daten schnell genug über das Package senden kann.

Coda
2009-07-21, 13:26:17
Der Weg ist auf jeden Fall klar und geht in Richtung MultiGPU. Das werden wieder einige nicht warhaben wollen so wie bei den CPUs auch, aber es wird kommen. Es stellt sich nur die Frage ob und welcher Hersteller es besser hinbekommen wird...
Der Vergleich hinkt gewaltig. Ein Prozessor hat nur Vorteile durch Multi-Core, bei mehreren GPUs und heutigen Verfahren sind eklatante Schwächen vorhanden.

Niemand hätte etwas gegen transparent funktionierendes Multi-Core. Wenn ATI das auf die Beine stellt, Hut ab. Wieso sollte man da auch was dagegen haben?

Coda
2009-07-21, 13:58:23
35mm² in 40nm ist auch viel zu viel IMHO, da würde es wirklich keinen Sinn machen. Der "I/O-Bereich" muss sowieso vorhanden sein, alles was man braucht ist ein Interface welches Daten schnell genug über das Package senden kann.
RV770:

UVD + Display = 21 mm^2
GDDR5 = 40 mm^2
PCIe = 9 mm^2

Dein "kleines" Interface mit den nötigen Datenraten hätte wohl ungefähr gleiche Ausmaße wie das GDDR5-Interface. Und jetzt überleg mal nochmal. Und ja, man muss den Shrink reinrechnen. Der ist bei I/O-Sachen aber nicht linear, weil die I/O-Transistoren riesig sind.

mboeller
2009-07-21, 14:14:50
RV770:

UVD + Display = 21 mm^2
GDDR5 = 40 mm^2
PCIe = 9 mm^2

Dein "kleines" Interface mit den nötigen Datenraten hätte wohl ungefähr gleiche Ausmaße wie das GDDR5-Interface. Und jetzt überleg mal nochmal. Und ja, man muss den Shrink reinrechnen. Der ist bei I/O-Sachen aber nicht linear, weil die I/O-Transistoren riesig sind.

Generell:
AMD wird sich bei dem ganzen schon was überlegt haben. Wenn es sich für sie nicht rechnen würde, würden sie es nicht machen. Ergo muss es aus ihrer Sicht günstiger sein als ein große Dies zu entwickeln und zu fertigen.


Wer sagt den, das der RV840 und der RV830 wirklich GPUs einer anderen Klasse (Mainstream/Performance) sind. Vielleicht ist der RV840 wirklich eine Art "Mutterschiff" incl. UVD, PCIe etc... und der RV830 ist nur ein Renderchip incl. GDDR5-Interface der für mGPU (1-3 Chips) zusammen mit dem RV840 auf einer Karte verbaut wird.

Ailuros
2009-07-21, 14:30:50
Ja, genau Effizienz. Wenn man nur einen statt drei Chips entwickeln muss ist das effizient.

So war's nicht gemeint; je sparsamer das insgesamte R&D desto karger die Effizienz-Steigerungen. Sei froh wenn Evergreen das bis zu 2xMal der heutigen GPUs erreicht und das insgesamte Resultat mit halbwegs anstaendigem Stromverbrauch ankommt.

Die Märkte werden dieselben sein wie bei Single-GPUs auch wenn man das richtig umsetzt. Ansonsten bezog sich das natürlich auf den Preisbereich. Ein Die für ~100-500$.

Dir faellt es wohl zu schwer Dich auf spezifische Maerkte zu beziehen weil Du schon fuehlen kannst dass ich mich u.a. auch auf den Profi-Markt beziehen werden und nein es ist in dem Fall weder richtig oder "besser" umgesetzt noch klingt das Ganze nach einer erfolgreichen all-markets Strategie.

Welche Ausrede? Es ist nur ein Unterschied ob 4 x 180mm² oder 720mm². Yieldraten sind wesentlich besser, man hat weniger Verschnitt am Rand.

Nur sind trotz allem 4 chips teurer theoretisch (plus all der notwendige hypothetische packaging Schnickschnack) als ein einziger <500mm2 chip (der garantiert um einiges weniger Strom verbrauchen wird nebenbei).

reunion
2009-07-21, 14:42:50
RV770:

UVD + Display = 21 mm^2
GDDR5 = 40 mm^2
PCIe = 9 mm^2

Dein "kleines" Interface mit den nötigen Datenraten hätte wohl ungefähr gleiche Ausmaße wie das GDDR5-Interface. Und jetzt überleg mal nochmal. Und ja, man muss den Shrink reinrechnen. Der ist bei I/O-Sachen aber nicht linear, weil die I/O-Transistoren riesig sind.

Man wird die Chips wohl kaum mit einem 256-bit Interface verbinden. Alleine schon wegen des nötigem Pinouts und den Kosten. Über das Package bei einer sehr kurzen Distanz mit kaum Interferenzen dürfte man wohl ziemlich hohe Taktraten erreichen. Man wird die Chips natürlich auch ähnlich wie bei Xenos an weniger kritischen Stellen trennen sodass man mit vergleichsweise wenig Bandbreite auskommt. Xenos hat auch nur 32GB/s. Aber mal sehen wie man das (wenn es überhaupt kommt) konkret löst. 40mm² nur für so ein Interface wäre bei einem 180mm² Die Wahnsinn.

Ailuros
2009-07-21, 14:56:01
Wer sagt den, das der RV840 und der RV830 wirklich GPUs einer anderen Klasse (Mainstream/Performance) sind. Vielleicht ist der RV840 wirklich eine Art "Mutterschiff" incl. UVD, PCIe etc... und der RV830 ist nur ein Renderchip incl. GDDR5-Interface der für mGPU (1-3 Chips) zusammen mit dem RV840 auf einer Karte verbaut wird.


SGX543MP hat wie bekannt hw Unterstuetzung fuer die intercore Kommunikation; nicht einmal pro MP sondern pro chip.

***edit:

http://www.semiaccurate.com/forums/showpost.php?p=1122&postcount=10

That said, last time I heard something that I would call official was a few weeks ago, and there were no Evergreen problems, everything was going ahead of schedule. That isn't to say a problem hasn't cropped up, but nothing that was real a few weeks ago.
On the other hand, last I heard, early last week, GT300 missed the mid-July promised tape out date.
I will find out what I can about Evergreen, but as of now, I am not hearing anything bad. There are rumblings of packaging problems on Cypress, but I can't confirm or deny them yet.

CrazyIvan
2009-07-21, 15:42:21
Nur sind trotz allem 4 chips teurer theoretisch (plus all der notwendige hypothetische packaging Schnickschnack) als ein einziger <500mm2 chip (der garantiert um einiges weniger Strom verbrauchen wird nebenbei).
Niemand hier hat genaue Zahlen, aber ich spekuliere eher in die andere Richtung. Wenn ich bei TSMC 50 Millionen kleine Chips mit einer Yield von 70% in Auftrag gebe, dann werden 4 daraus resultierende Chips IMHO sehr wohl günstiger sein, als Dein 500mm2 chip, gefertigt in einer Stückzahl von 1 Mio und bei einer Yield von 30%. Du solltest die Skaleneffekte dank genau 1(!) Design für alle Märkte und der weitaus höheren Yield dank kleinerer Chips nicht so herunterspielen.

LovesuckZ
2009-07-21, 15:53:23
Mit diesem Konzept verbaut sich AMD die Zukunft im Workstation und High-End Geschäft, wo die Margen extrem hoch sind. Hier wird das Geld in Zukunft verdient, und nicht im übersättigtem Mid-Range Bereich.
Man sollte sich auch gleichzeitig überlegen, dass AMD nur vollwertige Chips verwerten kann, da die Leistung auf ein Minimum reduziert wird. Sollte dies stimmen, dass es sich beim rv870 um einen Chip mit der Leistung zwischen 4850-4890 handelt, ist eine Kastration kaum sinnvoll.
Abgesehen davon, will AMD auch andere Chips bringen (rv830), demnach scheint diese Strategie nicht wirklich komplett bis zum Ende gedacht zu sein.

reunion
2009-07-21, 16:08:21
Mit diesem Konzept verbaut sich AMD die Zukunft im Workstation und High-End Geschäft, wo die Margen extrem hoch sind. Hier wird das Geld in Zukunft verdient, und nicht im übersättigtem Mid-Range Bereich.

Begründung? Wenn das Design sich wie ein Single-Chip verhält gibt es dafür nicht den geringsten Grund.


Man sollte sich auch gleichzeitig überlegen, dass AMD nur vollwertige Chips verwerten kann, da die Leistung auf ein Minimum reduziert wird. Sollte dies stimmen, dass es sich beim rv870 um einen Chip mit der Leistung zwischen 4850-4890 handelt, ist eine Kastration kaum sinnvoll.

Die Yields bei kleinen Chips sind gut genug um darauf zu verzichten. Es werden seit jeher nur größere Chips kastriert. Ansonsten würde auch nichts dagegen sprechen hier Einheiten zu deaktivieren, warum auch?


Abgesehen davon, will AMD auch andere Chips bringen (rv830), demnach scheint diese Strategie nicht wirklich komplett bis zum Ende gedacht zu sein.

Gerade wenn man sie zu Ende denkt sieht man das es nicht sinnvoll ist im absoluten Lowend anzufangen.

Coda
2009-07-21, 16:54:06
Man wird die Chips wohl kaum mit einem 256-bit Interface verbinden. Alleine schon wegen des nötigem Pinouts und den Kosten. Über das Package bei einer sehr kurzen Distanz mit kaum Interferenzen dürfte man wohl ziemlich hohe Taktraten erreichen. Man wird die Chips natürlich auch ähnlich wie bei Xenos an weniger kritischen Stellen trennen sodass man mit vergleichsweise wenig Bandbreite auskommt. Xenos hat auch nur 32GB/s. Aber mal sehen wie man das (wenn es überhaupt kommt) konkret löst. 40mm² nur für so ein Interface wäre bei einem 180mm² Die Wahnsinn.
Das will ich sehen wie sie höhere Transferraten als GDDR5 erreichen wollen. Und selbst mit der bräuchten sie wohl mindestens 128 Lanes + Steuerung.

Was willst du da an "weniger kritischen Stellen" trennen? Mal ganz ehrlich. Entweder Butter bei die Fische oder nicht solche Aussagen.

Gipsel
2009-07-21, 17:04:05
Ich will immer noch hoffen dass RV870 nicht aus etwas in der Richtung von 2*180mm2 besteht, sonst kommt dann eine hypothetische X2 auf bruellende ~720mm2 insgesamt und ich kann es schon jetzt nicht vertragen von all den ATI fans lesen zu muessen wie scheissegal perf/mm2 genau ist ;D

Mir war von Anfang an bewusst dass AMD ihren perf/mm2 Vorteil zwischen RV770X2 vs. GT200 unter 40nm nicht mehr wiederholen koennte zumindest nicht zum gleichen Grad, aber dass ein bisschen etwas davon uebrig bleiben koennte glaubte ich schon.
Na dann laß uns doch mal anhand der Gerüchte RV770 X2 vs. GT200b (55nm Prozeß) mit dem 180mm² chip X4 (da nehme ich aufgrund fehlender schlüssiger Daten mal konservativ 12 SIMDs bisherigen Aufbaus an) mit GT300 vergleichen.

2 * 256 = 512 mm² mit 2*160*5 = 1600 ALUs, 2*40 = 80 TMUs, 2 x 256 Bit Speicherinterface
1 * 490 mm² mit 240 ALUs, 80 TMUs, 512 Bit Speicherinterface

Verhältnis RV770X2 vs. GT200b
Die size: 1.044
Shader: 1.33 (320:240)
TMUs: 1:1
Mem: 1:1 (allerdings GDDR5 vs. GDDR3)

4 * 180 = 720 mm², mit 4*192*5 = 3840 ALUs, 4*48 = 192 TMUs, 4 * 128 Bit Speicherinterface
1 * 480mm² mit 512 ALUs, 128 TMUs, 512 Bit Speicherinterface

Verhältnis "RV840"X4 vs. GT300
Die size: 1.5
Shader: 1.5 (768:512)
TMUs: 1.5
Mem: 1:1

Also rein von diesen sturen Zahlen (die natürlich wenig über die internen Änderungen und die Effizienz aussagen), holt nvidia nur bei der Speicherbandbreite auf (war aber bei ATI bisher eher überdimensioniert und selten limitierend), handelt sich aber eventuell bei der Texturierleistung (schon eher ein Flaschenhals bei ATI) ein Problem ein.

Zusammengefaßt wird diese hypothetische 4 x 180mm² Lösung zwar schon im Verhältnis größer werden, aber dafür bei den meisten anderen Parametern auch deutlicher vorne liegen als die RV770X2-Lösung gegenüber GT200b. Es könnte also durchaus in etwa auf die gleichen Verhältnisse hinauslaufen.

Gast
2009-07-21, 17:44:16
Generell:
AMD wird sich bei dem ganzen schon was überlegt haben. Wenn es sich für sie nicht rechnen würde, würden sie es nicht machen. Ergo muss es aus ihrer Sicht günstiger sein als ein große Dies zu entwickeln und zu fertigen.

Wahrscheinlich nach einem Blick in ihre leider leeren Kassen.
Finance:"Entweder wir backen kleinere Brötchen oder wir hören ganz auf."

Marketing:"Der Masse verkaufen wir es dann als Fokussierung und Umsetzung unserer Customer Centric Strategie".

Engineering: "WTF? OMFG ihr seid bekloppt."

Gast
2009-07-21, 17:49:17
Nehmen wir mal an, es stimmt dass NV auf einen Einzelchip und ATI auf ein MCM setzt. Dann könnte ATI aufgrund des besseren Yields eine größere Gesamtchipfläche zu gleichen Kosten wie NV anbieten, ergo mehr Ressourcen verbraten ergo niedriger takten ergo eine geringere Spannung nutzen ergo trotz größerer Transistorzahl / Modulfläche beim Energieverbrauch gleichauf mit NV sein oder sogar darunter (mal ausgehend von idealem MCM und noch ein paar anderen unrealistischen Prämissen).

LovesuckZ
2009-07-21, 18:04:21
Und dann gucken wir uns den GT200(b) und den rv770 an und sagen: Nein.

Black-Scorpion
2009-07-21, 18:53:55
Kann man sich deine Kristallkugel mal ausborgen?
Vom Vorgänger auf die aktuellen GPUs mit einigen Änderungen zu schließen bringst auch nur du fertig.
Das sagt absolut nichts darüber aus was die neuen verbraten.

LovesuckZ
2009-07-21, 19:03:02
Kann man sich deine Kristallkugel mal ausborgen?
Vom Vorgänger auf die aktuellen GPUs mit einigen Änderungen zu schließen bringst auch nur du fertig.
Das sagt absolut nichts darüber aus was die neuen verbraten.

Vielleicht solltest du - statt wie immer zu trollen - einfach mal lesen, was der Gast geschrieben hat.
Wo in seiner Spekulation der Unterschied zu heute liege, kannst du gerne - um deine Diskussionsabsichten zu zeigen - darlegen.

Black-Scorpion
2009-07-21, 19:16:12
Im Gegensatz zu dir hat er geschrieben "Nehmen wir mal an".
Du hast direkt seine Spekulation mit heutigen GPUs gegenübergestellt und gleich "Nein" geschrieben.
Wenn du den Unterschied nicht merkst ist das dein Problem und nicht meins.
Und wer hier mehr trollt ist auch noch die Frage.

nagus
2009-07-21, 19:37:14
Wahrscheinlich nach einem Blick in ihre leider leeren Kassen.
Finance:"Entweder wir backen kleinere Brötchen oder wir hören ganz auf."

Marketing:"Der Masse verkaufen wir es dann als Fokussierung und Umsetzung unserer Customer Centric Strategie".

Engineering: "WTF? OMFG ihr seid bekloppt."

bist du blind oder ignorierst du absichtlich die tatsache, dass AMD mit dieser strategie, die sie seit der RV670 bzw. RV770 verfolgen besser dran ist als vorher? ... und dass nvidia mit seinem monster-chip relativ gesehen "in die shice" gegriffen hat?

... oder wer hier bekloppt ist

V2.0
2009-07-21, 19:41:31
Da gab es nur einen großen NV-Chip in der zeit den GT200. Daraus ne dauerhaft Aussage zu ziehen ist, gerade bei dem eigenartigen Aufbau des Chips, schon gewagt.

LovesuckZ
2009-07-21, 19:53:37
Im Gegensatz zu dir hat er geschrieben "Nehmen wir mal an".
Du hast direkt seine Spekulation mit heutigen GPUs gegenübergestellt und gleich "Nein" geschrieben.
Wenn du den Unterschied nicht merkst ist das dein Problem und nicht meins.
Und wer hier mehr trollt ist auch noch die Frage.

Und? Was soll es daran ändern, dass nVidia heute mit 980mm^2 deutlich weniger verbraucht als AMD mit ca. 560mm^2. Und jetzt sollen wir mal annehmen, dass AMD in Zukunft mit ca. 720mm^2 weniger verbrauchen wird als nVidia mit einem 480mm^2 Chip?
Nein, wir müssen nichts annehmen. Die Realität zeigt, dass klein nicht gleichbedeutend mit energiesparsam bedeutet. Das was der Gast schreibt, ist also mit "nein", treffen kommentiert.
Und jetzt bist du dran, indem du mal darlegst, wie AMD mit 720mm^2 weniger verbauchen wird als nVidia mit 480mm^2.

Black-Scorpion
2009-07-21, 19:59:58
Weil 4x180mm^2 ≠ 720mm^2 ist?
Nur weil die Gesamtfläche größer ist kannst du nicht automatisch davon ausgehen das der Verbrauch höher ist.

aylano
2009-07-21, 20:03:17
Begründung? Wenn das Design sich wie ein Single-Chip verhält gibt es dafür nicht den geringsten Grund.
...
Ja, genau Effizienz. Wenn man nur einen statt drei Chips entwickeln muss ist das effizient. Was ich komisch finde.
Wenn die neue Verbindung super (so 100%) funktioniert, warum ersetzen sie damit nicht zuerst Crossfire (High-End ... 2 Chips) und setzten im Shrink dann diese Technik "voll" (=Hign-End ... 4 Chips) ein?

Eigentlich wäre es nicht aufwenndig, wenn AMD einen RV810 (15-25 Watt), einen RV830 (50-75 Watt) und einen RV840 (110-150 Watt) macht.

RV810 könnte im ganzen Jahr 2010 bei OEMs (Desktop & Notebook) als langsamste DX11-GPU verkauft werden und im Jahr 2011 wandert dieser per Shrink in die Fusion-CPU
(siehe Vergangenheit mit IGP)

RV830 wird mainstream in Desktop & Notebook (vorallem bei notebooks ist so eine GPU wichtig, da RV840 einfach viel zu groß wäre)
Und per 32nm-Shrink könnte diese als Low-End degradiert.

RV840 könnte wie bisher als Performance & X2 als High-End mit der neuen Verbindungstechnologie verkauft werden.
Per 32nm-Shrink werden aus
4 Chips ... High- End
2 Chips ... Performance
1 Chips ... mainstream

dieser 32nm bzw 28nm-Shrink wird ja auch bald kommen und das müsste, wenn man schon R&D-Einsparungen-bei-Dies machen will, ja auch berücksichtig werden, da sonst AMD 8-Chips für High-End bräuchte.

Irgendwie kann ich jetzt bzw. per RV870 an einem 4-Chips-for-High-End nicht glauben, da das Risiko viel zu groß ist. Es müsste eben jetzt zu 100% funktionieren, sonst kann es katastrophal (R600-like) enden.

Am Anfang der RV790-Spekulationen dachte ich an 920/1200-Shander oder an 800-Shader mit einer neuen Verbindungstechnologie, aus der man 2x800-Shader macht, die dann wie ein Die wirken.
Also, warum hat AMD das da nicht geprobt und stattdessen einen RV790 mit OC-Eigenschaften!

Nun ja, AMD könnte dann jetzt beim RV870 X2 die neue Verbindungstechnologie einsetzen. Wenn es nicht klappt, dann könnten sie immer noch auf AFR umsteigen.
(vielleicht so wie beim RV770)
Und beim 32nm-Shrink hätten sie kein High-End, siehe jetzt, wo die Welt auch nicht untergeht.

Ein Risiko wäre das trotzdem, da bei nichtfunktionieren der neuen Verbindungstechnologie auch das generelle Image der ATI-DX11-Karten ankratzen könnte (ähnlich R600-Ära)

LovesuckZ
2009-07-21, 20:05:11
Nein? 2xrv770 verbrauchen mehr als ein GT200. Die Gesamtfläche ist fast identisch. Wie kann das also sein?
Um mit vier GPUs einen niedrigen Verbrauch als mit dem GT300 zu erreichen, müsste ein rv870 um die 60 Watt verbrauchen. Und das bezweifel ich, da selbst ein rv740 schon diese Menge benötigt.

Black-Scorpion
2009-07-21, 20:10:43
Du weißt also was ein GT300 verbraucht?
Interessant.
Entweder habe ich es verschlafen und noch keinen gesehen, oder es liegt daran das noch keiner gemessen hat.
Und das deine unsinnigen Vergleiche mit erhältlichen GPUs nichts bringen habe ich schon gesagt.

Gast
2009-07-21, 20:13:10
Nein? 2xrv770 verbrauchen mehr als ein GT200. Die Gesamtfläche ist fast identisch. Wie kann das also sein?
Um mit vier GPUs einen niedrigen Verbrauch als mit dem GT300 zu erreichen, müsste ein rv870 um die 60 Watt verbrauchen. Und das bezweifel ich, da selbst ein rv740 schon diese Menge benötigt.


relativ zur Leistung gesehen, brauchen 2 rv770 nicht mehr als ein gt200!

LovesuckZ
2009-07-21, 20:39:53
relativ zur Leistung gesehen, brauchen 2 rv770 nicht mehr als ein gt200!

Richtig, aber das war nicht der Hauptpunkt. Aus dem Kontext verbraucht eine GTX295 auch weniger als eine GT200 Karte. ;)
Hier ging es nur darum zu zeigen, dass kleinere Chips sich nicht einfach so für mGPU eignen und dabei den Begriff GreenIT neu definieren.

/edit: Das ist aber auch das Problem: Bist du mit mGPU gleichschnell wie die Single-GPU, dann ist das der mega Gau. Deswegen muss man auf Teufel komm raus schneller sein. Und schon landet man wie hier bei fast 300 Watt. Und 300 Watt abzuführen, geschieht mit Luft nur unter einer Lautstärke, die abstoßend ist.
Ich sehe es an meinen 2 GT200 Karten, die untervoltet sind. Selbst hier gehen die Lüfter fast auf 100% bei voller Auslastung, dass ich das manchmal schon nervig finde.

Gast
2009-07-21, 21:04:25
Du kannst bestimmt auch schlüssig erklären, warum das der Mega-GAU sein soll ...

nagus
2009-07-21, 21:39:06
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/582-catalyst-98-schon-am-8-august

welcher "event" könnte das sein? Radeon 5800 launch event vielleicht? *gg*
... wenn ich mich richtig erinnere war doch das erste gerücht bezüflich launchtermin der 8. august.

Ailuros
2009-07-21, 22:05:28
Na dann laß uns doch mal anhand der Gerüchte RV770 X2 vs. GT200b (55nm Prozeß) mit dem 180mm² chip X4 (da nehme ich aufgrund fehlender schlüssiger Daten mal konservativ 12 SIMDs bisherigen Aufbaus an) mit GT300 vergleichen.

2 * 256 = 512 mm² mit 2*160*5 = 1600 ALUs, 2*40 = 80 TMUs, 2 x 256 Bit Speicherinterface
1 * 490 mm² mit 240 ALUs, 80 TMUs, 512 Bit Speicherinterface

Verhältnis RV770X2 vs. GT200b
Die size: 1.044
Shader: 1.33 (320:240)
TMUs: 1:1
Mem: 1:1 (allerdings GDDR5 vs. GDDR3)

Ich wuerde persoenlich nicht jeglichen RV770 config mit GT200b vergleichen, weil ich sonst erstmal ignorieren wuerde dass NV mit dem 65nm 583mm2 GT200 gegen die X2 antrat und es dann spaeter von beiden unter 55nm sowohl die GTX295 als auch die RV790 gab die nicht unbedingt helfen das Bild so stark zu vereinfachen.

Auf jeden Fall ist es eher 2*263mm2 @55nm vs. 583mm2 @65nm oder 2*263mm2 @55nm vs. 2*490mm2 @55nm. Egal welchen Fall Du jetzt nimmst (noch schlimmer wenn man nur auf single chip Basis ergo GTX285 vs. RV790 vergleicht), hatte AMD bisher einen ziemlich grossen perf/mm2 Vorteil.

Uebrigens sind nicht unter allen Faellen alle 40TMUs auf RV7x0 pro chip operativ.


4 * 180 = 720 mm², mit 4*192*5 = 3840 ALUs, 4*48 = 192 TMUs, 4 * 128 Bit Speicherinterface
1 * 480mm² mit 512 ALUs, 128 TMUs, 512 Bit Speicherinterface

Verhältnis "RV840"X4 vs. GT300
Die size: 1.5
Shader: 1.5 (768:512)
TMUs: 1.5
Mem: 1:1

Afaik 495mm2 fuer "G300" und 320 ALUs (IMHO) fuer jegliche "RV870"; es aendert zwar nichts fundamentales im spekulativen die size Verhaeltnis oben, aber falls es stimmen sollte ist es eher 1.25x fuer die ALUs (was wie Du auch selber sagst ein bedeutungsloser Vergleich ist). Auf dem gleichen 1.25x Nivaeu koennten auch die TMUs liegen.


Zusammengefaßt wird diese hypothetische 4 x 180mm² Lösung zwar schon im Verhältnis größer werden, aber dafür bei den meisten anderen Parametern auch deutlicher vorne liegen als die RV770X2-Lösung gegenüber GT200b. Es könnte also durchaus in etwa auf die gleichen Verhältnisse hinauslaufen.

Nur wenn "G300" praktisch ein GT200 mit 512SPs + DX11 ist.

Ailuros
2009-07-21, 22:15:54
Weil 4x180mm^2 ≠ 720mm^2 ist?
Nur weil die Gesamtfläche größer ist kannst du nicht automatisch davon ausgehen das der Verbrauch höher ist.

Davon will ich persoenlich aber auch nicht ausgehen; damit man es aber auf ein realitaetsnahes Niveau halten kann muesste dieses angebliche 4*180mm2 Gespann einen fetten Batzen mehr Leistung liefern als eine heutige GTX295 und weniger verbrauchen als eine einzelne GTX285.

Ich zweifle uebrigens immer noch an diesem dual core Zeug obwohl sich die packaging Geruechte merkwuerdigerweise in letzter Zeit anreihen.

Gast
2009-07-21, 22:56:07
bist du blind oder ignorierst du absichtlich die tatsache, dass AMD mit dieser strategie, die sie seit der RV670 bzw. RV770 verfolgen besser dran ist als vorher? ... und dass nvidia mit seinem monster-chip relativ gesehen "in die shice" gegriffen hat?
Ich sehe, dass AMD zu Zeiten des R520 eine High-End-Single-GPU-Karte für >500 Euro an den Mann gebracht hat. Ich sehe auch, dass das der Plan mit R600 war, der aus verschiedenen Gründen (Prozess-Probleme, Metal-Layer-Bug, unerwartet starker G80) in die Hose gegangen ist.

Ich sehe auch, dass AMD jetzt keine Single-GPU-Karte im Angebot hat, von denen es keine Modelle im Bereich von 150 Euro gibt, trotz großer Speicherausstattung, trotz GDDR5, trotz aufwendiger Kühllösung und trotz eines Dies, welches lediglich ~20% kleiner als das der 500-Euro-R520 ist.

Klingt nach einer wirklich famosen Entscheidung.



... oder wer hier bekloppt ist
Hast du das wirklich nötig?

Gipsel
2009-07-22, 03:02:25
Ich wuerde persoenlich nicht jeglichen RV770 config mit GT200b vergleichen, weil ich sonst erstmal ignorieren wuerde dass NV mit dem 65nm 583mm2 GT200 gegen die X2 antrat und es dann spaeter von beiden unter 55nm sowohl die GTX295 als auch die RV790 gab die nicht unbedingt helfen das Bild so stark zu vereinfachen.
Du hattest explizit RV770 X2 vs. GT200 erwähnt. Ich habe mich lediglich auf die in gleicher Strukturgröße produzierten Varianten bezogen ;)

Auf jeden Fall ist es eher 2*263mm2 @55nm vs. 583mm2 @65nm oder 2*263mm2 @55nm vs. 2*490mm2 @55nm. Egal welchen Fall Du jetzt nimmst (noch schlimmer wenn man nur auf single chip Basis ergo GTX285 vs. RV790 vergleicht), hatte AMD bisher einen ziemlich grossen perf/mm2 Vorteil.
Das bestreite ich nicht. Der Großteil davon bestand allerdings in der Shaderperformance (ich hatte extra nur die Anzahl der 5er-Einheiten angegeben, damit das wenigstens noch in der gleichen Größenordnung ist) und zum Teil bei der Speicherbandbreite. Bei den anderen Parametern ist GT200 nicht unbedingt hintendran.
Uebrigens sind nicht unter allen Faellen alle 40TMUs auf RV7x0 pro chip operativ.Wie meinst Du denn das? Also jede RV770 (davon war ja die Rede), die nicht kastriert wurde (HD4830) hat schon 40 aktive TMUs.

Nur wenn "G300" praktisch ein GT200 mit 512SPs + DX11 ist.
Nun, das ist meiner Meinung nach immer noch halbwegs wahrscheinlich. Irgendwo ein paar Gimmicks für ein paar Spezialfälle und ansonsten 16 x 4 x 8 Shader (statt 10 x 3 x 8 bei GT200). Vielleicht werden die TPCs unabhängiger voneinander, vielleicht wird der Rasterizer etwas aufgebohrt (was Du ja ständig andeutest), aber ein wirklich umwerfend neues Blockdiagramm wird da am Ende wohl nicht rauskommen. Das man trotz der nur moderat gestiegenen Transistorzahl (ja, 1,4 -> 2,4 Milliarden nenne ich eine moderate Steigerung bei potentiellen 50% Flächenskalierung durch einen neuen Prozeß) kein kleineres Die erreicht, liegt wahrscheinlich am weiterhin 512Bit breitem Speicherinterface.

Und warum soll ATIs 180mm² eigentlich maximal 800 ALUs besitzen? Ich halte ein paar mehr für nicht so unwahrscheinlich. Bei RV770 nehmen die Shader mitsamt TMUs nur etwa 40% der Fläche ein. Vergleicht man unter Berücksichtigung des schmaleren Speicherinterfaces und der 20% geringeren Anzahl von SIMDs/TMUs RV770 mit RV740, so komme ich auf ein Scaling von 57% (nimmt man RV790 als Basis sogar exakt auf die rechnerischen 52%) für den Schritt 55nm->40nm. Damit kosten zusätzliche 320 ALUs mitsamt den TMUs höchstens 30mm² in 40nm. Falls man an den TMUs etwas sparen sollte oder die Einheiten dichter packt (wie bei RV670->RV770), noch deutlich weniger.
137 + 30 = 167 mm²
Glaubst Du für das bißchen Tesselator und den 32kB Local DataShare (statt 16kB jetzt) gehen mehr als 13mm² drauf? Die zusätzlichen Shadertypen werden doch hauptsächlich vom Scheduler (Ultra Threaded Dispatch Processor) erschlagen und kosten kaum was. Irgendwo noch einen kleinen Buffer dafür schaffen und gut ist.

[wilde Spekulation]
In Anbetracht der "native DualCore" Gerüchte und den eigenartig aussehenden 180mm² Dies auf dem ominösen TSMC-Wafer tippe ich jetzt einfach mal, daß da zwei "Cores" zu je 480 ALUs größtenteils unabhängig (teilen sich nur das Speicherinterface und sind per Crossbar verbunden) voneinander arbeiten können. Sie besitzen getrennte Scheduler, arbeiten aber kooperativ an einem Bild. So kann die Ausnutzung der Einheiten gesteigert werden, ohne auf den exzessiven Einsatz von "Über-Shadern" zurückgreifen zu müssen.
[/Spekulation]

Coda
2009-07-22, 03:04:24
Wie meinst Du denn das? Also jede RV770 (davon war ja die Rede), die nicht kastriert wurde (HD4830) hat schon 40 aktive TMUs.
Es gibt nur 32 Interpolatoren.

Sie besitzen getrennte Scheduler, arbeiten aber kooperativ an einem Bild. So kann die Ausnutzung der Einheiten gesteigert werden, ohne auf den exzessiven Einsatz von "Über-Shadern" zurückgreifen zu müssen.
Wieso "Uber-Shader"? He? Zusammenhang?

Das mit getrenntem Scheduler geht auch nur, wenn man die Vertexarbeit dupliziert. Und das heißt bei D3D11 Domain/Tesselation/Hull und Geometry. Das ganze funktionierte schon bei Crossfire nicht mit der Kachel-Aufteilung.

V2.0
2009-07-22, 07:46:18
Es ist äußerst unwahrscheinlich, dass NV eine GT200+DX11 abliefern wird. Dafür wissen sie sleber viel zu gut um die Kompromisse die sie gemacht haben.

Gast
2009-07-22, 09:28:53
Ich sehe, dass AMD zu Zeiten des R520 eine High-End-Single-GPU-Karte für >500 Euro an den Mann gebracht hat. Ich sehe auch, dass das der Plan mit R600 war, der aus verschiedenen Gründen (Prozess-Probleme, Metal-Layer-Bug, unerwartet starker G80) in die Hose gegangen ist.

Ich sehe auch, dass AMD jetzt keine Single-GPU-Karte im Angebot hat, von denen es keine Modelle im Bereich von 150 Euro gibt, trotz großer Speicherausstattung, trotz GDDR5, trotz aufwendiger Kühllösung und trotz eines Dies, welches lediglich ~20% kleiner als das der 500-Euro-R520 ist.

Klingt nach einer wirklich famosen Entscheidung.



Hast du das wirklich nötig?

Noch dazu:
"While we increased cash, exceeded our revenue plan and reduced operating expenses in the second quarter, gross margin was disappointing,” said Dirk Meyer, AMD president and CEO."

Wohl auch eine Folge der extrem niedrigen Verkaufspreise von eigentlich High-End-Grafikkarten.

Gast
2009-07-22, 09:33:48
Nun, das ist meiner Meinung nach immer noch halbwegs wahrscheinlich. Irgendwo ein paar Gimmicks für ein paar Spezialfälle und ansonsten 16 x 4 x 8 Shader (statt 10 x 3 x 8 bei GT200). Vielleicht werden die TPCs unabhängiger voneinander, vielleicht wird der Rasterizer etwas aufgebohrt (was Du ja ständig andeutest), aber ein wirklich umwerfend neues Blockdiagramm wird da am Ende wohl nicht rauskommen. Das man trotz der nur moderat gestiegenen Transistorzahl (ja, 1,4 -> 2,4 Milliarden nenne ich eine moderate Steigerung bei potentiellen 50% Flächenskalierung durch einen neuen Prozeß) kein kleineres Die erreicht, liegt wahrscheinlich am weiterhin 512Bit breitem Speicherinterface.
Nvidia wird in Deffered-Shading-Engines, die nicht NVAPI nutzen, bereits durch die Unterstützung von 10.1 profitieren. Erinnnerst du dich an Ass. Creed mit ohne dem fiesen Patch? ~20% Performance. HAWX, Battleforge etc. mit SSAO? Bringt auch einiges. Stalker: CS ohne fiesen Patch ebenso.

Und das ganze ohne weitere "optimierungen" seitens Nv.

Und warum soll ATIs 180mm² eigentlich maximal 800 ALUs besitzen? Ich halte ein paar mehr für nicht so unwahrscheinlich. Bei RV770 nehmen die Shader mitsamt TMUs nur etwa 40% der Fläche ein. Vergleicht man unter Berücksichtigung des schmaleren Speicherinterfaces und der 20% geringeren Anzahl von SIMDs/TMUs RV770 mit RV740, so komme ich auf ein Scaling von 57% (nimmt man RV790 als Basis sogar exakt auf die rechnerischen 52%) für den Schritt 55nm->40nm. Damit kosten zusätzliche 320 ALUs mitsamt den TMUs höchstens 30mm² in 40nm. Falls man an den TMUs etwas sparen sollte oder die Einheiten dichter packt (wie bei RV670->RV770), noch deutlich weniger.
137 + 30 = 167 mm²
Glaubst Du für das bißchen Tesselator und den 32kB Local DataShare (statt 16kB jetzt) gehen mehr als 13mm² drauf? Die zusätzlichen Shadertypen werden doch hauptsächlich vom Scheduler (Ultra Threaded Dispatch Processor) erschlagen und kosten kaum was. Irgendwo noch einen kleinen Buffer dafür schaffen und gut ist.
Ein bißchen mehr ist DirectX 11 schon: Die TMUs müssen überarbeitet werden, um zusätzliche Kompressionsformate zu unterstützten, die TLS/LDS/whatever benötigen quasi wahlfreien Zugriff - das kostet zwar keine Logik, aber Leitungsdichte.

LovesuckZ
2009-07-22, 09:52:28
Noch dazu:
"While we increased cash, exceeded our revenue plan and reduced operating expenses in the second quarter, gross margin was disappointing,” said Dirk Meyer, AMD president and CEO."

Wohl auch eine Folge der extrem niedrigen Verkaufspreise von eigentlich High-End-Grafikkarten.

Das dürfte auch niemanden überraschen. Man verkauft ca. 270mm^2 mit der ganzen Infrastruktur für 80€ - der billigste Phenom in der Box-Ausführung kostet 64. AMD's High-End CPU ist teurer als ihre beste Single-GPU Konfiguration!
Viel lässt sich zur Zeit mit den grafikkarten also garnicht mehr verdienen, da weder die Marge noch der Absatz da ist.

Gast
2009-07-22, 10:05:38
Das dürfte auch niemanden überraschen.
Lies die Postings von nagus und Co.. Die sind ja der Meinung, dass es eine höchst erfolgreiche Strategie ist, High-End aufggeben zu haben

Gast
2009-07-22, 10:26:29
Lies die Postings von nagus und Co..
Wie kommt es, das nagus damit durchkommt? Alleine sein Avatar verhöhnt klar sein Feindbild, sachliche Diskussionen sind nahezu ausgeschlossen, bei so einer Basis.

Gast
2009-07-22, 10:34:53
Wohl auch eine Folge der extrem niedrigen Verkaufspreise von eigentlich High-End-Grafikkarten.Dazu passt das gut:
AMD mit elftem Verlustquartal in Folge (http://www.computerbase.de/news/wirtschaft/unternehmen/amd/2009/juli/amd_verlustquartal_folge/)

Nach aktueller Preislage wird sich daran auch in Zukunft nichts ändern.
Die HD4 sind bereits so billig, das auch eine HD5 nichts reissen kann.
Bei den CPUs steht man auch nicht rosig da, das Topmodell unter 200€, aber immerhin macht man noch überhaupt Gewinn mit dem Verkauf.

Am Schluss bleibt die Frage: Hat es AMD etwas gebracht, den Markt mit den Preisen zu beeindrucken?
Sind die Marktanteile in die Höhe geschnellt, besonders bei Grafikkarten?


Auf jeden Fall beweisst dies, das AMD nicht kurz vorm Untergang steht und deshalb nicht den Underdog Bonus verdient!
AMD geht nicht so schnell unter. Normale Unternehmen sind bei solchen Ergebnissen schon 10mal pleite, also lasst die Gefühlsträne mal stecken.
Insgeheim hege ich den Verdacht, das es sich hier um ein Steuersparmodell handelt: Immer schön Verluste erwirtschaften.

Gast
2009-07-22, 10:43:54
Viel lässt sich zur Zeit mit den grafikkarten also garnicht mehr verdienen, da weder die Marge noch der Absatz da ist.

Aber immernoch mehr wie mit den CPUs

http://www.computerbase.de/news/wirtschaft/unternehmen/amd/2009/juli/amd_verlustquartal_folge/

Gast
2009-07-22, 13:12:06
Aber immernoch mehr wie mit den CPUs

http://www.computerbase.de/news/wirtschaft/unternehmen/amd/2009/juli/amd_verlustquartal_folge/

Kaum:
"Enttäuschend ist die Entwicklung der Bruttogewinnmarge. Sie fiel von 43 Prozent (Q1/2009) auf nun 37 Prozent. Beide Zahlen beinhalten Sondereffekte durch den Verkauf abgeschriebenen Inventars (Q1: 5 Prozentpunkte, Q2: 8 Prozentpunkte). Die Sparte der Mikroprozessoren musste dabei einen Umsatz-Verlust von 17 Prozent gegenüber dem Vorjahresquartal hinnehmen, der GPU-Bereich stieg um 1 Prozent. "
http://www.pcgameshardware.de/aid,690662/AMD-Q2/2009-Verluste-verringert-Enttaeuschung-an-der-Boerse/CPU/News/

Dass bei wachsendem Marktanteil der Umsatz zulegt ist ja logisch - aber nur um 1 Prozent? Und Verlust macht die GPU-Sparte auch noch.

Tarkin
2009-07-22, 13:30:35
Kaum:
"Enttäuschend ist die Entwicklung der Bruttogewinnmarge. Sie fiel von 43 Prozent (Q1/2009) auf nun 37 Prozent. Beide Zahlen beinhalten Sondereffekte durch den Verkauf abgeschriebenen Inventars (Q1: 5 Prozentpunkte, Q2: 8 Prozentpunkte). Die Sparte der Mikroprozessoren musste dabei einen Umsatz-Verlust von 17 Prozent gegenüber dem Vorjahresquartal hinnehmen, der GPU-Bereich stieg um 1 Prozent. "
http://www.pcgameshardware.de/aid,690662/AMD-Q2/2009-Verluste-verringert-Enttaeuschung-an-der-Boerse/CPU/News/

Dass bei wachsendem Marktanteil der Umsatz zulegt ist ja logisch - aber nur um 1 Prozent? Und Verlust macht die GPU-Sparte auch noch.

Hm.. liegt vielleicht daran, dass im letzte Jahr noch keine bzw. nur geringe Auswirkungen der Wirtschaftskrise am Markt für GPUs und CPUs zu spüren waren? :rolleyes:

Die Krise hat erst im Q4 2008 so richtig reingehaun....

Ich finde das Ergebnis der Sparte Grafik jetzt nicht so wahnsinnig schlecht... dafür, dass die Preise derart im Keller sind! Und bei rund 250 Mio Dollar Umsatz "nur" einen relativ kleinen Verlust einzufahren ist nicht schlecht. Wenn im Q3 die neuen kommen, ist da vermutlich wieder ein schöner Gewinn drinnen.

LovesuckZ
2009-07-22, 13:47:33
Komisch, dabei dachte ich, gehören die Kellerpreise zur Marktstrategie von AMD. :lol:

Gast
2009-07-22, 14:00:04
Wenn im Q3 die neuen kommen, ist da vermutlich wieder ein schöner Gewinn drinnen.
Klar, so wie HD3 und HD4 den Gewinn in die Höhe getrieben haben.

Die Preise sind im Keller, auch dank AMDs Strategie. AMD kann diese Strategie gar nicht auf morgen ändern, diese Strategie wird den Gewinn durch HD5 erheblich schmälern, sofern es denn ein Gewinn geben wird.
AMD kann nicht mal eben zig fach mehr für HD5s verlangen, die Produktion wird auch nicht billiger.

deekey777
2009-07-22, 14:01:52
Und jetzt kommen wir zum Thema RV870 zurück, sprich keine Finanzen, keine Quartalsergebnisse usw.

Gipsel
2009-07-22, 16:47:45
Es gibt nur 32 Interpolatoren.
Die aber physisch nicht in den TMUs sitzen ;)

Wieso "Uber-Shader"? He? Zusammenhang?

Das mit getrenntem Scheduler geht auch nur, wenn man die Vertexarbeit dupliziert. Und das heißt bei D3D11 Domain/Tesselation/Hull und Geometry. Das ganze funktionierte schon bei Crossfire nicht mit der Kachel-Aufteilung.
Nun, wieviele Shader eines Typs können nochmal gleichzeitig aktiv sein? Wie sieht es mit der Skalierung zu einer größeren Anzahl von Einheiten aus, wenn in einigen Situationen vielleicht gar nicht genügend Threads vorhanden sind, um die Einheiten auszulasten?
Ich habe eigentlich nicht an eine Aufteilung in Kacheln gedacht, sondern eher an Batches. Vor allem kleinere Batches mit weniger als mehreren tausend Dreiecken/Pixeln würden davon profitieren. Momentan wird ja eher versucht sowas zu meiden wie der Teufel das Weihwasser.

Gipsel
2009-07-22, 17:37:12
Ein bißchen mehr ist DirectX 11 schon: Die TMUs müssen überarbeitet werden, um zusätzliche Kompressionsformate zu unterstützten, die TLS/LDS/whatever benötigen quasi wahlfreien Zugriff - das kostet zwar keine Logik, aber Leitungsdichte.
Die Textur-Formate kosten vielleicht 1mm². Außerdem ist es noch nicht mal Pflicht, die in Hardware zu implementieren ;)

Und wie man auf den Local Data Share zugreifen kann, ist momentan ziemlich frei auswählbar. Der wahlfreie Zugriff ist übrigens auch jetzt schon bei den RV7xx möglich ;)
Local data share (LDS) memory has two sharing modes: wavefront relative or absolute. Relative means each wavefront has its private LDS memory. Absolute means all wavefronts share the same piece of LDS memory.
[..]
Different from the access model for threads within a wavefront, the access mode for different wavefronts (within a thread group) is specified by the sharing mode, which is either relative or absolute. If it is relative, new and consecutive space is allocated for each wavefront; if it is absolute, all wavefronts are mapped to the same set of memory starting at address 0. In this mode, wavefronts can overwrite each other's data.
[..]
[Access model of LDS for threads:]
In owner-computes, each thread in a thread group owns an area of LDS memory. The size of the area is declared in the shader. Each thread in a thread group can write only to the area of memory it owns; however, a thread can read any chunk of memory that is owned by either itself or other threads.
[..]
The second memory model is a general read write: each thread can read or write any address in the LDS.

Coda
2009-07-22, 17:40:07
Außerdem ist es noch nicht mal Pflicht, die in Hardware zu implementieren ;)
So ein Blödsinn. Natürlich muss man die in Hardware implementieren. Willst du die FP-Kompressionsformate irgendwie auch nur annähernd effizient im Shader entpacken und dann auch noch AF emulieren? Is klar...

Die aber physisch nicht in den TMUs sitzen ;)
Er sprach davon, dass nicht in jedem Fall immer alle operativ sind, was stimmt. Wenn man nur Single-Texturing macht bei irgendwelchen Spezial-Passes, dann werden die TMUs nicht ausreichend mit interpolierten Werten versorgt.

Nun, wieviele Shader eines Typs können nochmal gleichzeitig aktiv sein? Wie sieht es mit der Skalierung zu einer größeren Anzahl von Einheiten aus, wenn in einigen Situationen vielleicht gar nicht genügend Threads vorhanden sind, um die Einheiten auszulasten?
Daran kann doch ATI nichts ändern. Uber-Shader müssen die Entwickler machen. Ich verstehe aber nach wie vor nicht was das mit der Skalierungsfähigkeiten eines solchen Multi-GPU-Setups zu tun hat.

Ich gehe stark davon aus, dass ab G80 und R600 mehrere Batches auf einmal in der Pipeline sein können.

Ich habe eigentlich nicht an eine Aufteilung in Kacheln gedacht, sondern eher an Batches. Vor allem kleinere Batches mit weniger als mehreren tausend Dreiecken/Pixeln würden davon profitieren. Momentan wird ja eher versucht sowas zu meiden wie der Teufel das Weihwasser.
Ahja, und wie stellst du dann die richtige Renderreihenfolge sicher? Die wird von der D3D-Spezifikation gewährleistet und ist bei Blending auch immer Vorraussetzung dafür dass es korrekt funktioniert. Ganz abgesehen davon, dass die ATI-Chips vor dem Speicher einen Cache haben zwischen denen man dann auch dauernd die Kohärenz bei solchen Dingen gewährleisten muss.

Gast
2009-07-22, 17:59:23
nVidia als erster mit DX11-GPUs ?

http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx

Gipsel
2009-07-22, 18:02:49
So ein Blödsinn. Natürlich muss man die in Hardware implementieren. Willst du die FP-Kompressionsformate irgendwie auch nur annähernd effizient im Shader entpacken und dann auch noch AF emulieren?Nein. Der Treiber entpackt die und legt sie unkomprimiert in den GraKa-Ram.
Ich gehe stark davon aus, dass ab G80 und R600 mehrere Batches auf einmal in der Pipeline sein können.
Woraus sich direkt Deine Frage ergibt:
Ahja, und wie stellst du dann die richtige Renderreihenfolge sicher?Soweit ich weiß, ist das nämlich bisher gerade nicht so.

Coda
2009-07-22, 18:09:33
Aber klar ist das so. Sonst würde Blending ja nicht funktionieren. Oder render einfach mal was mit Z-Test deaktiviert.

Nein. Der Treiber entpackt die und legt sie unkomprimiert in den GraKa-Ram.
Ich würde mal sagen, dass das ziemliche Verarsche wäre. Für den Kunden und vor allem für die Entwickler. Das wird in Hardware implementiert, da kannst du dir sicher sein.

Und überhaupt bin ich mir nicht mal so sicher, ob das überhaupt immer funktioniert. Man schreibt ja direkt ins VRAM über Map/Unmap. Wobei man das natürlich unschön irgendwie abfangen kann mit einem Zwischenbuffer.

LovesuckZ
2009-07-22, 18:25:14
nVidia als erster mit DX11-GPUs ?

http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx

Das wird zu genau 0% eintreffen.
Wobei man sagen muss, es hätte schon etwas: AMD pusht D3D11 und betont wiederholt, dass man vor der Konkurrenz erscheine.

reunion
2009-07-22, 18:34:25
Der Artikel ist vom 8. Mai.

Captain Future
2009-07-22, 22:48:05
Nein. Der Treiber entpackt die und legt sie unkomprimiert in den GraKa-Ram.

Und zerbläst durch die bis zu 7-fache Größe jede Chance, die TEX-Caches noch irgendwie sinnvoll zu nutzen.
Ich glaub da wie Coda. Texturkrams war bisher noch immer in Hardware.

Coda
2009-07-22, 23:34:36
Nicht ganz. NVIDIA hat damals BC5 (aka ATI 3Dc) tatsächlich entpackt. Aber das war dann weitaus kleiner.

Nightspider
2009-07-23, 00:14:40
Gibts schon irgendwelche Hinfweise bezüglich den Names "Evergreen" ?

Haben die neuen Karten vielleicht einen sehr guten neuen Stromsparmodus ?

Gipsel
2009-07-23, 00:55:45
Aber klar ist das so.
Ich glaube, mein Argument kam nicht richtig rüber. Entweder, das Problem mit der Renderreihenfolge ist jetzt schon gelöst (und damit kein Problem) oder es können nicht zwei Batches gleichzeitig auf der GPU bearbeitet werden. Eines von beiden geht nur ;)

Coda
2009-07-23, 00:57:10
Ich glaube, mein Argument kam nicht richtig rüber. Entweder, das Problem mit der Renderreihenfolge ist jetzt schon gelöst (und damit kein Problem) oder es können nicht zwei Batches gleichzeitig auf der GPU bearbeitet werden. Eines von beiden geht nur ;)
Okay, das mit mehreren Batches war Quatsch. Hab nochmal darüber nachgedacht. Allerdings ergibt sich die Anzahld er Threads ja direkt aus dem derzeitigen Geometrie/Raster-Workload, ich sehe nicht ein, warum das jemals zu wenig Threads erzeugen sollte.

Die GPUs können auch gleichzeitig an mehreren Polygonen arbeiten, da wird dann über Scoreboarding die Reihenfolge sichergestellt. Aber das ist black magic ;)

Große Bubbles zwischen den States werden wohl auch nicht entstehen, man tauscht die Programme und gut is.

Gipsel
2009-07-23, 01:00:53
Hrm nein, wieso? Du kannst ja den State in den entsprechenden Einheiten dann wechseln wenn du zu den Polygonen/Geometriedaten gehören die zu demjenigen gehören.
Dann kannst Du es aber auch auf verschiedene "Kerne" verteilen.

Gipsel
2009-07-23, 01:05:28
Okay, das mit mehreren Batches war Quatsch. Hab nochmal darüber nachgedacht. Allerdings ergibt sich die Anzahld er Threads ja direkt aus dem derzeitigen Geometrie/Raster-Workload, ich sehe nicht ein, warum das jemals zu wenig Threads erzeugen sollte.

Große Bubbles zwischen den States werden wohl auch nicht entstehen, man tauscht die Programme und gut is.
State Changes sind teuer. Gerade deswegen versucht man ja, möglichst große Batches zu basteln. Wenn man das vermindern könnte, wäre das schon was wert und man könnte tendenziell auf etwas kleinere, spezialisiertere und damit resourcenschonendere (schnellere) Shader zurückgreifen. In Verbindung mit dem in DX11 hinzukommendem Dynamic Shader Linking könnte das durchaus interessant sein.
Aber wie gesagt, war eine wilde Spekulation und ich habe im Moment auch keine Idee, wie man die entstehenden Probleme lösen würde.

PS:
Anzahl der Threads
Auf ATIs benötigt man mindestens 8 mal soviele Threads wie Einheiten, um überhaupt die ALUs ansatzweise auslasten zu können (jede Instruktion hat 8 Takte Latenz, die mit anderen Threads aufgefüllt werden wollen). Kommen noch Texturzugriffe dazu (~200 Takte), darf man das nochmal locker mal 10 bis 20 nehmen. Da kommen sehr schnell sehr viele Threads zusammen. Bei kleinen Batches kann das schon eng werden. Bei nvidia sieht das auch nicht besser aus da dort jede Instruktion über 20 Takte Latenz hat (wahrscheinlich ~24, im Gegensatz zu ATI gibt es keine harten Zahlen). Und da ist dann noch nicht mal der Overhead durch die state changes berücksichtigt. Unter einigen Zehntausend Threads (bei kurzen Shadern braucht man eher noch mehr) hat man sehr deutliche Performanceverluste.

mapel110
2009-07-23, 01:13:09
Haben die neuen Karten vielleicht einen sehr guten neuen Stromsparmodus ?
Also ich bin eher skeptisch, was ATI und Strom sparen angeht. Da sitzt die Enttäuschung über den Idle-Verbrauch der brandneuen 4770 zu tief. Ich glaube, das hat bei ATI keine Priorität.

Coda
2009-07-23, 01:17:04
Dann kannst Du es aber auch auf verschiedene "Kerne" verteilen.
Siehe Edit. Das war Quatsch.

Die Diskussion führt zu nichts. Das was du vorschlägst wurde schon probiert (3DLabs Realizm) und hat da auch nur sehr schlecht funktioniert.

Überhaupt bist du noch nicht darauf eingegangen wie du das mit der Cache-Kohärenz lösen willst. Die Latenzen wären wohl ziemlich böse.

State Changes sind teuer.
So unglaublich teuer dann auch wieder nicht. Das Hauptproblem ist, dass jeder State-Change auch einen neuen Batch in der API erzeugt, nicht das Umschalten auf dem Chip.

Ich sage nicht, dass es nicht funktionieren kann mit Multi-Chip, nur glaube ich nicht, dass es eine bekannte Idee ist, die dieses Problem wirklich elegant lösen kann. Evtl. hat ATI sie ja gehabt.

Gipsel
2009-07-23, 01:44:20
Das was du vorschlägst wurde schon probiert (3DLabs Realizm) und hat da auch nur sehr schlecht funktioniert.
[..]
Ich sage nicht, dass es nicht funktionieren kann mit Multi-Chip, nur glaube ich nicht, dass es eine bekannte Idee ist, die dieses Problem wirklich elegant lösen kann. Evtl. hat ATI sie ja gehabt.
Das mit dem 3DLabs Realizm (http://www.anandtech.com/video/showdoc.aspx?i=2383&p=2) ist irgendwie an mir vorbeigegangen. Danke für den Hinweis!

Wie schon gesagt war das eine wilde Idee, wie man vielleicht ein wenig Sinn in diese "native dual core" Gerüchte bringen könnte. Daß da einige Probleme existieren, ist mir durchaus klar.

AnarchX
2009-07-23, 10:10:29
ATI to launch DirectX 11 GPUs in seven weeks (http://www.brightsideofnews.com/news/2009/7/22/ati-to-launch-directx-11-gpus-in-seven-weeks.aspx)

http://img100.imageshack.us/img100/9999/amdatidirectx11675.jpg


D3D11-Notebooks sollen im H1 2010 verfügbar sein:
http://www.xbitlabs.com/news/video/display/20090722155600_ATI_Expects_DirectX_11_Graphics_Lineup_to_Ramp_Up_Fast.html

igg
2009-07-23, 10:22:13
Wenn das zutrifft machen die ja ganz schön Druck, da sollte NV schwer dran zu knabbern haben. <offtopic>Und Cedar sieht irgendwi eklig aus.</offtopic>

reunion
2009-07-23, 10:22:15
Da geht die Post ab. Scheinen wohl gleich mehrere Chips im September zu kommen. Wenn sich das bewahrheitet und man auch anständige Stückzahlen liefern kann wäre das für ATi natürlich Gold wert:

ATI will catapult not one, but rather a complete DirectX 11 line-up into the orbit, ranging from $50 to the high end parts in their respective three-figure pricing brackets. [...] Some parts might have to wait until Holiday season to get them in OEM-level numbers, but all in all - this is the strongest line-up ATI had in years. We might even dare to say strongest line-up ever from any GPU manufacturer.

According to information we have at hand, initial rumors about the names and specs proved true - these parts bring DirectX 11 compliancy from top to the bottom, and if you want to play upcoming DirectX 11 games [so far, there are six confirmed DX11 titles launching this year] in a budget less than $500, you have no other choice but to go ATI.

D3D11-Notebooks sollen im H1 2011 verfügbar sein:
http://www.xbitlabs.com/news/video/display/20090722155600_ATI_Expects_DirectX_11_Graphics_Lineup_to_Ramp_Up_Fast.html

2010.

V2.0
2009-07-23, 10:33:09
Bemerkenswert ist dass sich die Codenamen wohl auf Karten und nicht Chips beziehen.

LovesuckZ
2009-07-23, 10:44:52
Hoffentlich sind es nicht die Namen der Karten.
Aber endlich kommt Bewegung in die Sache. Der ganze Markt ist zum Teil ziemlich langweilig seit einem Jahr.

_flx
2009-07-23, 11:25:43
Hoffentlich sind es nicht die Namen der Karten.
Aber endlich kommt Bewegung in die Sache. Der ganze Markt ist zum Teil ziemlich langweilig seit einem Jahr.

omg das ich das noch erleben darf:

Ich stimme dir 100% zu :cool:

Gast
2009-07-23, 11:35:14
2010.
Da steht 2011 im Vortext. Welches von beiden ist der vertipper?

Franzmann-Jan
2009-07-23, 11:41:49
Haben diese Codenamen eine bis jetzt noch nicht häher erläuterte Bedeutung? Oder sind dies Spuren von der Muttergesellschaft AMD?

reunion
2009-07-23, 11:47:26
Haben diese Codenamen eine bis jetzt noch nicht häher erläuterte Bedeutung? Oder sind dies Spuren von der Muttergesellschaft AMD?


"When it comes to codenames, you'll notice that all of these parts have codenames from plants, with some belonging into the same family [Cedar, Juniper, Redwood]"

Dürfte von AMD stammen, dort ist es üblich Codenamen statt Zahlen zu nehmen.

Da steht 2011 im Vortext. Welches von beiden ist der vertipper?

Im Text steht zweimal 2010, außerdem wäre 2011 viel zu spät.

CrazyIvan
2009-07-23, 12:14:30
"Green" ist doch angesagt. Was läge da näher, als die kommenden Wattmonster aus eigenem Hause mit Pflanzennamen zu schmücken ;)

BTT:
Hinsichtlich PowerPlay. Weiter vorn im Thread gab es mal eine Aussage seitens AMD, dass man mit PP 3.0 den Stromverbrauch nochmal deutlich verbessert hätte. Allerdings sagte man das von 2.0 auch schon, daher bleibe ich da auch erstmal skeptisch - jedoch hoffnungsvoll.

Gast
2009-07-23, 12:15:29
Ich bin mal auf die Verfügbarkeit gespannt, wenn denn der Launch so eintreten sollte. Ich bin da noch skeptisch, sollten sich die Yields in letzter Zeit so arg verbessert haben ? wäre ja zu hoffen, wie LS schon ganz richtig sagt

HPVD
2009-07-23, 13:30:32
....
Hinsichtlich PowerPlay. Weiter vorn im Thread gab es mal eine Aussage seitens AMD, dass man mit PP 3.0 den Stromverbrauch nochmal deutlich verbessert hätte. Allerdings sagte man das von 2.0 auch schon, daher bleibe ich da auch erstmal skeptisch - jedoch hoffnungsvoll.

vielleicht war ja das PP2.0 wirklich einfach z.T. defekt.
Wenn dieser Teil nun wieder funktioniert und zusätzlich neue Sparfeatures in PP 3.0 hinzu kommen, könnte man mit einer deutlichen Einsparung rechnen.
Die Hoffung stirbt zuletzt :smile:

AnarchX
2009-07-23, 13:32:18
Bei PP3.0 wird die Herausforderung sein, dass man den GDDR5 endlich unter Kontrolle bekommt. Denn dessen Verhalten bei Taktsenkung und der Einfluss auf den IMC in der GPU ist das momentane Problem.

HPVD
2009-07-23, 13:43:28
Bei PP3.0 wird die Herausforderung sein, dass man den GDDR5 endlich unter Kontrolle bekommt. Denn dessen Verhalten bei Taktsenkung und der Einfluss auf den IMC in der GPU ist das momentane Problem.

jupp und genau dafür hatten sie ja jetzt genug zeit um mit GDDR 5 erfahrungen zu sammeln.
Ist nur eine Frage wieviel Motivation sie denn ins Stromsparen stecken...

Gruß HPVD

V2.0
2009-07-23, 13:49:48
Es ist ne Frage des Gesamtkonzepts. Auch Stromsparfeatures kosten Transistoren.

Gast
2009-07-23, 15:03:50
Und Softwarearbeit.

Softwarearbeit, die man bei der 4870 X2 spendiert hat.

The_Silent_One
2009-07-23, 17:22:10
Mal angenommen, Juniper besteht aus zwei Dice (Redwood und Cedar aus je einem) mit je 128 bit SI (die Breite sei mal egal):

Ist es denkbar, dass PP3.0 dann einen der Dice abschaltet sowie den RAM, der daran hängt? Zusammen mit einer Takt- und Spannungsabsenkung des übrigen Dies und RAMs wäre doch dann ein guter Stromsparmodus geschaffen oder?

HPVD
2009-07-23, 17:36:06
so hatte ich mir das auch schon bei Dual und Quadcore-Prozessoren vorgestellt. Aber aus einem mir nicht bekannten Grund (mangelndes Knowhow auf dem Gebiet) wird das so meines wissens nicht praktiziert.
Sonst dürfte ja der idle verbrauch eines Quadcores nicht größer sein als der eines Dualcores bzw als der eines Single Cores....

Gruß HPVD

Blaire
2009-07-23, 19:12:16
[URL="http://www.brightsideofnews.com/news/2009/7/22/ati-to-launch-directx-11-gpus-in-seven-weeks.aspx"]ATI to launch DirectX 11 GPUs in seven weeks

Paperlaunch ganz sicher, aber den Zweck Nvidia unter Druck zu setzen erfüllt das allemal. So wird NV gezwungen ihre Karten auch früher vorstellen zu müssen, mit breiterer Verfügbarkeit dann im November schätz ich mal. :)

reunion
2009-07-23, 19:17:12
Paperlaunch ganz sicher, aber den Zweck Nvidia unter Druck zu setzen erfüllt das allemal. So wird NV gezwungen ihre Karten auch früher vorstellen zu müssen, mit breiterer Verfügbarkeit dann im November schätz ich mal. :)

Paperlaunch ganz sicher. Die Kugel muss man haben.

horn 12
2009-07-23, 20:01:28
Sicherlich nicht, das hätte man dann schon früher gemacht, 8 August oder in der Richtung, denke die VERFÜGBARKEIT ist gegeben, aber nicht alzugroß!
Ab WIN 7 Release dann erheblich besser...

desert
2009-07-23, 23:16:32
Paperlaunch ganz sicher. Die Kugel muss man haben.

weil 40 nm so extrem gut geht, das alternate und mindfactory heute nicht eine enzige 4770 lieberbar haben und auch nicht wissen wann die nächsten kommen?

Und kommt bitte nicht immer mit irgendwelchen obskuren geizhals links die angeblich welche auf lager haben.

Ich weiss die haben alles umgestellt und produzieren die reinsten massen damit der markt im september überflutet wird mit 40 nm ati dx 11 grafikkarten.

Selbst bei der 4770 hat tsmc es nicht hinbekommen lieferbare mengen abzuliefern, und jetzt soll es einer neuen architektur nur so flutschen?

Wer es glauben will.

Hat ati nicht eigentlich immer paperlaunches hingelegt bei den letzten architekturen? So wir veröffentlichen die specs und ihr ein paar benchmarks aber vorgestellt wird sie erst später.

Thunder99
2009-07-24, 00:16:05
Ich meine der RV770 war ein Hardlaunch

derguru
2009-07-24, 00:27:58
und wenn sie ein paperlaunch hingelegen würden,und?ich würde es sogar begrüßen wenn z.b. im august,september es zum paperlaunch kommt aber dann im oktober eine dx11 karte in meinem rechner steckt,hätte ich kein problem mit:biggrin:

reunion
2009-07-24, 10:30:30
weil 40 nm so extrem gut geht, das alternate und mindfactory heute nicht eine enzige 4770 lieberbar haben und auch nicht wissen wann die nächsten kommen?

Und kommt bitte nicht immer mit irgendwelchen obskuren geizhals links die angeblich welche auf lager haben.

Ich weiss die haben alles umgestellt und produzieren die reinsten massen damit der markt im september überflutet wird mit 40 nm ati dx 11 grafikkarten.

Selbst bei der 4770 hat tsmc es nicht hinbekommen lieferbare mengen abzuliefern, und jetzt soll es einer neuen architektur nur so flutschen?

Wer es glauben will.

Hat ati nicht eigentlich immer paperlaunches hingelegt bei den letzten architekturen? So wir veröffentlichen die specs und ihr ein paar benchmarks aber vorgestellt wird sie erst später.

Zumindest sollte man nicht etwas als Fakt hinstellen von dem man keine Ahnung hat. Die Liefermenge der 4770-Karten ist gering, keine Frage. Nur vielleicht hat man die vorhandenen 40nm Kapazitäten für die wichtigeren DX11-Chips verwendet. Auch soll es im zweiten Halbjahr in 40nm deutlich mehr Kapazitäten geben. Und zu deinen letzten Absatz: Einfach irgend etwas in dem Raum zu stellen ist schon ziemlich billig. RV770 war ein Hardlaunch, RV670 war ein Hardlaunch. Das die Liefermengen zu beginn immer etwas geringer sind liegt in der Natur der Sache. Das ist auch bei NV nicht anders.

AnarchX
2009-07-24, 10:35:15
AMD und Nvidia wären wohl gut beraten, wenn sie ein paar Chips auch bei UMC fertigen, denn die 40nm Kapazitäten dürften bei der Fertigung von GT21x, RV8xx und GT300 wohl etwas knapp werden, gerade wenn die Yields immernoch nicht auf dem Niveau von 55nm sind.

Gast
2009-07-24, 10:36:41
Ich meine der RV770 war ein Hardlaunch
Es waren auch nur 2 Karten zu Beginn:
4850 512 und 4870 512

4870 1024 folgte anschließend als Paperlaunch.


Aber dies ist nicht mit heute vergleichbar, 55nm wurden schon lange vorher erfolgreich eingesetzt.

Gast
2009-07-24, 10:38:45
Jetzt gibts mehr Probleme:
grottige 40nm Yield
begrenzte 40nm Kapazität
größere GPUs als RV740
knapper GDDR5 in der gewünschten Geschwindigkeit

igg
2009-07-24, 10:55:52
Ich denke sie opfern die 40 nm Chips der RV770 Generation zugunsten der Nachfolger.

Gast
2009-07-24, 12:49:37
Heise nennt sogar explizit den 10. September http://www.heise.de/newsticker/Grafik-Geruechte-AMD-enthuellt-die-DirectX-11-GPUs-schon-im-September--/meldung/142478

Ailuros
2009-07-24, 14:51:39
AMD groesster Vorteil insgesamt mit der X11 Generation duerften zweifellos die OEM/Schlepptopp deals sein die sie IMHO im H1 2010 landen werden; dagegen hat NV natuerlich keine anstaendige Antwort.

V2.0
2009-07-24, 15:18:56
Auch der Desktopmarkt dürfte klar an AMD gehen. Außerhalb der Enthusiastbereichs dürfte NV nackt sein. Performance, Mainstream alles AMD.

LovesuckZ
2009-07-24, 15:24:04
Lustig, dabei ist der High-End Bereich der, der den meisten Impact hat. Performance, Mainstream bringt keinen Mehrwert - beweisen AMD und nVidia jedes viertel Jahr auf's neue.

AMD groesster Vorteil insgesamt mit der X11 Generation duerften zweifellos die OEM/Schlepptopp deals sein die sie IMHO im H1 2010 landen werden; dagegen hat NV natuerlich keine anstaendige Antwort.

D3D11 Mobile soll im ersten Halbjahr 2010 kommen. Wenn vom Halbjahr spricht, wird es wohl frühsten zur Cebit eingeführt. Sollte nVidia in diesem Jahr mit High-End kommen, dann werden sie spätesten im April ihre Mid-Range Produkte bringen und somit auch D3D11 im Mobile-Sektor vertreten haben.
Was mich an der Aussage stutzig macht, ist die lange Verzögerung. Wieso bringt AMD nicht in sieben Wochen die Karten in den Mobile-Markt, wenn man doch eine ganze Produktfamily launcht? Höhrere Margen, Paperlaunches etc. sprechen doch eindeutig für eine Bevorzugung dieser Bereiches...

V2.0
2009-07-24, 15:29:45
Es gibt nun mal Eigenschaften, die für den Mobilmarkt hinderlich sind. Ich sehe aber im OEM Desktop-Bereich erheblich Potential für AMD.

Auf der anderen Seite wurde der Perfromance-Chip der GT21X Serie gestrichen und man kann sicher sagen, dass die Leute in der Zwischenzeit nicht untätig waren.

LovesuckZ
2009-07-24, 15:34:09
Es gibt nun mal Eigenschaften, die für den Mobilmarkt hinderlich sind. Ich sehe aber im OEM Desktop-Bereich erheblich Potential für AMD.

Welche? Fakt ist doch, dass man mit mindesten 6 Monate Verzögerung seine D3D11 Produkte in den Mobile-Sektor bringen will - nachdem man angeblich eine ganze Produktfamilie im September einführen möchte. Das ist widersprüchlich, da der Mobile-Sektor am stärksten wächst und wesentlich höhrere Margen erlaubt. Wenn ich irgendwo neue, gewinnbringende Produkte vorstellen würde, dann doch genau hier.

HPVD
2009-07-24, 15:42:29
Was für eine spätere Einführung der Mobilenchips spricht: Weitere Optimierung Richtung Strombedarf erfolgt doch immer erst im laufenden Prozess. Wahrscheinlich sind Sie anfangs einfach nicht sparsam genug.

Aktuelles Beispiel: Phenom X4 3GHz anfangs 125 W jetzt 95W.

Gruß HPVD

Ailuros
2009-07-24, 15:49:27
Auch der Desktopmarkt dürfte klar an AMD gehen. Außerhalb der Enthusiastbereichs dürfte NV nackt sein. Performance, Mainstream alles AMD.

Weil Du zufaelligerweise schon weisst was genau A oder B an Leistung bringen wird? Mir sind solche Schlussvolgerungen einfach nur aus der Luft gezogen tschuldigung.

reunion
2009-07-24, 15:50:02
AMDs Marktanteil im diskreten Mobil-Segment ist fast auf dem gleichen Niveau von NV, wo es hapert ist eben der Desktop. Zumal man hier (gemeint ist das mobil-Segment) mit der HD4-Serie schon sehr gut dasteht. Und ob es NV schafft zügig nächstes Jahr Low- und Midrage DX11-Karten zu bringen ist reine Spekulation. Immerhin kamen gerade erst die DX10.1-Chips. Wann kamen die ersten GF8 für Notebooks? Ev. muss man auch noch auf 32nm warten um die Chips nicht zu groß werden zu lassen.

V2.0
2009-07-24, 15:52:47
Weil Du zufaelligerweise schon weisst was genau A oder B an Leistung bringen wird? Mir sind solche Schlussvolgerungen einfach nur aus der Luft gezogen tschuldigung.

Du weißt doch auch, dass Leistung bei OEM Deals im Mainstreamsegment (und darunter) relativ egal ist, wenn es gerade eine neue Windows Version mit einer neuen DirectX Version gibt.

Um das zu verhindern muss NV schon einen G80 und ATI einen R600 bauen.

Ailuros
2009-07-24, 15:55:09
Wann kamen die ersten GF8 für Notebooks? Ev. wartet man auch noch auf 32nm.

Gluecklicherweise hattest Du noch gerade genug Zeit den zweiten Satz hinzuzufuegen, denn ich haette prompt gefragt auch welchem Herstellungsprozess LOL.

Wieso sollte jeglicher IHV fuer notebook-Zeug auf etwas kleineres als 40nm warten?

reunion
2009-07-24, 15:57:08
Wieso sollte jeglicher IHV fuer notebook-Zeug auf etwas kleineres als 40nm warten?

Weil ein GT300 an die 500mm² fett wird und deshalb ein entsprechender Midragechip ohne kleineren Prozess wohl auch ganz schön dick werden dürfte?

V2.0
2009-07-24, 16:04:10
Weil ein GT300 an die 500mm² fett wird und deshalb ein entsprechender Midragechip ohne kleineren Prozess wohl auch ganz schön dick werden dürfte?

Warum?

Ailuros
2009-07-24, 16:05:45
Du weißt doch auch, dass Leistung bei OEM Deals im Mainstreamsegment (und darunter) relativ egal ist, wenn es gerade eine neue Windows Version mit einer neuen DirectX Version gibt.

Bleiben wir erstmal bei OEM bzw. netbook deal denn ich es ist genau das was ich behaupte; eben dass hier die Feature checkbox Liste am meisten zaehlt.

Um das zu verhindern muss NV schon einen G80 und ATI einen R600.

Garantiert Dir irgend jemand dass es nicht so ist? Oder um es anders auszudruecken wer garantiert Dir momentan dass "G300" nicht ein Mega-FLOP wird und RV870 ein noch groesserer Erfolg als RV770?

Ailuros
2009-07-24, 16:08:56
Weil ein GT300 an die 500mm² fett wird und deshalb ein entsprechender Midragechip ohne kleineren Prozess wohl auch ganz schön dick werden dürfte?

Was ist genau ein midrange chip fuer Dich und "dick" im Vergleich zu was genau? LOL :biggrin:

***edit: um es anders auszudruecken erzaehl mir erstmal mit absoluter Sicherheit wieviele qmm AMD genau braucht um die 495mm2 zu schlagen und dann koennen wir drueber weiterreden...

LovesuckZ
2009-07-24, 16:09:55
Weil ein GT300 an die 500mm² fett wird und deshalb ein entsprechender Midragechip ohne kleineren Prozess wohl auch ganz schön dick werden dürfte?

Ohne zu wissen, wie schnell ein GT300 ist, ist es unsinnig über zukünftige Mid-Range Produkte zu reden. Je schneller, umso kleiner können die Mid-Range Produkte werden, um Leistung X zu erreichen.

V2.0
2009-07-24, 16:15:06
Bleiben wir erstmal bei OEM bzw. netbook deal denn ich es ist genau das was ich behaupte; eben dass hier die Feature checkbox Liste am meisten zaehlt.
Garantiert Dir irgend jemand dass es nicht so ist? Oder um es anders auszudruecken wer garantiert Dir momentan dass "G300" nicht ein Mega-FLOP wird und RV870 ein noch groesserer Erfolg als RV770?

Da wir hier nur spekulieren können, kann man nach Wahrscheinlichkeiten schätzen, und es ist wahrscheinlich, dass AMD eher am Markt ist und die "Checkbox-Feature-Chips" eher liefern kann, ohne dass ihre Generation völlig daneben gegangen ist im Vergleich zur Konkurrenz. Daher dürften sie dort gute Chance haben gute Verkäufe zu erzielen.

Leistungsschätzungen und Vergleiche der kommenden Chips sind gegenwärtig völlig witzlos, da man selbst aus der Anzahl der Transistoren und der Taktung keine Schlüsse ziehen kann, wenn man die Architektur nicht kennt.

reunion
2009-07-24, 16:22:58
Ohne zu wissen, wie schnell ein GT300 ist, ist es unsinnig über zukünftige Mid-Range Produkte zu reden. Je schneller, umso kleiner können die Mid-Range Produkte werden, um Leistung X zu erreichen.

Nur kann man für einen Chip der dann vielleicht nur 1/4 der Leistung eines GT300 bringt schlecht hohe Preise verlangen.

Ailuros
2009-07-24, 16:23:42
Da wir hier nur spekulieren können, kann man nach Wahrscheinlichkeiten schätzen, und es ist wahrscheinlich, dass AMD eher am Markt ist und die "Checkbox-Feature-Chips" eher liefern kann, ohne dass ihre Generation völlig daneben gegangen ist im Vergleich zur Konkurrenz. Daher dürften sie dort gute Chance haben gute Verkäufe zu erzielen.

Ich hab auch nie das Gegenteil behauptet, eher befuerworte ich diesen Standpunkt, aber.....

Leistungsschätzungen und Vergleiche der kommenden Chips sind gegenwärtig völlig witzlos, da man selbst aus der Anzahl der Transistoren und der Taktung keine Schlüsse ziehen kann, wenn man die Architektur nicht kennt.

Der Rest der nach dem obrigen "aber" fehlt ;) Ein jeglicher Erfolg und dessen Massstab von IHV A oder B wird auch zu einem Grad die generellen Verkaufszahlen diktieren.

Gast
2009-07-24, 16:24:07
Welche?
Leistungsaufnahme.

AMD müsste ein Produkt mit funktionierendem Powerplay trotz GDDR5 bereitstellen.

Gast
2009-07-24, 16:25:14
Nur kann man für einen Chip der dann vielleicht nur 1/4 der Leistung eines GT300 bringt schlecht hohe Preise verlangen.
Muss man auch nicht.
AMDs Mittelklasse wird auch nicht so teuer.

Ailuros
2009-07-24, 16:29:19
Nur kann man für einen Chip der dann vielleicht nur 1/4 der Leistung eines GT300 bringt schlecht hohe Preise verlangen.

Je mehr Leistung ein solcher chip als die direkte Konkurrenz bringen koennte desto mehr koennte ein IHV dafuer verlangen. Natuerlich gilt dieses auch anders rum je weniger Leistung desto niederiger der Preis.

So lange Du oder jemand anders mir nicht sagen kann wo die Leistung von "G300" genau liegen wird ist der Satz oben fuer die Muelltonne.

LovesuckZ
2009-07-24, 16:41:53
Nur kann man für einen Chip der dann vielleicht nur 1/4 der Leistung eines GT300 bringt schlecht hohe Preise verlangen.

Das hat nichts mit der vorigen Aussage etwas zu tun. nVidia's Mid-Range Modelle müssen nicht groß sein, wenn die Leistung beim GT300 stimmt. Sollte er wie der GT200 wieder so eine Krücke werden, dann hat das natürlich auch Auswirkungen auf die darunter liegenden Modelle. Aber bis dahin, haben wir ja noch ca. 4 Monate Zeit zum diskutieren.

V2.0
2009-07-24, 16:43:26
Der Rest der nach dem obrigen "aber" fehlt ;) Ein jeglicher Erfolg und dessen Massstab von IHV A oder B wird auch zu einem Grad die generellen Verkaufszahlen diktieren.

Natürlich, gerade weil die kommende Generation sehr geeignet ist Überraschungen jeglicher Art zu bieten. Je stärker die Konzepte der IHVs sich unterschieden, desto größer ist die Chance für extreme Unterschiede in den Ergebnissen.

igg
2009-07-24, 17:12:52
So lange Du oder jemand anders mir nicht sagen kann wo die Leistung von "G300" genau liegen wird ist der Satz oben fuer die Muelltonne.
Bisher dachte ich die G300 Leistung wäre eher kalkulierbar, nachdem viele seiner Specs hier im Forum schon als "in Stein gemeißelt" bezeichnet wurden. RV870 ist doch eher die Unbekannte in der Gleichung?

Hugo
2009-07-24, 19:43:08
Ich hab auch nie das Gegenteil behauptet, eher befuerworte ich diesen Standpunkt, aber.....



Aber?
Was meinst du mit aber?

Gast
2009-07-24, 20:12:22
Paperlaunch ganz sicher, aber den Zweck Nvidia unter Druck zu setzen erfüllt das allemal. So wird NV gezwungen ihre Karten auch früher vorstellen zu müssen, mit breiterer Verfügbarkeit dann im November schätz ich mal. :)
Da ist der wohl der Wunsch Vater des Gedanken, schaetz ich mal. ;)

Ailuros
2009-07-25, 06:51:28
Bisher dachte ich die G300 Leistung wäre eher kalkulierbar, nachdem viele seiner Specs hier im Forum schon als "in Stein gemeißelt" bezeichnet wurden. RV870 ist doch eher die Unbekannte in der Gleichung?

Keiner der beiden ist im Grunde kalulierbar wenn man nicht weiss welche Aenderungen in der Architektur vorgenommen wurden. Nur weil der einen oder anderen Seite X Anzahl an SPs zugeschrieben werden, heisst es erstmal gar nichts.

Natürlich, gerade weil die kommende Generation sehr geeignet ist Überraschungen jeglicher Art zu bieten. Je stärker die Konzepte der IHVs sich unterschieden, desto größer ist die Chance für extreme Unterschiede in den Ergebnissen.

Ich weiss dass NV eine Unmenge an R&D Resourcen in die X11 Familie geschmissen hat; ohne aber zu wissen auf welches Feld sie sich genau konzentriert haben wage ich diesmal keine einzige Vorhersage. Sie murmeln tatsaechlich ueber radikale Effizienz-Steigerungen was GPGPU betrifft und hier bleibt das sehr grosse Fragezeichen ob es erstmal stimmt und direkt danach ob die dafuer gewidmeten Transistoren auch einen Vorteil unter mainstream 3D bringen koennen oder lediglich dumm herum hocken.

Das beste waere natuerlich wenn man beides auf einen Schlag treffen koennte, aber es passt mir schwer in meinen Laien-schaedel mit nur optimierten SIMD Einheiten.

AMD hat zwar einen ausgezeichneten Grundsatz mit RV7x0 gelegt, aber ich bezweifle nach wie vor dass sie die gleichen Vorteile haben werden wie bei RV7x0 vs. GT200. Die Antwort des Raetsels liegt lediglich wie gross der Unterschied diesmal ausfaellt.

***edit: um es ein bisschen klarer zu machen: wenn die "G300" Leistung mehr oder weniger auf dem GTX295OC Niveau liegen sollte wie die neuesten Fakes andeuten wollen, hat IMHO AMD keinen Grund zur Unruhe was die Leistung betrifft. Im Leistung/Watt vielleicht aber dann schon und deshalb halte ich auch reunion's Gedanke dass NV einen <40nm fuer kleinere Modelle unbedingt notwendig hat momentan als sinnlos.

Aber?
Was meinst du mit aber?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7435315&postcount=1621

Der Post hatte 2 Paragraphen.

AnarchX
2009-07-25, 10:43:18
Manhattan mobile:

Broadway XT DDR5 -> HD5870
Broadway Pro -> HD5850
Broadway LP -> HD5830
Madison Pro DDR5 -> HD5750
Madison XT DDR3 -> HD5730
Madison LP/Pro -> HD5650
Park XT -> HD5470
Park Pro -> HD5450
Park LP -> HD5430

AMD cliamt dat Manhattan beter performance per watt heeft en ongeveer 135 - 145% sneller is tov de M9x series. 40nm, DX11 Met PowerXpress, SG Switching, XGP support en pin to pin compatible met de M9x designs.

Broadway -> Ramp E/Aug, MP Oct
Madison -> Ramp E/Aug, MP Nov
Park -> Ramp E/Nov, MP Nov

Broadway XT -> HD5870
GDDR5
45W-60W
M2

Broadway Pro -> HD5850
GDDR5
30W-40W
M2

Broadway LP -> HD5830
(G)DDR3
29W
128bit
M2

Madison Pro (or XT.. not sure) -> HD5750
GDDR5
20-30W
M2

Madison XT (or Pro.... not sure) -> HD5730
(G)DDR3/GDDR5
20-25W
M2

Madison LP/Pro -> HD5650
(G)DDR3
15-20W
128-bit
M2

Park XT -> HD5470
GDDR5
12-15W
S3/M2

Park Pro -> HD5450
(G)DDR3
10-12W
S3/M2

Park LP -> HD5430
(G)DDR3
<8W
S3
http://gathering.tweakers.net/forum/view_message/32310888

Also wohl doch noch D3D11-Mobile 2009.

Wobei die 35-45% mehr Leistung pro Watt, was bei den Mobile Lösungen mit festen TDP-Spielräumen eben auch entsprechend die reale Mehrleistung bedeutet, sich nicht wirklich viel anhören.
(Oder sind hier wirklich +135-145% gemeint? ;D)

Da könnte wohl Broadway XT wirklich nur ein 800-1000SPs Chip sein, welchen man etwas höher als die 550MHz der HD4870M taktet.
Wobei die angesprochene Pin-Kompatibilität auch für 256-Bit GDDR5 spricht.

Nakai
2009-07-25, 10:45:57
***edit: um es ein bisschen klarer zu machen: wenn die "G300" Leistung mehr oder weniger auf dem GTX295OC Niveau liegen sollte wie die neuesten Fakes andeuten wollen, hat IMHO AMD keinen Grund zur Unruhe was die Leistung betrifft. Im Leistung/Watt vielleicht aber dann schon und deshalb halte ich auch reunion's Gedanke dass NV einen <40nm fuer kleinere Modelle unbedingt notwendig hat momentan als sinnlos.


IMO ist das zu wenig. Schon alleine die Einheitenerhöhung verspricht mindestens mehr als eine doppelte Leistung. Zusätzliche Effizienzsteigerungen sollten auch ihren Beitrag dazu leisten. Ich gehe eher von mindestens 2.5fache GTX280-Leistung aus.

Und eine GTX295OC kommt knapp auf 1.8fache GTX285-Leistung.

ATIs RV870 sollte da eher auf GTX295OC-Niveau kommen um mit dem GTX380 im schlechtesten Fall im Dualverbund ohne Probleme konkurrieren zu können.

Und wenn ATI wirklich nun total auf MGPU setzt, dan seh ich da schwarz. Weder GTX295 noch HD4870X2 erreichen eine nahezu doppelte Leistung, als die betreffende Single-GPU.



mfg Nakai

€: Okay, wenn man die ganze Serie bereits so früh bringt, dann heißt das imo, dass man nur wenige verschiedene Chips für die Karten gefertigt hat.
Also einen kleinen DX11 und einen größeren DX11-Chip.
Einen ganz Kleinen bietet man anscheinend noch nicht an.

Wobei die 35-45% mehr Leistung pro Watt, was bei den Mobile Lösungen mit festen TDP-Spielräumen eben auch entsprechend die reale Mehrleistung bedeutet, sich nicht wirklich viel anhören.
(Oder sind hier wirklich +135-145% gemeint? )

€: KA, was gemeint ist. Ich kann mir jedoch vorstellen, dass man mit die 55nm-Chips vergleicht. HD4670 Mobility hat einen Verbrauch um die 30Watt. Somit ergibt sich eindeutig, dass diese mit der HD5830 oder HD5750 verglichen wird. Und wenn diese jeweils 800SPs haben...dann sind das etwa 150% mehr Leistung bei gleichem Verbrauch. Sieht dann wohl eher nach einem 1200SP-Chip und einem 800SP-Chip aus.

Gast
2009-07-25, 11:06:03
Wenn man ATIs massiven Launch beobachtet fragt man sich schon, wieviel Zeit sie in die Architektur gesteckt haben können. Oder ihre mittelfristige Strategie war so gut geplant, dass auf Basis des RV670 eine solide Evolution möglich ist - wobei es damals eher nach einer Sackgasse aussah.

AnarchX
2009-07-25, 11:16:32
Einen ganz Kleinen bietet man anscheinend noch nicht an.
Was soll es denn kleineres als 8W geben? Park könnte wohl in der Tat RV810 sein. (D3D11@IGP dürfte es erst mit Fusion geben.)
Er kommt etwas zeitverzögert mit Madison, welcher sich wegen seines GDDR5 MCs wohl in der Nähe eines RV740 bewegen könnte.

Mal sehen ob noch etwas klarer wird, ob der Ersteller sich verschrieben hat und 135-145% M9x Leistung meint oder ob es wirklich das Perfomance-Delta ist.
Wobei GTX 295/HD4870X2-Leistung für eine 60W Notebook-GPU doch sich "etwas" unglaubwürdig anhören.:D

Nakai
2009-07-25, 11:17:02
Wobei die 35-45% mehr Leistung pro Watt, was bei den Mobile Lösungen mit festen TDP-Spielräumen eben auch entsprechend die reale Mehrleistung bedeutet, sich nicht wirklich viel anhören.
(Oder sind hier wirklich +135-145% gemeint? )

KA, was gemeint ist. Ich kann mir jedoch vorstellen, dass man mit die 55nm-Chips vergleicht. HD4670 Mobility hat einen Verbrauch um die 30Watt. Somit ergibt sich eindeutig, dass diese mit der HD5830 oder HD5750 verglichen wird. Und wenn diese jeweils 800SPs haben...dann sind das etwa 150% mehr Leistung bei gleichem Verbrauch. Sieht dann wohl eher nach einem 1200SP-Chip und einem 800SP-Chip aus.

Dann sieht es eher so aus:

RV830 800SPs ~150mm²
RV840 1200SPs ~180mm²

RV870 2xRV830 2x800SPs
R800 2xRV840 2x1200SPs

Würd imo passen, wenn der RV840 einen 256Bit SI hat.


mfg Nakai

€: Wobei GTX 295/HD4870X2-Leistung für eine 60W Notebook-GPU doch "etwas" unglaubwürdig sich anhören.

Das schon...aber man hat anscheinend nur Chips verglichen.

Vergleich mal die alte Generation. Also der Sprung von HD3870 Mobility auf HD4870 Mobility. Die HD4670 verbrauch etwa die Hälfte der HD3870 Mobility bei gleicher Performance.

AnarchX
2009-07-25, 11:32:33
Das schon...aber man hat anscheinend nur Chips verglichen.

Vergleich mal die alte Generation. Also der Sprung von HD3870 Mobility auf HD4870 Mobility. Die HD4670 verbrauch etwa die Hälfte der HD3870 Mobility bei gleicher Performance.
Natürlich hat man hier wohl Mobility verglichen, aber +"135%", also der untere Wert, bei einem RV770@550/800MHz GDDR5 sind dann schon eine erheblich höhere Leistungsdimension

Oder man hat sich bei NV inspirieren lassen:
http://www.computerbase.de/bildstrecke/25950/2/ + nächste Folie
:D


1200SPs + 256-Bit + D3D11 @180mm² ~ <=1200Mio Transistoren?
Das mag ich doch mal stark bezweifeln.


Nehmen wir mal wirklich 35-45% Mehrleistung an:
RV710 zu RV810: 64-Bit SI, bei entweder 8TMUs/160SPs oder 12TMUs/120SPs

RV730 zu RV830?: hier könnte man allein schon durch GDDR5 und eine günstige Erhöhung der ROPs wohl einiges an Leistung erreichen, sodass hier imo 20TMUs/400SPs/12 ROPs denkbar wären. Oder dieser Chip ist der gezeigte 180mm² Die... ;)

RV770 zu RV870?: 35 bis 45% mehr gegenüber einem RV770@550/800MHz sind nicht unerheblich, da schon der GDDR5 hier sehr hoch taktet, muss die GPU wohl umso mehr erreichen, sodass hier wohl ein GPU-Takt um die 800MHz nötig wäre bei 800SPs, was aber wohl bei einer 60W TDP selbst mit 40nm sehr knapp werden könnte.
Daraus würde ich doch schließen, dass AMD hier wohl doch noch ein größeren Die hat, der neben einem 256-Bit GDDR5 MC wohl auch um einiges mehr als 800SPs mitbringt, sodass hier die ~40% bei ~600MHz erreicht werden können.

Botcruscher
2009-07-25, 12:29:22
RV870 2xRV830 2x800SPs
R800 2xRV840 2x1200SPs
Würd imo passen, wenn der RV840 einen 256Bit SI hat.


Warum sollte jemand zwei kleine Chips zusammen klatschen wenn die dann nur 1/4 mehr Rohleistung Einheiten haben als der nächst höhere Chip? Da passt nichts, ja das ergibt noch nichtmal Sinn. Das fressen die Verluste ja gleich wieder auf.

Nakai
2009-07-25, 12:42:18
Aber da steht ausdrücklich "schneller" und nicht "140% so schnell wie".
Natürlich ist das interpretationswürdig, weswegen man es nicht genau nehmen kann. 140% Mehrleistung wird es wohl nur in ausgesuchten Szenarien geben. Man kann eher 100% rechnen.


1200SPs + 256-Bit + D3D11 @180mm² ~ <=1200Mio Transistoren?

Wieso nicht? Es wird auch immer von ca 180mm² geredet. RV670 hatte auch nur 192mm² für ein 256Bit SI. 256Bit halte ich für möglich. 1200SPs wären bei 180mm² auch möglich. Okay, DX11 ist dann eher unwahrscheinlicher, jedoch wissen wir kaum, wieviel DX11 kosten wird.

Nehmen wir mal wirklich 35-45% Mehrleistung an:
RV710 zu RV810: 64-Bit SI, bei entweder 8TMUs/160SPs oder 12TMUs/120SPs

RV730 zu RV830?: hier könnte man allein schon durch GDDR5 und eine günstige Erhöhung der ROPs wohl einiges an Leistung erreichen, sodass hier imo 20TMUs/400SPs/12 ROPs denkbar wären. Oder dieser Chip ist der gezeigte 180mm² Die...

RV770 zu RV870?: 35 bis 45% mehr gegenüber einem RV770@550/800MHz sind nicht unerheblich, da schon der GDDR5 hier sehr hoch taktet, muss die GPU wohl umso mehr erreichen, sodass hier wohl ein GPU-Takt um die 800MHz nötig wäre, was aber wohl bei einer 60W TDP selbst mit 40nm sehr knapp werden könnte.
Daraus würde ich doch schließen, dass AMD hier wohl doch noch ein größeren Die hat, der neben einem 256-Bit GDDR5 MC wohl auch um einiges mehr als 800SPs mitbringt, sodass hier die ~40% bei ~600MHz erreicht werden können.

He:D Spekulatius.

Das Problem ist die Liste an sich.
Wenn ich die HD4650 mit der HD5650 vergleichen will, dann gibt es ein Problem. HD4650 liegt bei 35W-Verbrauch. Die HD5650 anscheinend nur bei 20Watt.
Wenn man davon ausgeht, dass der 40nm-Prozess, wenn er gut läuft eine starke Verbesserung bringt, dann kann man einiges reininterpretieren.
Aber davon kann man derzeit eher ned ausgehen.


mfg Nakai


€: Warum sollte jemand zwei kleine Chips zusammen klatschen wenn die dann nur 1/4 mehr Rohleistung Einheiten haben als der nächst höhere Chip? Da passt nichts, ja das ergibt noch nichtmal Sinn. Das fressen die Verluste ja gleich wieder auf.

Gerüchte sagen ja, dass es so aussehen könnte. Dass der RV870 aus zwei RV830 bestehen soll, ist ja bekannt. Dass der R800 aus zwei RV870 bestehen soll, wurde auch schon gesagt. Das es wenig Sinn macht, ist mir klar. Aber wieso sollte man auch nicht zwei RV840 zusammenklatschen.

AnarchX
2009-07-25, 13:19:11
Aber da steht ausdrücklich "schneller" und nicht "140% so schnell wie".
Natürlich ist das interpretationswürdig, weswegen man es nicht genau nehmen kann. 140% Mehrleistung wird es wohl nur in ausgesuchten Szenarien geben. Man kann eher 100% rechnen.

Aber eben wohl kaum beim gleichen Verbrauch, das hat ja RV740 auch nicht geschafft und NVs GT215 sieht vom Verbrauch auch nicht so top aus, sodass ich eine Pro-Watt-Leistungssteigerung und somit auch absolute Leistungssteigerung von >100% doch eher sehr bezweifeln mag.


Wieso nicht? Es wird auch immer von ca 180mm² geredet. RV670 hatte auch nur 192mm² für ein 256Bit SI. 256Bit halte ich für möglich.
RV670 hatte aber auch nur GDDR3/4, wo GDDR5 wenn man >1GHz gehen will doch schon andere Ansprüche an das Pin-Out hat.


1200SPs wären bei 180mm² auch möglich.

80SPs dürften wohl unter 40nm um die 4mm² belegen. Das wären dann gegenüber dem 137mm² RV740 schonmal +28mm². Noch zwei zusätzliche TMU-Cluster und man ist schon so bei ~170mm².
Da wird es doch ziemlich knapp für D3D11 (Caches...) und ein 256-Bit SI und dann natürlich noch der ominöse Interconnect für transparentes Crossfire. :D

reunion
2009-07-25, 13:28:09
Wobei die 35-45% mehr Leistung pro Watt, was bei den Mobile Lösungen mit festen TDP-Spielräumen eben auch entsprechend die reale Mehrleistung bedeutet, sich nicht wirklich viel anhören.
(Oder sind hier wirklich +135-145% gemeint? ;D)



Es steht ganz klar 135-145% da. Ich weiß nicht was da so witzig sein soll. Würde man 35-45% meinen würde man das auch hinschreiben. 35-45% bei einer neuer Architektur in einem neuen Fertigungsprozess wäre auch lächerlich wenig. Alleine durch 40nm sollte man hier in die Regionen von 75-100% kommen.

Nakai
2009-07-25, 13:37:48
Aber eben wohl kaum beim gleichen Verbrauch, das hat ja RV740 auch nicht geschafft und NVs GT215 sieht vom Verbrauch auch nicht so top aus, sodass ich eine Pro-Watt-Leistungssteigerung und somit auch absolute Leistungssteigerung von >100% doch eher sehr bezweifeln mag.



AMD behauptet, dass Manhattan eine bessere Leistung pro Watt und ca. 135 bis 145% schneller im Vergleich zu den M9x Serie. 40nm, DX11 Mit Power Xpress, SG Switching XGP Unterstützung und Pin-zu-Pin-kompatibel mit dem M9x Designs.


Das heißt es übersetzt. Entweder hat die Quelle Unsinn geschrieben oder es ist Fake.

RV670 hatte aber auch nur GDDR3/4, wo GDDR5 wenn man >1GHz gehen will doch schon andere Ansprüche an das Pin-Out hat.

Mhh, ich weiß nicht, inwieweit sich das auswirkt. Ich glaube kaum, dass wir uns auf dem gleichen Level bleiben.

80SPs dürften wohl unter 40nm um die 4mm² belegen. Das wären dann gegenüber dem 137mm² RV740 schonmal +28mm². Noch zwei zusätzliche TMU-Cluster und man ist schon so bei ~170mm².
Da wird es doch ziemlich knapp für D3D11 (Caches...) und ein 256-Bit SI und dann natürlich noch der ominöse Interconnect für transparentes Crossfire.

Ich weiß es ja selber nicht, wie es aussehen wird. Ich halte es jedenfalls für möglich, wenn man das Design optimiert hat. Beim RV740 sollte man relativ viel Renundanz eingebaut haben.


mfg Nakai

AnarchX
2009-07-25, 13:48:40
AMD behauptet, dass Manhattan eine bessere Leistung pro Watt und ca. 135 bis 145% schneller im Vergleich zu den M9x Serie. 40nm, DX11 Mit Power Xpress, SG Switching XGP Unterstützung und Pin-zu-Pin-kompatibel mit dem M9x Designs.


Das heißt es übersetzt. Entweder hat die Quelle Unsinn geschrieben oder es ist Fake.

Oder einfach falsch ausgedrückt. Nahezu alle AMD-Balken-Diagramme besitzen ja die Basis 1 bzw. 100% und zeigen dann die neue Karte dazu im Vergleich.
Demensprechend würde ich doch meinen, dass hier diese 135-145% eben aus einem solchen Diagramm gelesen hat.

Es steht ganz klar 135-145% da. Ich weiß nicht was da so witzig sein soll. Würde man 35-45% meinen würde man das auch hinschreiben. 35-45% bei einer neuer Architektur in einem neuen Fertigungsprozess wäre auch lächerlich wenig.
In optimierten Szenarien mag ich ja das glauben, der LDS soll ja bei Ambient Occlussion wohl einiges bringen.
Aber in einem Durchschnittsszenario sehe ich nicht wirklich, wie AMD den RV770@550/800MHz der HD4870M um >100% überbieten will.


Alleine durch 40nm sollte man hier in die Regionen von 75-100% kommen.
Das haben RV740 und GT21x eindrucksvoll gezeigt... ;)

btw.:
http://img258.imageshack.us/img258/5619/cev8kexvhl0k.jpg
http://vga.zol.com.cn/142/1423592.html

reunion
2009-07-25, 14:03:07
Das haben RV740 und GT21x eindrucksvoll gezeigt... ;)


Richtig. Die 4860 liegt im 20W Bereich und ist kaum langsamer wie eine 4870 welche bei 45W liegt. Oder war das ironisch gemeint?

Nakai
2009-07-25, 14:07:02
Oder einfach falsch ausgedrückt. Nahezu alle AMD-Balken-Diagramme besitzen ja die Basis 1 bzw. 100% und zeigen dann die neue Karte dazu im Vergleich.
Demensprechend würde ich doch meinen, dass hier diese 135-145% eben aus einem solchen Diagramm gelesen hat.

Mhh, Ich glaube wir haben hier ein anderes Problem. Wenn es tatsächlich 135% Mehrperformance ist, dann wird diese nur durch einen dementsprechenden Vergleich erhältlich sein.

Ich bin mir relativ sicher, dass man immer die Gegenstücke aus der älteren Generation vergleicht.

Park XT -> HD5470
GDDR5
12-15W
S3/M2

Park Pro -> HD5450
(G)DDR3
10-12W
S3/M2

Park LP -> HD5430
(G)DDR3
<8W
S3

Die vergleich ich einfach mit der HD4570 und HD4530.
Um mehr als 100% Mehrleistung zu bekommen, brauch ich "nur" 16TMUs, 160SPs und etwas mehr Takt.

Madison Pro (or XT.. not sure) -> HD5750
GDDR5
20-30W
M2

Madison XT (or Pro.... not sure) -> HD5730
(G)DDR3/GDDR5
20-25W
M2

Madison LP/Pro -> HD5650
(G)DDR3
15-20W
128-bit
M2

Problem hier, die HD4650 verbraucht etwa 30Watt, ebenso gibt es noch keine Gegenstücke zur HD5730 und HD5750.
Hier bräuchte man dann etwa 640SPs.

Broadway XT -> HD5870
GDDR5
45W-60W
M2

Broadway Pro -> HD5850
GDDR5
30W-40W
M2

Konkurrenz sind die HD4860, 4870, 4850 und 4830. Da wäre ein 1200SP-Chip notwendig un etwas mehr Takt.

Für steht ein Chip unter 800SP, außer evtl RV810, nicht zur Debatte, da so einer bis jetzt noch nicht irgendwo angesprochen wurde. Wenn du 45% Mehrleistung willst, dann wäre so ein Chip aber ziemlich notwendig.


mfg Nakai

igg
2009-07-26, 11:10:53
Was mich an dem September Release zweifeln lässt: Soweit ich weiß gab es immer 1-2 Monate zuvor erste 3dMark Scores. Hier gibt es bisher gar nichts.

Gast
2009-07-26, 11:57:59
Das ATI viel früher kommt bringt uns doch nichts.Meisten kaufen erst ihre Karte,wenn sie wissen wie schnell NV und ATI sind.

JOjo*
2009-07-26, 12:23:52
Ich bin mal gespannt wie sich die karten wenn sie überhaubt so früh rauskommen kosten lassen...
Ob sie weiter auf die mainstream Preise pochen oder jetzt mal hiere singel chips auch mal um die 500 euro wie Nvidia(zu anfang des gt200) ansiedeln werden....

Grüße

dargo
2009-07-26, 12:37:02
Ich bin mal gespannt wie sich die karten wenn sie überhaubt so früh rauskommen kosten lassen...
Ob sie weiter auf die mainstream Preise pochen oder jetzt mal hiere singel chips auch mal um die 500 euro wie Nvidia(zu anfang des gt200) ansiedeln werden....

Ich sehe das relativ locker. Die Kosten für eine neue Generation orientieren sich in der Regel immer am Vorgänger. Wenn ich heute eine HD4890 für 150€ bekomme wird der Nachfolger wohl kaum 500€ kosten bei einer Leistungsverdoppelung (die Leistungsverdoppelung jetzt nur als Beispiel). Sollte eine HD5870 doppelt so schnell wie die HD4890 sein würde ich von ca. 300 bis 350€ ausgehen. Natürlich sollte man nach dem Release den "Deppenaufschlag" abwarten. Nach ca. 4-6 Wochen stabilisieren sich die Straßenpreise.

JOjo*
2009-07-26, 12:48:33
Jup^^ aber ich würde es mal Ati/AMD gönnen! Speziel '' den deppen aufschlag'' <--- geiles word
irgentwie müssen die ja mal auf grünen boden kommen auch wenn ich denke sie kalkulieren absichtlich ihre quartalszahlen in die miesen um Steuern zu sparen

dargo
2009-07-26, 12:56:59
Jup^^ aber ich würde es mal Ati/AMD gönnen! Speziel '' den deppen aufschlag'' <--- geiles word

Von dem Deppenaufschlag hat AMD leider nichts. Dieses Geld stecken sich die Händler in die Tasche. Man könnte es auch Exklusivaufschlag nennen.

JOjo*
2009-07-26, 13:02:15
Nich umbedingt°° denk AMD dektiert die Preise bei einführung und nich der Handel
(klar muss ein Händler au kalkulieren, aber die Vorgaben gibt AMD) sonst könn ja jeder machen was er will, deswegen glaub ich schon da sie da schon ein stück vom Exklusivaufschlag bekommen

dargo
2009-07-26, 14:26:28
Nich umbedingt°° denk AMD dektiert die Preise bei einführung und nich der Handel
(klar muss ein Händler au kalkulieren, aber die Vorgaben gibt AMD) sonst könn ja jeder machen was er will, deswegen glaub ich schon da sie da schon ein stück vom Exklusivaufschlag bekommen
Beispiel - AMD gibt für die HD5870 299$ UVP an. Du kannst davon ausgehen, dass diese Karte direkt nach dem Release bei Geizhals für mindestens 300-350€ angeboten wird. Nach 4-6 Wochen liegt sie bei ca. 220-230€.

=Floi=
2009-07-26, 16:01:20
wenn sie es wieder wie mit der 4890 machen, dann fällt der preis eher extrem. hier und bei den anderen karten hat man auch unnötig den preis gesenkt.

Hugo
2009-07-26, 16:40:48
Beispiel - AMD gibt für die HD5870 299$ UVP an. Du kannst davon ausgehen, dass diese Karte direkt nach dem Release bei Geizhals für mindestens 300-350€ angeboten wird. Nach 4-6 Wochen liegt sie bei ca. 220-230€.

ohne Kunkurrenz sinkt der Preis nicht. Man denke an die Preisstabilität des G80

dargo
2009-07-26, 17:00:37
ohne Kunkurrenz sinkt der Preis nicht. Man denke an die Preisstabilität des G80
Wo habe ich was von Preissenkung gesagt?

Hugo
2009-07-26, 17:03:59
Wo habe ich was von Preissenkung gesagt?

nicht Preissenkung aber von 350€ in 4-6WWochen auf 230€ wäre schon ne Menge Holz

mapel110
2009-07-26, 17:06:08
Wo habe ich was von Preissenkung gesagt?
Innerhalb der ersten Wochen sinkt der Preis sicher nicht bei jedem Release so stark. Das hängt eher mit der Konkurrenz zusammen.
30% runter vom Launchstraßenpreis ist selten. Und ich gehe schwer davon aus, dass sich nvidia und ATI diesmal nicht unterbieten werden, zumal vorallem bei nvidia ja neue Mainstreamlösungen lange auf sich warten lassen werden. Solange muss man da mit dem alten LineUp noch etwas kassieren. Und AMD kann ja derzeit auch gute Margen brauchen.

dargo
2009-07-26, 17:12:55
nicht Preissenkung aber von 350€ in 4-6WWochen auf 230€ wäre schon ne Menge Holz
Gut, ich habe jetzt nicht exakt nachgerechnet. Mach von mir aus 300€ auf 230-240€. Für einen G80 haben manche auch direkt 699€ verlangt. Kurz danach ging er für ~550€ weg. Ich wollte nur damit ausdrücken, dass die Karte ohne den Deppenaufschlag halt für geduldige günstiger ist. Und nein, die UVP wurde in dieser Zeit noch nicht angerüht.

KonKorT
2009-07-27, 01:22:20
Laut Nordichardware haben RV8xx bessere Yields als RV740. Da man aber hier bewusst den Chipnamen offen lässt, kann es sich ebenso um RV830 wie RV840 oder RV870 handeln.
Nebenbei bestätigt man, dass es am 10. September ein Preview-Launch geben wird.

http://www.nordichardware.com/news,9672.html

mboeller
2009-07-27, 09:15:10
laut chipbell sind es keine 135-145% mehr Leistung sondern 135-145% mehr Leistung pro Watt.

Auf den RV770 übertragen wäre das dann:

RV770 -> RV870

40TMU / 800SP / 750MHz => 80TMU / 1600SP / 900MHz

bei gleichem Verbrauch.

Auch nicht schlecht.

AnarchX
2009-07-27, 09:25:53
Auf den RV770 übertragen wäre das dann:

RV770 -> RV870

40TMU / 800SP / 750MHz => 80TMU / 1600SP / 900MHz

Nur fehlt dann hier noch der >1.5GHz GDDR5, damit man diese Leistungssteigerung bei 256-Bit erreichen kann. ;)

Chiphell wird aber wohl nun auch eher von Tweakers abgeschrieben haben und einfach das "und" zwischen Pro-Watt-Steigerungen und 135-145% schneller unterschlagen haben.

Wohlmöglich hat AMD hier wirklich den Trick angewand und bezieht sich auf den kleinsten Chip.

Denn Park kommt in der XT-Version wohl mit GDDR5, nun hier noch ein nette Einheitensteigerung, die sich durch ein nötiges Pad um die ~80mm² ergeben könnte und diese GPU wäre wohl locker 135-145% schneller als ein RV710-Mobile.

Aber darüber mag ich doch bezweifeln, dass AMD hier Steigerungen jenseits der 100% erreicht. Bei RV730 könnte man es wohl noch schaffen, wenn dessen Nachfolger ein 800SPs-128-Bit-GDDR5-RV830 ist.

HPVD
2009-07-27, 09:31:47
laut chipbell sind es keine 135-145% mehr Leistung sondern 135-145% mehr Leistung pro Watt.

Auf den RV770 übertragen wäre das dann:

RV770 -> RV870

40TMU / 800SP / 750MHz => 80TMU / 1600SP / 900MHz

bei gleichem Verbrauch.

Auch nicht schlecht.

nicht nur nicht schlecht ;-)
und wenn sie dann noch den idle verbrauch endlich wieder im Griff hätten (=4670 oder 3850)....

Gruß HPVD

V2.0
2009-07-27, 09:50:23
Und wo soll der Chips sein? In 180mm² kriegt man das sicher nicht.

Es ist möglich, dass der kleinste Mobilchip eine solche Steigerung pro Watt erfahren hat, gerade weil schwächere Chips in Angesicht von Fusion und IGPs ja nur wenig Sinn machen würden. Ob man das linear auf das High-End des Desktopbereichs übertragen kann oder sollte, ist imho fraglich.

reunion
2009-07-27, 10:11:51
180mm² sind auch Blödsinn. Man sollte sich mal davon lösen das AMD hier ihren nächsten Performancechip offen am Tablett präsentiert. Alles andere ist wie üblich Spekulation. Wie es aussieht sind die AMD-Leute jedenfalls sehr optimistisch, mal sehen ob ihnen wieder eine Überraschung gelingt.

Nakai
2009-07-27, 10:26:20
laut chipbell sind es keine 135-145% mehr Leistung sondern 135-145% mehr Leistung pro Watt.

Auf den RV770 übertragen wäre das dann:

RV770 -> RV870

40TMU / 800SP / 750MHz => 80TMU / 1600SP / 900MHz

bei gleichem Verbrauch.

Auch nicht schlecht.

Ich gehe davon aus, dass die von dieser einen Quelle abgeschrieben haben. Aber da steht nicht "135-145% mehr Leistung pro Watt" sondern "bessere Leistung pro Watt und 135%-145% mehr Leistung".
Wie man das interpretiert, ist eine andere Sache.

Wohlmöglich hat AMD hier wirklich den Trick angewand und bezieht sich auf den kleinsten Chip.

Denn Park kommt in der XT-Version wohl mit GDDR5, nun hier noch ein nette Einheitensteigerung, die sich durch ein nötiges Pad um die ~80mm² ergeben könnte und diese GPU wäre wohl locker 135-145% schneller als ein RV710-Mobile.

Aber darüber mag ich doch bezweifeln, dass AMD hier Steigerungen jenseits der 100% erreicht. Bei RV730 könnte man es wohl noch schaffen, wenn dessen Nachfolger ein 800SPs-128-Bit-GDDR5-RV830 ist.

FullAck.


mfg Nakai

dargo
2009-07-27, 12:32:39
laut chipbell sind es keine 135-145% mehr Leistung sondern 135-145% mehr Leistung pro Watt.

Auf den RV770 übertragen wäre das dann:

RV770 -> RV870

40TMU / 800SP / 750MHz => 80TMU / 1600SP / 900MHz

bei gleichem Verbrauch.

Auch nicht schlecht.
Das hört sich doch gut an. Was braucht der RV770, ~60W? Ein RV870 wird sicherlich auf das doppelte ausgelegt sein. Wobei, so kann man auch nicht rechnen, schließlich bezieht sich die höhere Leistung pro Watt nur auf die GPU selbst. :uponder:

horn 12
2009-07-27, 12:38:28
Also kann man auf die HD5870 besser als RV870 mit ca. GTX 295 Performance mit den jeweiligen ATI Voteilen bei AF und AA hoffen zu einem Preis um die 300bis 350 Euro oder was lässt sich hiermit herauslesen ... ?
Denn würde ja NV recht schlecht dastehen mit ihrem Riesenchip.

dargo
2009-07-27, 12:41:14
Denn würde ja NV recht schlecht dastehen mit ihrem Riesenchip.
Woraus leitest du das denn ab? Zum G300 ist praktisch noch gar nichts durchgesickert.

w0mbat
2009-07-27, 13:55:31
Woraus leitest du das denn ab? Zum G300 ist praktisch noch gar nichts durchgesickert.

Ich dachte die ganzen G300 Specs wären bekannt und laut Forum schn "in Stein gemeißelt".

Ailuros
2009-07-27, 14:04:35
Ich dachte die ganzen G300 Specs wären bekannt und laut Forum schn "in Stein gemeißelt".

*holt sich Popcorn* erzaehl mal wie die Leistung basierend auf diesen Specs genau aussehen wird.....:|

mboeller,

Falls "RV870" tatsaechlich ein dual chip-Dingsbums sein sollte, koenntest Du vielleicht sogar recht haben mit dem Stromverbrauch. Nur ist der Verbrauch einer daraus entstehenden X2 immer noch zu hoch.

Gast
2009-07-27, 14:14:15
Also kann man auf die HD5870 besser als RV870 mit ca. GTX 295 Performance mit den jeweiligen ATI Voteilen bei AF und AA hoffen zu einem Preis um die 300bis 350 Euro oder was lässt sich hiermit herauslesen ... ?

Kannst du das erklären? Spekulierte "Vorteile" bei R8xx? Performancevorteile oder Sonstige? Ein Link wäre sehr nett.

:confused:

Gipsel
2009-07-27, 15:10:45
180mm² sind auch Blödsinn. Man sollte sich mal davon lösen das AMD hier ihren nächsten Performancechip offen am Tablett präsentiert.Da hat wohl einer aufgepaßt. ATI hat damals bei der Präsentation des Wafers mit den 180mm² Dies auf Nachfrage nämlich gesagt, daß das nicht der Performance-Chip ist ;)

AnarchX
2009-07-27, 15:40:43
Gab es dazu ein nachlesbares Statement?
Aber das man sein zukünftiges Flaggschiff nicht etliche Monate vor dem Launch in die Kamera hält, ist natürlich mehr oder weniger selbstverständlich.

Bleibt nur die Frage, was sich oberhalb dieses 180mm² Dies befindet - ein ausgefeiltes Konzept oder wirklich noch ein 200-300mm² Die.

EG Broadway könnte laut letzten Daten wohl ein 256-Bit SI haben, wenn er pinkompatibel zu den RV770-Mobility ist.
Wenn er pinkompatibel zu den RV740-Mobilty wäre, dann dürfte er aber wohl keine 60W TDP haben und es wäre ziemlich fragwürdig, dass er mit 128-Bit GDDR5 eine 4870M mit 256-Bit GDDR5 beerben will.

Sorkalm
2009-07-27, 18:01:29
Da hat wohl einer aufgepaßt. ATI hat damals bei der Präsentation des Wafers mit den 180mm² Dies auf Nachfrage nämlich gesagt, daß das nicht der Performance-Chip ist ;)

Davon wüsste ich nichts. AMD hat sich gar nicht geäußert.

horn 12
2009-07-27, 18:01:31
Nun gut, auch wenn die HD5870 langsamer als der GT300 werden sollte, dann sind dies vielleicht 20-25% aber ganz sicher nicht in allen Games... Ähnlich wie der RV770 damals zu G200.
Man wird somit die Karte wieder grandios verkaufen können, zwar mit etwas weniger Leistung als der Ultra High End Konkurrenz,- ABER zudem denke ich dass NV diesmal nicht sooo leicht den Preis senken kann/ wird wie damals beim G200.
Zudem wird ja noch die X² -er Karte von ATI kommen, und die Problematik der Vorgängerkarte 4870X² sind sie sich sicherlich bewusst, dort sollte auch das Neue Fertigungs-Verfahren einiges dazu beitragen um sie Leiser und vor allem Kühler zu bekommen.
Geh von dem Gedanken nicht ab dass es alles ähnlich dem RV770 - G200 werden wird, auch die X² Karte wird die Performancekrone innebehalten bis NV schlussendlich mit dem 32-er Verfahren kommen wird!:cool:

igg
2009-07-27, 18:04:04
Nun gut, auch wenn die HD5870 langsamer als der GT300 werden sollte, dann sind dies vielleicht 20-25% aber ganz sicher nicht in allen Games... Ähnlich wie der RV770 damals zu G200.
Was veranlasst dich zu dieser Annahme?

horn 12
2009-07-27, 18:10:11
Nichts, nur meine reine Spekulation.
Ati sieht es eher gelassen im Gegensatz zu NV, da kocht man eher schon und wird leichter Nervös als die Konkurrenz.
ATI wird den Schritt mit etwas weniger Leistung aber besserem P/L Verhältnis sicherlich beibehalten, denn sie sind nicht "so hoch zu Roß" wie die NV-ler.
Und man weiss nur zu gut wie schnell die Preise im Keller sind...

Gipsel
2009-07-27, 19:07:54
Davon wüsste ich nichts. AMD hat sich gar nicht geäußert.
Da hat mir mein Gedächtnis wohl einen Streich gespielt. Habe das irgendwie mit der Vorführung der lauffähigen DX11-Karte durcheinandergebracht. Die soll in etwa der 150$-Klasse angehört haben.

Aber mal was anderes, was haltet Ihr eigentlich von den Andeutungen von Charlie, daß die Evergreens deutliche Architekturverbesserungen gegenüber den RV7x0 besitzen sollen.

Und ich weiß nicht, ob das hier schon thematisiert wurde, aber er meint, Hemlock ist nicht das Einsteigermodell, sondern die Dual-GPU-Variante von Cypress, also High-End.

Redwood - Cedar - Juniper - Cypress - Hemlock (Dual Cypress)

Und falls sich wer gewundert hat, hier (http://www.semiaccurate.com/2009/07/27/plagiarism-rampant-it-journalism) erfährt man auch, woher diese plötzliche Feindschaft zwischen Theo und Charlie wohl kommt.

igg
2009-07-27, 19:32:55
Aber mal was anderes, was haltet Ihr eigentlich von den Andeutungen von Charlie, daß die Evergreens deutliche Architekturverbesserungen gegenüber den RV7x0 besitzen sollen.
Ich halte nichts von dem was Charly zu GPGPUs schreibt. Das selbe hat er auch bei G80 vs. R600 erzählt.

Witzig wäre es, wenn Theos News (die sich bzgl. G300 teilweise sehr von Charlies unterscheiden) im Nachhinein korrekter wären ;)

aylano
2009-07-27, 20:15:18
Bleibt nur die Frage, was sich oberhalb dieses 180mm² Dies befindet - ein ausgefeiltes Konzept oder wirklich noch ein 200-300mm² Die.
Wenn ATI da ein ausgeklügeltes Konzept hat, dann hat Nvidia ein Problem. Wenns daneben geht und ATI viel drauf setzt, dann ATI.
Ich halte einen größeren Die für wahrscheinlicher und evolutionärer, was zu AMD momentanen Politik viel eher passen würde.

Wenn es AMD wirklich schaffen soll, dass 2 oder 4 GPUs wie 1er arbeitet und die Effizienz zu 100% betragt, dann wäre das wohl eine neuer Ära im Grafikkarten-Sektor wie z.B.: SLI oder gar mehr.

dargo
2009-07-27, 22:32:03
Man wird somit die Karte wieder grandios verkaufen können, zwar mit etwas weniger Leistung als der Ultra High End Konkurrenz,- ABER zudem denke ich dass NV diesmal nicht sooo leicht den Preis senken kann/ wird wie damals beim G200.

Wenn ich die Die-Size vom GT200 und die spekulierte vom G300 betrachte ergibt dein Post wenig Sinn.

y33H@
2009-07-27, 22:58:59
Ich hoffe, dass beide IHVs sich nicht wieder so eine dämliche Preisschlacht leisten. Denn so machen die weniger Gewinne und es kommen wieder so güllige PCBs samt schei0 Wandlern usw. auf den Markt. Nein danke. Ich will Highend wie zu Zeiten des G80: Fett Power, gescheites PCB, gescheite Kühlung und meinetwegen auch 550€. Hauptsache wieder Qualität und Margen, die den IHVs auch was bringen.

Gast
2009-07-27, 23:55:23
Ich hoffe, dass beide IHVs sich nicht wieder so eine dämliche Preisschlacht leisten. Denn so machen die weniger Gewinne und es kommen wieder so güllige PCBs samt schei0 Wandlern usw. auf den Markt. Nein danke. Ich will Highend wie zu Zeiten des G80: Fett Power, gescheites PCB, gescheite Kühlung und meinetwegen auch 550€. Hauptsache wieder Qualität und Margen, die den IHVs auch was bringen.

achja, hach waren das noch zeiten. keine konkurrenz für nv, horrende preise.
ach der gute alte g80 so lange warst du unsere nr.1 und jetzt müllt uns ati mit preiswerten produkten zu! ich will auch unbedingt wieder mehr für meine nächste grafikkarte zahlen, also hoch mit den preisen oder kürzt unsere gehälter!
w1rtsch4ft5kr1s3 t3h suckZ!

=Floi=
2009-07-28, 03:08:12
glaubst du, der billigwahn wird den ruf von ati und nv verbessern? abgerauchte oder qualitativ minderwertige karten werden vor allem den chipherstellern und deren referenzdesign (zurecht) angelastet!

nagus
2009-07-28, 07:34:45
Ich hoffe, dass beide IHVs sich nicht wieder so eine dämliche Preisschlacht leisten. Denn so machen die weniger Gewinne und es kommen wieder so güllige PCBs samt schei0 Wandlern usw. auf den Markt. Nein danke. Ich will Highend wie zu Zeiten des G80: Fett Power, gescheites PCB, gescheite Kühlung und meinetwegen auch 550€. Hauptsache wieder Qualität und Margen, die den IHVs auch was bringen.

es hat (leider) nicht jeder einen geldscheißer zu hause. 550 euro karten... ultrahighend OK aber sonst: NEIN DANKE

Botcruscher
2009-07-28, 09:01:14
Als ob Qualität auch nur irgendwas mit dem Preis zutun hätte. Nach der Logik müsten gerade Midrage und Low-End Karten wie die Fliegen sterben. Praktischerweise erwischt es aber immer die teuren Karten.

glaubst du, der billigwahn wird den ruf von ati und nv verbessern? abgerauchte oder qualitativ minderwertige karten werden vor allem den chipherstellern und deren referenzdesign (zurecht) angelastet!

Deswegen muss man aber trotzdem zwischen 5$ höheren PCB Kosten und dem etwas höheren Gewinn unterscheiden. Und was den "Billigwahn" angeht, bis jetzt gab es noch kein Kartensterben was nur im geringesten 300-350% höhere Preise rechtfertigen würde. Bis der Kunde da teuere kommt kann er ewig die Karte wieder einschicken und sich gleich noch eine Ersatzkarte leisten.

Gast
2009-07-28, 09:07:29
Praktischerweise erwischt es aber immer die teuren Karten.
Erwischt es nicht vielmehr Karten, die mit hoher Leistungsaufnahme und Hitzeentwicklung zu kämpfen haben?!

Gast
2009-07-28, 09:12:11
Ich hoffe, dass beide IHVs sich nicht wieder so eine dämliche Preisschlacht leisten. Denn so machen die weniger Gewinne und es kommen wieder so güllige PCBs samt schei0 Wandlern usw. auf den Markt. Nein danke. Ich will Highend wie zu Zeiten des G80: Fett Power, gescheites PCB, gescheite Kühlung und meinetwegen auch 550€. Hauptsache wieder Qualität und Margen, die den IHVs auch was bringen.

Den Käse haste schon mal gepostet. Wenn Dir NV derart am Herzen liegt, sende halt für jede Karte, die Du von denen kaufst, noch 200€ zusätzlich als Goodwill an die Firma.
Preise wie anno dazumal würden den PC-Spielemarkt killen. Das machen nur noch Ultrafreaks mit, die < 1% ausmachen.

Sollten die beiden IHVs derart dumm gewesen sein, die Preise so zu gestalten, dass sie daran nichts mehr verdienen, haben sie ihre Existenzberechtigung ohnehin verloren.

Botcruscher
2009-07-28, 09:15:51
Tendenziell ja, wobei da auch immer irgendwelche Eigenarten der jeweiligen Karte mit rein spielen. Praktischerweise ist die Gewinnspanne am oberen Ende auch am höchsten, womit eigentlich gerade dort ordentliche Bauteile zu verbauen wären. Wenn man die Ausfallstatistik bestimmter Händler betrachtet ist es aber nicht so. Da stehen zB. gewisse konkurrenzlose Dualchipkarten gannnnz weit vorn.


Sollten die beiden IHVs derart dumm gewesen sein, die Preise so zu gestalten, dass sie daran nichts mehr verdienen, haben sie ihre Existenzberechtigung ohnehin verloren.

LS fällt eh gleich aus seiner Zeitschleife, beteuert die Nachteile des Wettbewerb und erzählt uns von der guten, alten Zeit.

reunion
2009-07-28, 09:16:05
Ich hoffe, dass beide IHVs sich nicht wieder so eine dämliche Preisschlacht leisten. Denn so machen die weniger Gewinne und es kommen wieder so güllige PCBs samt schei0 Wandlern usw. auf den Markt. Nein danke. Ich will Highend wie zu Zeiten des G80: Fett Power, gescheites PCB, gescheite Kühlung und meinetwegen auch 550€. Hauptsache wieder Qualität und Margen, die den IHVs auch was bringen.

Natürlich. Wer noch immer daran glaubt das höhere Preise eine bessere Qualität bedeuten der ist in der Steinzeit stehen geblieben. Würde NV eine GTX285 heute um 600€ verkaufen würde die Karte bis ins letzte Detail exakt gleich aussehen.

Userxy
2009-07-28, 10:08:55
Die GTX 285 gehört aber auch schon zu der Billig-Highend-Fraktion. Und das Märchen von pfeifenden Nvidiakarten kam ab wann auf?

Botcruscher
2009-07-28, 10:27:55
Die GTX 285 gehört aber auch schon zu der Billig-Highend-Fraktion. Und das Märchen von pfeifenden Nvidiakarten kam ab wann auf?

FX5800 oder FX5900. Man muss nur mal die Geschichtsbücher bemühen.

LovesuckZ
2009-07-28, 10:34:38
Weder 5800 noch 5900 haben gepfeift. Ja, das mit der Geschichte solltest du nochmal überprüfen.
:rolleyes:
Auch haben die Karten soviel gekostet wir eine GTX285 heutzutage und mit dem 8800 High-End hatte man weder Probleme mit der Stromversorgung noch singenden Platinen.

Ailuros
2009-07-28, 10:35:25
Nichts, nur meine reine Spekulation.
Ati sieht es eher gelassen im Gegensatz zu NV, da kocht man eher schon und wird leichter Nervös als die Konkurrenz.
ATI wird den Schritt mit etwas weniger Leistung aber besserem P/L Verhältnis sicherlich beibehalten, denn sie sind nicht "so hoch zu Roß" wie die NV-ler.
Und man weiss nur zu gut wie schnell die Preise im Keller sind...

Seit wann hast gerade Du irgend einen Zugang zu NVIDIA dass Du wissen koenntest ob die Kerle "gelassen" oder "gestresst" sind?

Jegliche Spekulationen sind auch wirklich willkommen wenn man sie auch zumindest auf theoretischer Basis halbwegs dokumentieren kann. Deine "Gefuehle" und Kaffeesatzlesereien interessieren mich persoenlich nicht am geringsten.

deekey777
2009-07-28, 12:28:08
We saw Evergreen, DirectX 11 card (http://www.fudzilla.com/content/view/14815/1/)
We can confirm that today at an AMD place in Sunnyvale we had a chance to see DirectX 11 card, up and running. We had one in our hands on one of the cards and we’ve seen one running a few DirectX 11 technology demos. So DirectX 11 hardware from ATI is real and not a Power Point presentation.
Mir ist gerade aufgefallen, warum die Serie "Evergreen" heißt. ;(

igg
2009-07-28, 12:30:11
[Mir ist gerade aufgefallen, warum die Serie "Evergreen" heißt. ;(
Offenbar bin ich gerade schwer von Begriff...

deekey777
2009-07-28, 12:35:55
Offenbar bin ich gerade schwer von Begriff...
Alle diese Codenames kommen von kieferartigen Bäumen, die eben immer grün sind (da sie ihre Blätter im Herbst nicht abwerfen müssen). Ergo Evergreen.

AnarchX
2009-07-28, 12:39:37
at computex amd told me "it will all make sense once revealed" when i was asking about rop/tmus in future products
http://www.xtremesystems.org/forums/showpost.php?p=3931617&postcount=18

Wohl doch ein paar Änderungen an der Anzahl der SPs pro SIMD?

mboeller
2009-07-28, 13:25:43
Wirmish @ Beyond3D hat folgenden Link gepostet:

http://babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-res&trurl=http%3A%2F%2Fwww.inpai.com.cn%2Fdoc%2Fhard%2F102616.htm&lp=zt_en&btnTrUrl=Translate

plus:
http://img.inpai.com.cn/article/2009/7/27/6e9dc849-8d6f-4db1-86e5-f91d0bf6e1bd.png

+ 2 links zu den großen Bildern:

1) http://static.f7c-network.com/data/media/1833/1132_0007.jpg

2) http://i172.photobucket.com/albums/w2/herrhelmt/crysisMap_sunDown.jpg

[edit] Kommentar entfernt

Nakai
2009-07-28, 13:26:48
Joa von 16 auf 20 oder gar 24.

Macht auch Sinn, da nun deutlich mehr Pipelinestages hinzugekommen sind, welche zusätzliche Shaderleistung fressen. IMO könnte man dadurch wieder das Design effektiver gestalten. Größere SIMDs sind ja schwerer auszulasten, aber Verbesserungen sind doch auch möglich.

Oder es sind Vec6 statt Vec5, was sehr unwahrscheinlich ist.


mfg Nakai

AnarchX
2009-07-28, 13:27:01
Beim Sonnenuntergang steht doch, dass dieser aus Crysis ist, was man auch sieht.

mboeller
2009-07-28, 13:27:52
Beim Sonnenuntergang steht doch, dass dieser aus Crysis ist, was man auch sieht.

shit, überlesen. :(

Coda
2009-07-28, 14:10:40
Nach fast 3 Jahren immer noch unangefochten die Nr. 1 der Engines ;)

IMO könnte man dadurch wieder das Design effektiver gestalten. Größere SIMDs sind ja schwerer auszulasten, aber Verbesserungen sind doch auch möglich.
Effektiver wird es dadurch ganz sicher nicht. Das liegt in der Natur der Dinge. Wenn gesprungen wird sind breitere SIMDs auf jeden Fall schlechter und auch so hat man größeren Verschnitt am Ende von Batches. Das dürfte aber weniger ausmachen.

Ich glaub noch nicht so dran, dass da was erhöht wurde. Eher teilt man sich eine TMU in einem Cluster von drei oder vier 8er SIMDs, so wie NVIDIA das heute schon tut. Das ist die weitaus bessere Lösung.

Tarkin
2009-07-28, 14:42:05
We saw Evergreen, DirectX 11 card (http://www.fudzilla.com/content/view/14815/1/)

Mir ist gerade aufgefallen, warum die Serie "Evergreen" heißt. ;(

Wieso macht dich das traurig? :D

Ailuros
2009-07-28, 14:46:05
Wieso macht dich das traurig? :D

Weil man ploetzlich alles gruen anstatt rot sieht LOL :biggrin:

Coda
2009-07-28, 14:52:17
Bei 1200 ALUs wäre folgende Konfiguration möglich:
10 Cluster mit jeweils einer Quad-TMU und drei 8er Vec5 SIMD.

Dann würden sie für GPGPU auch besser dastehen, und hätten das Problem nicht mehr, dass die Wavefront-Größe zwischen den Chipgrößen variiert.

reunion
2009-07-28, 15:01:31
We saw Evergreen, DirectX 11 card (http://www.fudzilla.com/content/view/14815/1/)

Mir ist gerade aufgefallen, warum die Serie "Evergreen" heißt. ;(

Na also, wenn schon FUAD die Karte zu Gesicht bekommt kann es nicht mehr lange dauern bis Details durchsickern. Bis zum 10. September sind es auch nur noch sechs Wochen.

V2.0
2009-07-28, 15:05:21
Skaliert dann aber schlecht für den 800SP Chip.

Coda
2009-07-28, 15:11:18
Wieso, da nimmt man dann halt 2xVec8 pro TMU, oder einfach 720 ALUs. Wer sagt, dass es nicht kompletter Unsinn ist was gerade rumgeht?

V2.0
2009-07-28, 15:25:29
Das wäre dann ein Chip mit fast doppelter Anzahl an ALUs gegenüber RV770 bei wenigen sonstigen Veränderungen. Wobei dieser dann sicher zwischen die 800SP Version und deren "Dual GPu"-Version passen würde.

Coda
2009-07-28, 15:42:33
War ja nur ein Beispiel. Man kann das ganze doch beliebig skalieren. Auch jede RV7xx-Konfiguration wäre möglich.

BlackBirdSR
2009-07-28, 15:42:59
Weil man ploetzlich alles gruen anstatt rot sieht LOL :biggrin:

Na ich will mal schwer hoffen, dass dies kein Wortspiel nach dem Motto: "Green Forever" ist. Irgendwie ist der Name schon ungünstig gewählt, bzw ATI will irgendwas unterstreichen, dass mit gerade nicht in den Kopf geht.

deekey777
2009-07-28, 15:51:50
Na ich will mal schwer hoffen, dass dies kein Wortspiel nach dem Motto: "Green Forever" ist. Irgendwie ist der Name schon ungünstig gewählt, bzw ATI will irgendwas unterstreichen, dass mit gerade nicht in den Kopf geht.
Wie will man eine Generation von Grafikchips noch nennen, wenn diese nach kieferartigen Bäumen genannt sind, die wiederum immergrün sind.
Dass da auch etwas "Green IT" steckt, ist purer Zufall.

AnarchX
2009-07-28, 16:01:41
RV870 Prototyp @ Chiphell
The first DX11 graphic card --- AMD-ATI RV870 is about to come,let's waiting with anticipation. enjoy it! 2 6pin power connectors,and PCB is a little bit longer than 2900XT.

http://img444.imageshack.us/img444/4966/20090728094608914.png
http://www.chiphell.com/2009/0728/89.html

Na hoffentlich zeigt man auch bald, was darunter ist. ;)

Hugo
2009-07-28, 16:16:22
was sagt ihr dazu?
http://hartware.net/news_47319.html

LovesuckZ
2009-07-28, 16:17:28
Das es sich um eine übersetzte Newsmeldung von Fuad handelt.

Botcruscher
2009-07-28, 17:32:20
Gibts jetzt wieder jeden Tag ein Bild oder warum sieht die Karte so seltsam aus?

Schlammsau
2009-07-28, 17:34:14
RV870 Prototyp @ Chiphell

http://www.chiphell.com/2009/0728/89.html

Na hoffentlich zeigt man auch bald, was darunter ist. ;)

Ich hoffe nicht, dass sie schon wieder die selbe Kühlkonstruktion wie schon seit dem R600 verbauen. Der Lüfter sieht leider schon mal danach aus. ;(

horn 12
2009-07-28, 17:34:17
Nun, der 10-19 September ist ja nun so gut wie sicher, ebenso ein Hardlauch mit mindestens doch zufriedenstellender Verfügbarkeit gleich zu Beginn beim Lauchtermin.
Immer mehr Infos sickern durch, kann also nimmer all zu lange dauern.

Vielleicht ist an den Problemen bei NV doch mehr dran als man glauben will, und die RV740 GPU wurde komplett zurückgesteckt für die RV8x0 Familie.:cool::eek:

V2.0
2009-07-28, 17:39:39
länger als X2900XT?

w0mbat
2009-07-28, 17:52:05
Die war ziemlich kurz, also kein Problem.

reunion
2009-07-28, 17:56:24
Genau so lang wie 1900XT/3870/4870.

Coda
2009-07-28, 17:59:11
Ich hoffe nicht, dass sie schon wieder die selbe Kühlkonstruktion wie schon seit dem R600 verbauen. Der Lüfter sieht leider schon mal danach aus. ;(
Was ist daran denn schlecht?

Gipsel
2009-07-28, 18:08:35
Was ist daran denn schlecht?
Verstehe ich auch nicht. Verglichen mit den Single-Slot Kühlern der HD4850 sind die doch eine Wohltat. Wenn der jeweilige Hersteller eine vernünftige Lüftersteuerung ins BIOS programmiert hat (sonst muß man das eben selbst machen), sind die HD4870 oder die HD4890 mit Referenzkühler weder von der Lautstärke her auffällig noch sprengen beide den akzeptablen Temperaturrahmen (wiederum verglichen mit HD4850 SingleSlot).
Und ja, ich habe alle drei Versionen ;)

Schlammsau
2009-07-28, 18:11:14
Was ist daran denn schlecht?

Die Lautstärke.....bei der 4870X2 und 4890 sieht man recht deutlich, dass das aktuelle Referenzkühlerdesign an seine Grenzen stösst.

Gipsel
2009-07-28, 18:15:31
Die Lautstärke.....bei der 4870X2 und 4890 sieht man recht deutlich, dass das aktuelle Referenzkühlerdesign an seine Grenzen stösst.
Von der X2 war nicht die Rede ;) und der 4890-Referenzkühler hat eine Heatpipe mehr und ist mit einer unübertakteten Karte meiner Meinung nach auch im Rahmen.

Schlammsau
2009-07-28, 18:17:20
Von der X2 war nicht die Rede ;) und der 4890-Referenzkühler hat eine Heatpipe mehr und ist mit einer unübertakteten Karte meiner Meinung nach auch im Rahmen.

Hatte eine leicht übertaktete MSI 4890 (880/999Mhz), und die war unter Last abartig laut! Wie ein Fön.......

Gipsel
2009-07-28, 18:18:50
Hatte eine leicht übertaktete MSI 4890 (880/999Mhz), und die war unter Last abartig laut!
Was dann aber eher an der herstellerspezifischen Lüftersteuerung liegt. Kann man entweder mit RBE umflashen oder mit einem entsprechendem Tool erheblich ohrenschonender steuern.

LovesuckZ
2009-07-28, 18:19:43
Laut Computerbase.de ist die Lautstärke der Kühlkonstruktion der 4890 in Bioshock genauso laut wie die der 4870x2. Ausgehend von meiner GTX280 unter Vollast - ist es ein No Go.
Unter Warhead wird das selbe Ergebnis erreicht.

Schlammsau
2009-07-28, 18:21:34
Was dann aber eher an der herstellerspezifischen Lüftersteuerung liegt. Kann man entweder mit RBE umflashen oder mit einem entsprechendem Tool erheblich ohrenschonender steuern.

Die 4890 im Referenzdesign sind alle relativ laut im Vergleich zur 4870 und der Konkurrenz.
Mir ist schon klar, dass man mit Tools die Karte leiser bekommen kann aber das ist doch auch nicht das gelbe vom Ei oder?

reunion
2009-07-28, 18:24:47
Die 4890 im Referenzdesign sind alle relativ laut im Vergleich zur 4870 und der Konkurrenz.
Mir ist schon klar, dass man mit Tools die Karte leiser bekommen kann aber das ist doch auch nicht das gelbe vom Ei oder?

Dafür ist die Karte 20°C kühler als eine 4870. Lüftersteuerung bearbeiten, fertig.

Schlammsau
2009-07-28, 18:27:17
Dafür ist die Karte 20°C kühler als eine 4870. Lüftersteuerung bearbeiten, fertig.

Glaub mir, auf das Geräuschniveau einer 4870 bekommst du sie trotzdem nicht!

Spasstiger
2009-07-28, 18:29:05
Glaub mir, auf das Geräuschniveau einer 4870 bekommst du sie trotzdem nicht!
Die 4870 im Referenzdesign wird doch auch recht laut unter Last.
Ich kenne allerdings auch keine Grafikkarte, die mindestens so schnell wie eine HD 4870 ist und im Referenzdesign dennoch leise arbeitet (unter 1 Sone).

Coda
2009-07-28, 18:29:10
Die Lautstärke.....bei der 4870X2 und 4890 sieht man recht deutlich, dass das aktuelle Referenzkühlerdesign an seine Grenzen stösst.
Ich wüsste nicht wie man es besser machen sollte.

nagus
2009-07-28, 18:29:43
1. RV870 abgelichtet? (http://www.chiphell.com/2009/0728/89.html)

http://www.chiphell.com/uploadfile/2009/0728/20090728094608914.png

"The first DX11 graphic card --- AMD-ATI RV870 is about to come,let's waiting with anticipation. enjoy it! 2 6pin power connectors,and PCB is a little bit longer than 2900XT."

Gipsel
2009-07-28, 18:30:17
Laut Computerbase.de ist die Lautstärke der Kühlkonstruktion der 4890 in Bioshock genauso laut wie die der 4870x2. Ausgehend von meiner GTX280 unter Vollast - ist es ein No Go.
Unter Warhead wird das selbe Ergebnis erreicht.
Der Test bei Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/24/#abschnitt_lautstaerke), den ich auf die Schnelle gefunden habe, bestätigt die hohe Variabilität der Lautstärke, von 57db der PowerColor-Karte (leiser als die GTX280 in dem Test) bis 63db war so etwa die Schwankungsbreite.

Aber laut derem Test ist eine HD4850 auch genauso laut wie eine HD4870, was nun überhaupt nicht meiner Erfahrung entspricht (4850 ist deutlich lauter mit Referenzkühler). Also wer weiß, was man darauf geben sollte. Ich habe wie gesagt von 4850 über 4870 bis zur 4890 selber ausprobiert. Und am lautesten ist die 4850 mit dem SingleSlot-Kühler. Am leisesten ist übrigens eine 3870 ;)

reunion
2009-07-28, 18:34:24
Ich wüsste nicht wie man es besser machen sollte.

Zumindest wenn man die Luft aus dem Gehäuse entfernen will. Sapphires Vapor-X Dinger zeigen doch deutlich das da noch mehr geht.

Gipsel
2009-07-28, 18:37:12
Hatte eine leicht übertaktete MSI 4890 (880/999Mhz), und die war unter Last abartig laut! Wie ein Fön.......
Ach übrigens, ich habe die normale MSI 850/975 ;)
Ist zugegeben schon deutlich hörbar, aber bleibt auch über 30°C kühler und dabei immer noch leiser als eine HD4850 unter Vollast (Furmark). Da bin ich ernsthaft am Grübeln, ab die 4850er mit Referenzkühler das überhaupt dauerhaft aushalten würden.

w0mbat
2009-07-28, 18:38:07
@nagus: Rate mal um was es die letzte Seite geht ;)

nagus
2009-07-28, 20:20:04
@nagus: Rate mal um was es die letzte Seite geht ;)

*HUPSI* ;)

horn 12
2009-07-28, 20:23:21
Meine 2 beliebtesten Online Shops in Italien (wohne auch dort) leeren schon die HD4890-er Lager...
Nur mehr die DualSlot Asus HD4890-er Karte ist verfügbar, weitere kommen nimmer nach haben sie mir gesagt, oder nur auf Anfrage und da heist es dann warten!:mad:
Wohl doch ein richtiger Hardlaunch Mitte September und gar mehrere HD 58x0-er Modelle ?
Die HD4870-er 512/1GB lassen sich nun nur mehr schwer loswerden wurde mir bestätigt, bei den HD4890-er Preisen kein Wunder.

PS:
So wie es aussieht werden auch die HD4890 >= 950 Mhz Modelle langsam rar, sodass dies nur eine kurze Übergangslösung, bzw. ein Aufschluss zur GTX285 war, nun aber in dieser Richtung nix mehr groß kommen wird, da die HD5000 Serie vor der Tür steht.

Gast
2009-07-28, 21:02:01
Die Produktion wurde doch extrem gedrosselt nach dem VK Einbruch, nun leeren sich eben die Lager und die Fischkutter aus Taiwan brauchen halt 6-8 Wochen um neue Waren nach Europa zu bringen. Für Abverkauf ists zu früh und die Preise sind stabil.
Ganz normal und kein Anzeichen für irgendwas.

V2.0
2009-07-28, 21:44:29
Hm, also etwas länger als 4870, das spricht nicht gerade für einen schwachen Chip. Aber anscheined auch sparsamer. Das sieht sehr gut aus.

derguru
2009-07-28, 21:51:04
wenn das stimmt mit den 2*6pin ist das schonmal wirklich nice,jetzt muss man nur was über die performance erfahren(hoffe auf ca.4870x² niveau).:biggrin:
muß ja wirklich recht sparsam sein wenn schon 2*6pin genügen.

LovesuckZ
2009-07-28, 22:03:05
Was ist an 2x6 Pin "recht sparsam"? Das sind zwischen 150 und 225 Watt...

w0mbat
2009-07-28, 22:06:15
Wenn sie dafür GTX285+ Performance bietet ist das schon nicht schlecht.

LovesuckZ
2009-07-28, 22:08:09
Hm, also ich empfinde eine GTX285 nicht als "recht sparsam". ;)

derguru
2009-07-28, 22:11:01
Was ist an 2x6 Pin "recht sparsam"? Das sind zwischen 150 und 225 Watt...
auf die kommende leistung bezogen.
und fang nicht gleich damit an das man nicht weiß was die leisten wird,nerv.
Wenn sie dafür GTX285+ Performance bietet ist das schon nicht schlecht.
285 gtx performance?nada,das macht schon ohne weiteres eine 4890 oc edition(leistungsmäßig),deshalb sollte dein plus mehrere plus haben.:smile:

LovesuckZ
2009-07-28, 22:14:50
150 Watt sind nicht sparsam - egal wie schnell die Karte ist. Bezahlen musst du sie bei der GTX280 oder der rv870.
Und man sollte dabei nicht vergessen, dass 150 Watt+ auch abgeführt werden müssen.

AnarchX
2009-07-28, 22:14:57
Um $299-329 zu rechtfertigen sollte da wirkllich ~2x HD4870 herauskommen.

Mal sehen ob es in den nächsten Tagen noch mehr Bilder gibt, schon ein Bild der PCB-Rückseite wäre ja aufschlussreich.

Auf jeden Fall könnte das längere PCB(~10.5"?) für ein größeres Package (zwei Dies?) sprechen und der kastenförmige Kühler für einen länger gezogenen Kühlkörper.

Auch wirkt die Slotblende so, als ob hier ein DVI auf der Höhe des 2. Slots über dem PCB ist, was man zwar bei manchen AIB-Design schon gesehen hat, aber bei einer solchen Karte doch eher kontraproduktiv der Entlüftung gegenübersteht. Ausser eben, dass hier ein Nutzen dahinter steht, nämlich, dass die Karte wirklich drei benutzbare Bildausgänge hat, was wieder für mehr als eine GPU spräche.