PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

reunion
2009-06-05, 14:49:45
A10 meint aber nicht wirklich die zehnte Revision?

Nein, bei ATi ist die erste Zahl die Siliziumrevision und die zweite die Metal-Layer-Revision.

Ailuros
2009-06-07, 08:20:45
Nein, bei ATi ist die erste Zahl die Siliziumrevision und die zweite die Metal-Layer-Revision.

Ehrliche Frage handelt es sich beim vorgestellten Material um A10?

Gast
2009-06-07, 08:25:15
Falls ja dürfte man diese Jahr wahrscheinlich keine DX11 Karten von AMD mehr sehen.

Botcruscher
2009-06-07, 10:52:45
Ohne Kenntnis vom Chip-Zustand und dem Zeitplan kann man diese Aussage garnicht treffen. Das Kärtchen könnte auch schon monatelang im Labor gelaufen sein.

reunion
2009-06-07, 11:03:44
Ehrliche Frage handelt es sich beim vorgestellten Material um A10?

Ich weiß es nicht, aber es war wohl ohnehin kein RV870.

Gast
2009-06-08, 14:44:30
AMD Plans Price Cut For HD 4800 Series In Q3
http://vr-zone.com/articles/amd-plans-price-cut-for-hd-4800-series-in-q3/7173.html?doc=7173

HD4890: US$249 -> US$199
HD4870: US$199 -> US$149

Anzeichen für RV870?!

KonKorT
2009-06-08, 16:27:50
Häh? $149 respektive $199 kosten HD 4870 und HD 4890 doch schon seit Anfang März?!

S940
2009-06-08, 18:14:53
Verwechselst Du da gerade Euro und Dollar ?

AnarchX
2009-06-08, 18:20:17
Nein, das stimmt schon. Die 4870 hat seit März einen MSRP von $149 und die 4890 liegt zwischen $199 -249 je nach Hersteller und Ausstattung.

horn 12
2009-06-08, 20:39:40
Ab wann sollen die Neuen Preise Greifen, Juli 09 bereits ?

Coda
2009-06-08, 21:30:26
Welche neuen Preise?

horn 12
2009-06-09, 07:04:29
Ja, denn wenn die Preise fallen, ab Ende Juli kann man dann wohl mit den ersten HD5870-er Karten rechnen,Q1 Beginnt im Dezember bei der GrakaBranche oder irre ich mich da wiederum...
Dies zeigt dass die HD5870 wiederum eine sehr gute PerformanceKarte werden wird im Bereich um die 300 Euro, falls nicht gar darunter.
Wollen wohl die Lager leerräumen sodass einem frühen Start der HD5870-er Serie nichts mehr im Wege stehen wird.
Die RV770 Gpus denke ich sind eh schon weniger geordert worden und die Lager nicht mehr allzuvoll, beim RV790 wird dies nicht der Fall sein!

[fu]121ah@work
2009-06-09, 08:01:42
Ja, denn wenn die Preise fallen, ab Ende Juli kann man dann wohl mit den ersten HD5870-er Karten rechnen,Q1 Beginnt im Dezember bei der GrakaBranche oder irre ich mich da wiederum...
Dies zeigt dass die HD5870 wiederum eine sehr gute PerformanceKarte werden wird im Bereich um die 300 Euro, falls nicht gar darunter.
Wollen wohl die Lager leerräumen sodass einem frühen Start der HD5870-er Serie nichts mehr im Wege stehen wird.
Die RV770 Gpus denke ich sind eh schon weniger geordert worden und die Lager nicht mehr allzuvoll, beim RV790 wird dies nicht der Fall sein!
die preise sind schon seit märz am fallen. ist ja auch logisch. aber wieso denkst du dass die neuen karten bereits im juli kommen? ich denke nicht dass AMD das mit der super ausbeute bei TSMC schafft.

Ailuros
2009-06-09, 12:36:20
Ja, denn wenn die Preise fallen, ab Ende Juli kann man dann wohl mit den ersten HD5870-er Karten rechnen,Q1 Beginnt im Dezember bei der GrakaBranche oder irre ich mich da wiederum...
Dies zeigt dass die HD5870 wiederum eine sehr gute PerformanceKarte werden wird im Bereich um die 300 Euro, falls nicht gar darunter.
Wollen wohl die Lager leerräumen sodass einem frühen Start der HD5870-er Serie nichts mehr im Wege stehen wird.
Die RV770 Gpus denke ich sind eh schon weniger geordert worden und die Lager nicht mehr allzuvoll, beim RV790 wird dies nicht der Fall sein!

Wenn AMD ihre mainstream GPUs zuerst veroeffentlicht und die Performance GPUs etwas spaeter, kommen die ersten nicht vor September auf Ladentische.

Sefegiru
2009-06-09, 13:13:18
Ist es nicht gut für AMD wenn sie wie damals den R300 vor NV auf den Markt haben in Bezug auf DX11 ?

V2.0
2009-06-09, 13:53:21
Natürlich wäre es excellent für ATI deutlich vor NV auf dem Markt zu sein, aber da beide wohl mehr am 40nm Prozess bei TSMC, als an hausgemachten Problemen, hängen, ist es kaum denkbar dass ATI schon nächsten Monat mit den Karten antanzt. Dazu muss man sich nur mal die Verfügbarkeit des RV740 ansehen.

BlackBirdSR
2009-06-09, 13:54:40
Ist es nicht gut für AMD wenn sie wie damals den R300 vor NV auf den Markt haben in Bezug auf DX11 ?

Ich denke nicht, dass es wieder so ein Debakel geben wird, wo sich keiner um Specs einig wird. Also greift das alte Prinzip: Wenn dein Produkt besser ist und früher kommt, gewinnst du. Allerdings hat ATI nicht viel davon, wenn deren Performancechips nur mit den alten Nvidiachips gleichziehen. Das lockt dann nicht genug neue Käufer an um das Image zu beeinflussen und eine Euphorie zu schaffen.
Richtig Geld macht man dann über die großen Absätze der kleineren Chips, die muss man aber erstmal liefern können und dann müssen die auch noch Vorteile bieten. DX11 ist da nur ein Pseudofeature.

mboeller
2009-06-09, 14:09:35
Allerdings hat ATI nicht viel davon, wenn deren Performancechips nur mit den alten Nvidiachips gleichziehen. Das lockt dann nicht genug neue Käufer an um das Image zu beeinflussen und eine Euphorie zu schaffen.

du vergisst Win7. Wenn ich ein DX11 Betriebssystem habe will ich auch eine DX11 GPU haben, pasta. ;)

Richtig Geld macht man dann über die großen Absätze der kleineren Chips, die muss man aber erstmal liefern können und dann müssen die auch noch Vorteile bieten. DX11 ist da nur ein Pseudofeature.

Dann trifft es sich ja gut das AMD mit dem RV840 angefangen hat und die Mainstream/Performance-Karte anscheinend als erstes auf den Markt bringt.

Coda
2009-06-09, 14:13:11
du vergisst Win7. Wenn ich ein DX11 Betriebssystem habe will ich auch eine DX11 GPU haben, pasta. ;)
Vista ist ebenso ein "DX11-Betriebssystem".

BlackBirdSR
2009-06-09, 14:26:23
Und wegen DX10.1 werden trotzdem noch Nvidia-Karten gekauft. Viel wichtiger ist, ob ATI die Chips in dem Anteil liefern kann, wie der Markt ihn fordert. Nichts ist ärgerlicher, als ein Marktsegement das man dominieren könnte, aber nicht kann.

Ein Mainstream-Chip für fast nix, der auch noch die Performance der high-end-systeme von gestern nachmittag erreicht, ist ein Traum für Viele. Wenn ich den allerdings nicht liefern kann, mach ich damit aber auch kein Geld.

Sefegiru
2009-06-09, 14:27:40
Naja die Basis ist dieses Mal ja etwas größer und wenn sie einen kleinen Chip for Low Budget liefern können und dann auch den "großen" sollte das doch Vorteile bringen. Egal ob schneller oder nicht, DX11 sieht auf Komplettschieberkisten einfach toll aus.

Ailuros
2009-06-09, 15:12:22
du vergisst Win7. Wenn ich ein DX11 Betriebssystem habe will ich auch eine DX11 GPU haben, pasta. ;)

Basta= Ende, Pasta= Teigware LOL :biggrin:

Spass beiseite der Logik werden natuerlich viele Verbraucher folgen aber auch eher hauptsaechlich in den Faellen wo ein X D3D11 GPU auch eine Aufruestung darstellen wuerde und nicht nur einen Aufkleber auf dem Karton mit einer hoeheren Zahl.

Dann trifft es sich ja gut das AMD mit dem RV840 angefangen hat und die Mainstream/Performance-Karte anscheinend als erstes auf den Markt bringt.

Wie AMD die GPUs auf den Markt bringen wird weiss noch keiner. Ich weiss lediglich in welchem Zeitraum jegliche Variante in etwa Produktions-reife erreichte und RV870 liegt einen Haken weiter vorne (***edit: hiermit ist eigentlich spaeter gemeint um Missverstaendnissen zu entgehen) als mainstream. Kannst Du wissen ob AMD einen fetten Batzen an RV840 fuer Schlepptopp OEM deals versprochen hat? Ich auf jeden Fall nicht und IMHLO waere es der beste Schachzug seitens AMD denn gegen diese Ohrfeige hat NV kein bisschen etwas als Reaktion sondern lediglich die 10.1 GT21x@40nm chips. Desktop koennte von mir aus in einem Schlag kommen und fuer mich bleibt es dabei dass es momentan so aussieht als ob beide keine grosse Zeit-Differenz haben werden.

Und wenn's schon um die Psychologie des Otto-Normalverbrauchers gehen soll, wie viele werden beim Launch sofort eine RV870 kaufen ohne etwas zu warten was NV im high end auftischt. Und dieses wuerde natuerlich auch umgekehrt gelten falls NV zuerst veroeffentlicht.

Hvoralek
2009-06-09, 15:38:19
Wie AMD die GPUs auf den Markt bringen wird weiss noch keiner. Ich weiss lediglich in welchem Zeitraum jegliche Variante in etwa Produktions-reife erreichte und RV870 liegt einen Haken weiter vorne (***edit: hiermit ist eigentlich spaeter gemeint um Missverstaendnissen zu entgehen) als mainstreamBedeutet "Produktionsreife" Fertigstellung des Chips oder ausreichende Ausbeute für Massenfertigung?

Ailuros
2009-06-09, 15:42:04
Bedeutet "Produktionsreife" Fertigstellung des Chips oder ausreichende Ausbeute für Massenfertigung?

Problemloses finales tape-out ergo die erste Option ;)

mboeller
2009-06-09, 16:18:58
Spass beiseite der Logik werden natuerlich viele Verbraucher folgen aber auch eher hauptsaechlich in den Faellen wo ein X D3D11 GPU auch eine Aufruestung darstellen wuerde und nicht nur einen Aufkleber auf dem Karton mit einer hoeheren Zahl.


Wie schon im GT300 Thread geschrieben hoffe ich wirklich das viele DAUs nicht wissen was DX10 od. DX11 sind. Ich glaube aber persönlich das die meisten normalen PC Käufer für ihre schicke nagelneue Win7 Box mit DX11 (wird bestimmt von Microsoft wieder so stark beworben wie DX10 für Vista) auch eine DX11 Grafikkarte haben wollen, egal ob diese schneller ist als eine DX10 Karte oder nicht. DX11 ist einfach "mehr" als DX10. Ich kannte ja sogar mal einen Typen (aus einem CATIA-Kurs) der wollte unbedingt eine 512MB-Karte weil die ja viel besser ist als eine 256MB-Karte. Er hatte nur leider vergessen das der AFAIR FX5200 damals zu lahm war um von den 512MB wirklich gebrauch zu machen. Aber "512" ist halt mehr als "256".

grüsse

Manfred

deekey777
2009-06-09, 16:52:56
ATI Evergreen code names explained (http://www.semiaccurate.com/2009/06/09/ati-evergreen-code-names-explained/)
So, what are those code names? They are Cypress and Juniper. Cypress is the big chip, and Juniper is the mid-range part. ATI strongly hinted at the conference that the wafer was a Cypress, but I don't recall if a chip code name was explicitly stated. It it was Cypress, die size estimates in the 180mm^2 range should make Nvidia very nervous. If the wafer was a Juniper, Nvidia should be far more nervous.

:|

ShadowXX
2009-06-09, 17:21:56
ATI Evergreen code names explained (http://www.semiaccurate.com/2009/06/09/ati-evergreen-code-names-explained/)

So, what are those code names? They are Cypress and Juniper. Cypress is the big chip, and Juniper is the mid-range part. ATI strongly hinted at the conference that the wafer was a Cypress, but I don't recall if a chip code name was explicitly stated. It it was Cypress, die size estimates in the 180mm^2 range should make Nvidia very nervous. If the wafer was a Juniper, Nvidia should be far more nervous.

:|
Also wenn die Chips auf dem Waver "Cypress"-Chips waren, dann wüsste ich nicht warum nV deshalb nervös werden sollte.

Wenn es "Juniper"-Chips waren dann schon eher, da ATI dann wohl schon die Midrange-Chips in Stellung hätte.

Gipsel
2009-06-09, 18:12:19
Also wenn die Chips auf dem Waver "Cypress"-Chips waren, dann wüsste ich nicht warum nV deshalb nervös werden sollte.
Weil die Dies dann recht klein (nur 35-40% der Größe von GT300) und wahrscheinlich spottbillig werden (wenn TSMC die Produktion in den Griff bekommt), selbst bei Multichip-Lösungen.

Wenn es "Juniper"-Chips waren dann schon eher, da ATI dann wohl schon die Midrange-Chips in Stellung hätte.
Genau das sagt Charlie doch im Prinzip auch ;)
If the wafer was a Juniper, Nvidia should be far more nervous.

=Floi=
2009-06-09, 18:34:43
was soll man denn mit 35-40% der performance des G300 anrichten? ;D (das ergibt wieder nur ein HD2900 desaster ;D )
da nützt der billige preis auch nichts, wenn das spiel nicht flüssig läuft! es zählt performance und die ist beim RV770 eben gegeben (~80%+-X von nv highend! )

Gast
2009-06-09, 18:36:57
Wer weiß, vielleicht bringt AI-high diesmal einen ordentlichen Performance Schub in Vergleich zu AI-default. ;)

Gast
2009-06-09, 18:51:13
Wer weiß, vielleicht bringt AI-high diesmal einen ordentlichen Performance Schub in Vergleich zu AI-default. ;)

oder sie haben einen weg gefunden 2 und mehr chips auf ein package zu hauen

Gipsel
2009-06-09, 18:51:21
was soll man denn mit 35-40% der performance des G300 anrichten? ;D (das ergibt wieder nur ein HD2900 disaster ;D )
da nützt der billige preis auch nichts, wenn das spiel nicht flüssig läuft! es zählt performance und die ist beim RV770 eben gegeben (~80%+-X von nv highend! )
Nun ja, RV770 ist auch nur etwa halb so groß wie GT200 und liefert wie Du selber sagst erheblich mehr als 50% der Leistung ;)

Jake Dunn
2009-06-09, 18:53:30
Nun ja, RV770 ist auch nur etwa halb so groß wie GT200 und liefert wie Du selber sagst erheblich mehr als 50% der Leistung ;)

Der RV790 liefert sogar fast 100% der Leistung des GT200 ;)

Gast
2009-06-09, 18:55:16
Nun ja, RV770 ist auch nur etwa halb so groß wie GT200 und liefert wie Du selber sagst erheblich mehr als 50% der Leistung ;)
Schlechter Vergleich:
andere Fertigung
andere Packdichte
weniger starke MGPU Ausrichtung
weniger TMUs
GT200 hatte Pech beim Takt, muss sich bei GT300 nicht wiederholen

Gipsel
2009-06-09, 19:17:58
Schlechter Vergleich:
andere Fertigung
GT200b wird auch in 55nm gefertigt, RV770 hat 256 mm² / 490mm² = 52% von dessen Fläche. Vom 65nm GT200 müssen wir da gar nicht reden ;)
andere Packdichte
weniger starke MGPU Ausrichtung
weniger TMUs
GT200 hatte Pech beim Takt, muss sich bei GT300 nicht wiederholen
Na ob Packdichte und Takt nicht irgendwie ein wenig zusammenhängen (siehe RV790)? Das ist eben auch eine Designentscheidung, nicht nur die Auslegung der Pipeline eines Chips entscheidet über dessen Taktfähigkeit, sondern auch das Layout. Dabei gilt üblicherweise daß eine dichtere Packung der Transistoren die Taktfähigkeiten einschränkt. Da muß man sich dann entscheiden, ob man 10% der Fläche in Einheiten steckt oder lieber in Takt (ganz so einfach ist es in der Realität natürlich nicht), da will also ein guter Kompromiß gefunden werden.

Und wofür die Transistoren und die Die-Fläche aufgewendet werden, ist doch letztendlich egal. Was zählt, ist die Leistung, die hinten rauskommt ;)

Gast
2009-06-09, 19:25:13
das hd2900 desastar war in erster Linie nicht die fehlende leistung, sondern dazu noch der exorbitant hohe stromverbrauch. der chip war größer als der von nv und näher am limit getaktet.
das kann schoneinmal beim 180mm² cypress nicht passieren - vorrausgesetzt es ist wirklich cypress.


Schlechter Vergleich:
andere Fertigung
andere Packdichte
weniger starke MGPU Ausrichtung
weniger TMUs
GT200 hatte Pech beim Takt, muss sich bei GT300 nicht wiederholen


Ich wüsste nicht worin sich die 55nm bulk fertigung des rv790 gegenüber der des gt200b unterscheidet.
Die Packdichte legt nvidia selber fest, am Preis eines Wafers bei TSMC ändert das aber auch nichts.
Was ist die spezielle Mgpu ausrichtung des gt200? ich dachte nvidia hat da einfach einen wundertreiber geschaffen der wneiger mikroruckler macht?!
Den Mangel an TMUs gleicht der rv790 ganz gut über den höheren Takt aus.
Nach allem was nvidia über den GT200 gesagt hat waren sie ganz zufrieden mit Leistung und Takt. Ich glaube nicht dass der GT200 beim Takt pech hatte, viel eher hat man mit dem gt200 gar nicht höher geziehlt, sonst wäre der g92b ja nicht mehr zu verkaufen gewesen. man war einfach nicht auf einen so starken rv770 vorbereitet. ati hat da sehr effektiv gerüchte gestreut und mit der leistung hinterm berg gehalten.


Nach den bisherigen gerüchten soll der Evergreen ja multicore auf ein neues Level bringen. Zwei Dies auf einem Package wären also gar nicht so unwahrscheinlich. Demnach könnte Cypress einfach zwei von den Dies auf dem gezeigten Wafer sein. Wäre doch nichts neues, wenn andere Codenamen für ein und denselben chip verwendet werden, siehe Opteron/Phenom, AMD machts ja schon lange vor.
Außerdem ist es unwahrscheinlich, dass sie an zwei DX11 Chips zugleich arbeiten. Bisher haben sie zumindest immer einen Chip soweit fertiggestellt, dass man allzu grobe architekturfehler ausschließen kann, bevor mit den iterationen für mainstream/lowend begonnen wurde. Glaube nicht dass die das nach den ganzen entlassungen viel anders machen...

Gast
2009-06-09, 19:26:15
Der RV790 liefert sogar fast 100% der Leistung des GT200 ;)


Nö, weil Bildqualität auch ein Leistungsmerkmal ist und da mangelt es deutlich bei ATI. Die gaukeln einem nur vor, sie hätten soviel Leistung wie ein GT200.

Jake Dunn
2009-06-09, 19:28:58
...sondern dazu noch der exorbitant hohe stromverbrauch. der chip war größer als der von nv und näher am limit getaktet.


ich dachte nvidia hat da einfach einen wundertreiber geschaffen der wneiger mikroruckler macht?!


2x BS ;)

Ailuros
2009-06-09, 19:32:09
Wie schon im GT300 Thread geschrieben hoffe ich wirklich das viele DAUs nicht wissen was DX10 od. DX11 sind. Ich glaube aber persönlich das die meisten normalen PC Käufer für ihre schicke nagelneue Win7 Box mit DX11 (wird bestimmt von Microsoft wieder so stark beworben wie DX10 für Vista) auch eine DX11 Grafikkarte haben wollen, egal ob diese schneller ist als eine DX10 Karte oder nicht. DX11 ist einfach "mehr" als DX10. Ich kannte ja sogar mal einen Typen (aus einem CATIA-Kurs) der wollte unbedingt eine 512MB-Karte weil die ja viel besser ist als eine 256MB-Karte. Er hatte nur leider vergessen das der AFAIR FX5200 damals zu lahm war um von den 512MB wirklich gebrauch zu machen. Aber "512" ist halt mehr als "256".

grüsse

Manfred

Es sind zwar alles nette Beispiele aber im Ausklang der oben ausgefuehrten Debatte: RV770 bzw. RV790 sind D3D10.1 GPUs; die 770X2 und auch alle andere Modelle darunter sind verdammt effizient und meistens wenn nicht immer um einen Strich billiger als die konkurrierenden GFs.

AMD hat es zwar geholfen ihre jeweiligen Marktanteile zu erhoehen insgesamt, aber von spektakulaeren Aenderungen kann man auch nicht unbedingt reden obwohl AMD's Produkte sehr wohl die Vorraussetzungen dafuer haben. Woran es jetzt liegt ist eine sehr lange und muede Debatte und obwohl Du bis zum einem Punkt recht hast scheint bis jetzt der zeitliche Unterschied fuer die X11 Veroeffentlichungen beider IHVs nicht so gross zu sein wie jeder glauben will.

Schau Dir das Theater der letzten Zeit an; bis vor Wochen blubberten einige Seiten ueber ATI's X11 Verspaetung (welches ich uebrigens sofort bestritten habe) und es gibt seit einiger Zeit ein endloses hin und her wer als erster mit X11 auftischt. Die Presse wird mit Absicht mit Unsinn ueber die Konkurrenz gefuettert und ich will bei bestem Willen bei diesem albernen hin und her nicht mitmachen.

Schoen AMD hat einen wafer mit DX11 chips vorgezeigt. Gleiches sahen wir auch von Intel. Komischerweise gab es keine analoge Aufregung zu der Zeit. Ich persoenlich werde erst unruhig was NVIDIA betrifft, wenn ich von zuverlaessigen Quellen hoeren kann dass etwas schief gelaufen ist. Bis zu dem Punkt gilt fuer mich dass AMD und NVIDIA wahrscheinlich mit kleinem Abstand veroeffentlichen werden; wer jetzt zuerst antanzt ist mir auch wurscht.

Exhibitionismus macht Bekanntschaften aber nicht unbedingt Freunde.

Gast
2009-06-09, 19:54:07
Ich wüsste nicht worin sich die 55nm bulk fertigung des rv790 gegenüber der des gt200b unterscheidet.
Missverständniss durch weglassen des Buchstabens b entstanden.

Was ist die spezielle Mgpu ausrichtung des gt200? ich dachte nvidia hat da einfach einen wundertreiber geschaffen der wneiger mikroruckler macht?!Ich wollte GPGPU schreiben, ops. ;)

Den Mangel an TMUs gleicht der rv790 ganz gut über den höheren Takt aus.Keinesfalls. Die Texturleistung ist deutlich unterlegen, wenn dann gleicht AMD dies durch AI, bzw Sampleeinsparungen aus.


Nach allem was nvidia über den GT200 gesagt hat waren sie ganz zufrieden mit Leistung und Takt. Ich glaube nicht dass der GT200 beim Takt pech hatte, viel eher hat man mit dem gt200 gar nicht höher geziehlt
Dann hätte man auch einen G92 verdoppeln können, mit einem besseren und günstigeren Resultat.
Nein, besonders der Shadertakt ist ein deutliches Stück runter gegangen.

GT200b wird auch in 55nm gefertigtDrück dich nächste mal klar aus, du schriebst GT200.


Und wofür die Transistoren und die Die-Fläche aufgewendet werden, ist doch letztendlich egal. Was zählt, ist die Leistung, die hinten rauskommt
Und Leistung ist Arbeit pro Zeit.

Man muss alles relativ sehen, die paar GPGPU Transistoren sind eh dank Tesla und co drin, tun im Endeffekt gar nicht mal so weh, wie es gewiese Leute anhand der Die Größe weiß machen wollen.

Gipsel
2009-06-09, 20:21:35
GT200b wird auch in 55nm gefertigtDrück dich nächste mal klar aus, du schriebst GT200.
Und Du denke das nächste Mal ein wenig nach. Ich meine natürlich schon den nähesten Vergleich;)
Im Übrigen ist die Skalierung der Diegröße zwischen GT200 und GT200b recht mies und für meinen Punkt damit ziemlich irrelevant, ob man nun GT200 oder GT200b als Vergleich heranzieht.
Btw, MGPU<->GPGPU, wer im Glashaus sitzt und so ...
Und Leistung ist Arbeit pro Zeit.
Kommt da noch ein Argument oder nur platte Sprüche?

Man muss alles relativ sehen, die paar GPGPU Transistoren sind eh dank Tesla und co drin, tun im Endeffekt gar nicht mal so weh, wie es gewiese Leute anhand der Die Größe weiß machen wollen.
Also ist GT200(b) Deiner Meinung nach im Vergleich zum RV770 ein ziemlich ineffizientes Design?

Gast
2009-06-09, 20:53:37
Man muss alles relativ sehen, die paar GPGPU Transistoren sind eh dank Tesla und co drin, tun im Endeffekt gar nicht mal so weh, wie es gewiese Leute anhand der Die Größe weiß machen wollen.

Tesla hin oder her. Die Diegröße von GT200 und GT200b tut in jedem Fall immer noch weh.
Man kauft Wafer von TSMC und schneidet daraus fast nur halbsoviele Chips wie ATI aus den gleichen Wafern, muss diese aber zu nahezu denselben Preisen verkaufen, zumal ATI dann noch den Vorteil des einfacheren PCBs bietet dank 256bit GDDR5.
Selbst für einen 40nmshrink zur überbrückung bis zum GT300 wäre das noch ein Problem - der winzige rv740 hat ja noch Probleme mit den Yields und die Ausschussrrate steigt exponentiell mit der Diegröße möchte ich hier nochmal erinnern.
GT200s Problem ist die DIEsize, da hat sich mit GT200b auch nicht viel getan.

Diese Problem kann evergreen schonmal nicht haben, mit 180mm² wagt man sich ja kaum mehr als beim rv740. Eher wird man tricksen müssen um mit diesem chip auch den highendmarkt bedeinen zu können.
In jedem Fall setzt er da an, wo es nvidia am meisten schadet - im OEM markt und midrange, da wo nvidia bisher gt200b zu spottpreisen absetzen muss um rv770 in schach zu halten.

RV870 scheint mir ein Rezessionsdesign zu sein, es passt einfach zu sehr in die wirtschaftliche Lage und zu AMD...

Spasstiger
2009-06-09, 21:23:27
und die Ausschussrrate steigt exponentiell mit der Diegröße möchte ich hier nochmal erinnern.
Wobei das nicht designübergreifend gilt. Beim GT200 wurde sicherlich durch Redundanzen eine größere Fehlertoleranz vorgesehen als beim RV770.
Zumal NV gegen den RV770 auch mit einem teildefekten GT200 auskommt.
Trotzdem bekommt NV natürlich wesentlich weniger Chips aus einem Wafer raus als AMD.

/EDIT: Hier mal ein Beispiel. Annahmen:
- Verschnitt nach dem "Die per Wafer Calculator 1.00" (http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Output.html)
- keine Redundanzen (da nichts Genaues dazu bekannt)
- beim GT200b ein Defekt im ALU-TMU-Bereich (60% der Gesamtfläche) und ein Defekt im ROP-SI-Bereich (25% der Gesamtfläche) zulässig => GTX 260-216
- beim RV770 keine Fehler zulässig => Radeon HD 4870

http://www.abload.de/img/gpu_wafertfme.png

/EDIT2: Hier eine alternative Darstellung:

http://www.abload.de/img/gpu_waferr47k.png

Gast
2009-06-09, 22:01:31
Tesla hin oder her. Die Diegröße von GT200 und GT200b tut in jedem Fall immer noch weh.
Man kauft Wafer von TSMC und schneidet daraus fast nur halbsoviele Chips wie ATI aus den gleichen Wafern, muss diese aber zu nahezu denselben Preisen verkaufen, zumal ATI dann noch den Vorteil des einfacheren PCBs bietet dank 256bit GDDR5.
Man verkauft die teuren nicht Geforces für ein heiden Geld. Da muss man es relativ sehen, wie viel ein GT200 im Geforce Bereich kostet.

Im Übrigen ist der Vergleich nicht ganz so einfach:
Einerseits ist es ein beschnittener, ergo nochmal billigerer GT200b mit billigsten GDDR3 bei 448bit vs ein Top RV770 mit teurem GDDR5 (besonders anfang) bei 256bit.
Andererseits ist es ein beschnittener, ergo billigerer GT200b mit billigem GDDR3 bei 448bit vs ein Top RV790 (von sich aus bereits teurer als RV770) mit noch teurerem GDDR5 bei 256bit.


GT200s Problem ist die DIEsize, da hat sich mit GT200b auch nicht viel getan.

Da die Die Größe nur ein Faktor unter vielen ist kann dies kaum das Problem sein.
Schon eher sind es die FPS, bzw der erreichte Takt.


Kommt da noch ein Argument oder nur platte Sprüche?

Es ist eine Erklärung.
FPS alleine sagen nicht so viel, siehe 3DC Artikel wo eine X850 XT PE fast eine 3850 einholt. ;)

Also ist GT200(b) Deiner Meinung nach im Vergleich zum RV770 ein ziemlich ineffizientes Design?
Als High-End Design hat man nie die größte Effizienz. ;)
Ja, pro mm² bringt AMD mehr FPS auf die Strasse, willst du das hören?

Als Design würde ich das Gesamtpaket zählen, nicht nur die mir als Endkunden relativ unwichtige Diegröße.

S940
2009-06-09, 22:12:37
Als Design würde ich das Gesamtpaket zählen, nicht nur die mir als Endkunden relativ unwichtige Diegröße.
Die DIE Größe beeiflusst aber mittelbar den für den Endkunden wichtigen Preis :biggrin:

Gast
2009-06-09, 22:15:05
Die DIE Größe beeiflusst aber mittelbar den für den Endkunden wichtigen Preis :biggrin:
Falsch, der Preis setzt sich aus vielen Komponenten zusammen.

Eine Aussage des Preises anhand der Die Größe ist nicht nur falsch, sondern völlig falsch.

S940
2009-06-09, 22:33:18
Falsch, der Preis setzt sich aus vielen Komponenten zusammen.

Eine Aussage des Preises anhand der Die Größe ist nicht nur falsch, sondern völlig falsch.
Ich hab nicht geschrieben, dass der Preis *nur* von der DIE Größe abhinge ...
Schlag mal im Duden nach, was "mittelbar" bedeutet, wenn Dus nicht verstehst ;)

ciao

Alex

Gast
2009-06-09, 22:37:21
Ich hab nicht geschrieben, dass der Preis *nur* von der DIE Größe abhängt ...
Schlag mal im Duden nach, was "mittelbar" bedeutet, wenn Dus nicht verstehst ;)
Mittelbar assoziiert einen stetigen Anstieg des Preises mit der Die Größe.
Dem ist nicht so, eine GTX 285 ist trotz gleichem Die erheblich billiger als eine Quadro FX 5800. Eine GTX 260 ist trotz gleichem Die ehreblich billiger als eine GTX 285.

Ist eben Teil der Milchmädchenrechnung, Die Größe und SI angucken, den Rest mal schön vertuschen.

horn 12
2009-06-09, 22:42:32
@Gast

Wo schätzt du dann die HD5870 performancemässig ein, eine ca. 50% höhere Performance als der RV770, also ca. 30-40% überhalb des RV790, -und etwa 25% überhalb einer HD4890 @1ghz 1150 Mhz Speicher?

Spasstiger
2009-06-09, 22:53:12
@Gast

Wo schätzt du dann die HD5870 performancemässig ein, eine ca. 50% höhere Performance als der RV770, also ca. 30-40% überhalb des RV790, -und etwa 25% überhalb einer HD4890 @1ghz 1150 Mhz Speicher?
Nach den aktuellen Gerüchte wirds eher Gleichstand mit der HD 4890. Dafür aber mit DX11-Unterstützung. Eine bedeutende Performancesteigerung soll es erst wieder mit dem R900 im nächsten Jahr geben.

MR2
2009-06-09, 23:13:58
Das glaub ich aber ganz und gar nicht. Ich denke man kann mindestens von den schon genannten 1200Shaderprozessoren ausgehen. 32ROPs, 48 TMUs bei 900MHz Takt.. Weniger wäre auch sinnlos, schon die GTX285 ist stark gewesen, wie es scheint kommt jetzt noch ne 4890 X2. Da würde sich eine 5870 auf dem Niveau wirklich nicht lohnen.

MFG MR2

Gast
2009-06-09, 23:18:38
Das glaub ich aber ganz und gar nicht. Ich denke man kann mindestens von den schon genannten 1200Shaderprozessoren ausgehen.

Dann müsste RV870 300mm² groß sein.

Gipsel
2009-06-09, 23:24:00
Da die Die Größe nur ein Faktor unter vielen ist kann dies kaum das Problem sein.
Schon eher sind es die FPS, bzw der erreichte Takt.Das Problem sind ganz allgemein die Herstellungskosten einer Karte mit GT200 Chip drauf. Wenn sie mit RV770/790-Lösungen konkurrieren muß, die AMD locker unter 150$ anbieten kann, wird das große Die zusammen mit den höheren Boardkosten durch das breitere Speicherinterface sehr wohl zu einem ziemlich großen Problem. Und soviel teurer ist der GDDR5 nun wirklich nicht mehr (zumal man weniger Chips benötigt).

FPS alleine sagen nicht so viel, siehe 3DC Artikel wo eine X850 XT PE fast eine 3850 einholt. ;)

Als High-End Design hat man nie die größte Effizienz. ;)
Ja, pro mm² bringt AMD mehr FPS auf die Strasse, willst du das hören?

Als Design würde ich das Gesamtpaket zählen, nicht nur die mir als Endkunden relativ unwichtige Diegröße.
Nein, das wollte ich nicht hören. Ich wollte nur wissen, worauf Du hinaus willst mit der Bemerkung die GPGPU-Features würden nicht viele Transistoren und Diefläche kosten und wären daher praktisch unerheblich.
Meiner Meinung muß man sowohl das Featureset als auch die Performance betrachten. Das ist oft nicht einfach abzuwägen, aber mit dem RV770 hat AMD schon einen ziemlich guten Wurf gelandet.

Ach ja, beim Vergleich von X850XT gegen 3850 schlägt sich die ganz alte gegen die inzwischen auch schon alte Karte zwar recht beachtlich. Aber selbst abgesehen davon, daß doch einige Features nicht vorhanden sind (DX9 vs. DX10.1), würde ich die etwa 60% Performance, die die X850 im Vergleich zur 3850 erreicht, nicht als beinahe gleich schnell bezeichnen ;)

Und Du hast Recht, die Diegröße ist dem Endkunden wirklich nicht so wichtig. Allerdings entscheidet sie mit darüber, ob eine Karte zu einem gewissen Preispunkt angeboten werden kann, was wiederum dem Endkunden wichtig ist ;)

MR2
2009-06-09, 23:25:22
@ gast

Niemand weis wie groß er wirklich ist..AMD hat es doch selbstredend verschleiert. Wenn dann kommt vielleicht ein Multichipmodul. Aber auf 4890 Niveau nicht. Jede Wette:-)

Gipsel
2009-06-09, 23:28:24
Das glaub ich aber ganz und gar nicht. Ich denke man kann mindestens von den schon genannten 1200 Shaderprozessoren ausgehen. 32ROPs, 48 TMUs bei 900MHz Takt.Dann müsste RV870 300mm² groß sein.
Verdoppele doch einfach mal in Gedanken den RV740.
Also meiner Rechnung nach kommen da sogar größere Einheitenzahlen bei raus und psst, einer davon hat nur 137mm² ;)

ShadowXX
2009-06-09, 23:30:24
Das glaub ich aber ganz und gar nicht. Ich denke man kann mindestens von den schon genannten 1200Shaderprozessoren ausgehen. 32ROPs, 48 TMUs bei 900MHz Takt.. Weniger wäre auch sinnlos, schon die GTX285 ist stark gewesen, wie es scheint kommt jetzt noch ne 4890 X2. Da würde sich eine 5870 auf dem Niveau wirklich nicht lohnen.

Und wo willst du das auf dem gezeigten Die unterbringen?

Ich gehe zwar auch davon aus, das der RV870 schneller sein wird als der RV790.....aber viel wird es nicht sein.
Und wehe ATI wollte massiv auf hohen Takt setzen.....

Verdoppele doch einfach mal in Gedanken den RV740.
Also meiner Rechnung nach kommen da sogar größere Einheitenzahlen bei raus und psst, einer davon hat nur 137mm² ;)
Und wieviel sind 2x137? Bei mir mehr als 180.

S940
2009-06-09, 23:31:38
Mittelbar assoziiert einen stetigen Anstieg des Preises mit der Die Größe.
Du assoziierst zuviel ... wieso sollte denn der mittelbare Einfluss stetig sein ?
Wenn Du ne Meldung über gestiegen Benzinpreise liest, die mittelbar von der politischen Situation in Nahost abhängt, steigen die dann auch stetig ?

Pro Terroranschlag genau +5% Aufschlag, oder wie ? ;D

ciao

Alex

Gast
2009-06-09, 23:42:28
Und wieviel sind 2x137? Bei mir mehr als 180.
+ mehr Redundanz + D3D11 = 300mm²

Spasstiger
2009-06-09, 23:45:20
+ mehr Redundanz + D3D11 = 300mm²
Und 180/300*1280 SPs = 768 SPs.
Oh, ziemlich genau 800 SPs wie beim RV770/RV790. Zufall?

MR2
2009-06-09, 23:45:24
Und wo willst du das auf dem gezeigten Die unterbringen?


Das Die war doch nicht echt...oder RV840...
Lildragon wird nicht nur 4890 Leistung haben, jede Wette.

Huddy:"um unserem Mitbewerber nicht den Hauch einer Information zu geben"..
Da wird man wohl nicht so blöd sein und nen original RV870 Wafer der Presse vorführen.

Spasstiger
2009-06-09, 23:56:04
Das Die war doch nicht echt...
AMD und TSMC geben natürlich einfach so zum Spass ein paar Millionen für die nötigen Masken aus, um einen Wafer mit Fakechips zu fertigen ...

ShadowXX
2009-06-10, 00:14:08
Das Die war doch nicht echt...oder RV840...
Lildragon wird nicht nur 4890 Leistung haben, jede Wette.

Huddy:"um unserem Mitbewerber nicht den Hauch einer Information zu geben"..
Da wird man wohl nicht so blöd sein und nen original RV870 Wafer der Presse vorführen.
Das hier hast du nicht mitbekommen, oder?

So, what are those code names? They are Cypress and Juniper. Cypress is the big chip, and Juniper is the mid-range part. ATI strongly hinted at the conference that the wafer was a Cypress...........

http://www.semiaccurate.com/2009/06/09/ati-evergreen-code-names-explained/

deekey777
2009-06-10, 00:17:34
Das hier hast du nicht mitbekommen, oder?

http://www.semiaccurate.com/2009/06/09/ati-evergreen-code-names-explained/
Wobei man den ganzen Absatz zitieren sollte.

ShadowXX
2009-06-10, 00:32:22
Wobei man den ganzen Absatz zitieren sollte.
So...

but I don't recall if a chip code name was explicitly stated.

Ich glaube nicht das das einen großen unterschied macht......speziell da es sich völlig mit dem widerspricht was er zuerst sagt:

...ATI strongly hinted at the conference that the wafer was a Cypress...


Sorry....aber der "Nachsatz" hört sich für mich eher danach an das er etwas einfach nicht glauben will.

Gipsel
2009-06-10, 01:02:06
Und wieviel sind 2x137? Bei mir mehr als 180.Bei mir sind das weniger als 300 ;)
+ mehr Redundanz + D3D11 = 300mm²
- ein paar TMUs/ROPs whatever - doppeltes UVD usw. - günstigeres Layout bei größeren Chips + DX11 < 300mm²
Zumindest falls es nur 1200 bis 1280 Shader mit 48TMUs werden sollten ist das Ding meiner Meinung nach unter 300mm². Oder die haben das Design auf einen deutlich höheren Takt (>1GHz) ausgelegt oder wahlweise noch eine andere Design-Überraschung.

Wieso sollten die mehr Redundanz einbauen? Der Chip wird doch nicht größer als RV770/790 und teildefekte Chips kann man doch wie jetzt auch schon die RV770LE mit reduzierter ALU/TMU-Zahl verticken.

Spasstiger
2009-06-10, 03:03:33
Bei mir sind das weniger als 300 ;)

- ein paar TMUs/ROPs whatever - doppeltes UVD usw. - günstigeres Layout bei größeren Chips + DX11 < 300mm²
Das sind aber nicht 180 mm².

reunion
2009-06-10, 07:35:03
Dann müsste RV870 300mm² groß sein.

Eine solche Aussage ist natürlich vollkommen fehl am Platz. Das kannst du gar nicht wissen.

Und 180/300*1280 SPs = 768 SPs.
Oh, ziemlich genau 800 SPs wie beim RV770/RV790. Zufall?

Milchmädchenrechung, das Ding hat ist kein Rv7xx.

Und wieviel sind 2x137? Bei mir mehr als 180.

Einheitenverdoppelung != Die-Size-Verdoppelung. Gewisse Dinge müssen eben nicht mitskaliert werden.

reunion
2009-06-10, 07:50:18
Das Die war doch nicht echt...oder RV840...
Lildragon wird nicht nur 4890 Leistung haben, jede Wette.

Huddy:"um unserem Mitbewerber nicht den Hauch einer Information zu geben"..
Da wird man wohl nicht so blöd sein und nen original RV870 Wafer der Presse vorführen.

Ich kann mir auch nicht vorstellen dass das Ding ein RV870 war. Erstens sagte Huddy das man der Konkurrenz nicht den Hauch einer Info geben wolle, da kommt es wohl nicht so gut eine Wafer herzuzeigen und abfotografieren zu lassen. Und außerdem werden schon heute wesentlich größere Dice für unter $100 verkauft, da kann man das anvisierte Preisziel zwischen $200-300 unmöglich halten. VZ-Zone sagte ja auch ausdrücklich das es ein RV830/RV840 sei und die hatten offensichtlich jemanden da drinnen wenn sie ein Foto machen konnten.

Ailuros
2009-06-10, 09:31:15
Unter der Vorraussetzung dass die originalen Geruechte ueber 1200SPs/48TMUs/32ROPs fuer RV870 ueberhaupt stimmen, koennte man theoretisch einen solchen chip nach den Einheiten wie folgend nach unten skalieren (und ja natuerlich koennte es noch andere scenarios geben):

240 ALUs (12 cluster * 20 SIMD) - 48 TMUs - 32 ROPs
200 ALUs (10 cluster * 20 SIMD) - 40 TMUs - 24 ROPs
160 ALUs (8 cluster * 20 SIMD) - 32 TMUs - 16 ROPs

KonKorT
2009-06-10, 11:08:59
Zwischen den von dir genannten Chips sind immer nur rund 20% Differenz in Bezug auf ALUs, TMUs und ROPs. Dafür entwickelt man keinen neuen Chip!

Unter der Annahme, dass RV870 12 SIMD-Einheiten hätte, sollte RV840 günstigenfalls auf 8 kommen. Ebenso sicher scheint auch, dass das Speicherinterface kleiner ausfällt.

Gipsel
2009-06-10, 11:14:52
Das sind aber nicht 180 mm².
Wenn Du im Thread nachliest, ging es gar nicht um die 180mm², sondern um die Behauptung des Gastes, ein (vermuteter) Cypress mit 1200 SPs wäre mindestens 300mm² groß. Nur darum ging es ;)

Ailuros
2009-06-10, 11:59:21
Zwischen den von dir genannten Chips sind immer nur rund 20% Differenz in Bezug auf ALUs, TMUs und ROPs. Dafür entwickelt man keinen neuen Chip!

Unter der Annahme, dass RV870 12 SIMD-Einheiten hätte, sollte RV840 günstigenfalls auf 8 kommen. Ebenso sicher scheint auch, dass das Speicherinterface kleiner ausfällt.

Es war lediglich ein Schritt fuer Schritt theoretisches Beispiel; ungerade Cluster Zahlen kommen ja nicht in Frage; irgendwie muss man ja auch illustrieren was zwischen A und C fuer ein theoretischer Abstand in die area liegen koennte oder?

Wenn Du im Thread nachliest, ging es gar nicht um die 180mm², sondern um die Behauptung des Gastes, ein (vermuteter) Cypress mit 1200 SPs wäre mindestens 300mm² groß. Nur darum ging es ;)

Mindestens 300mm2 wohl tatsaechlich nicht, aber ich schaetze weiterhin um die 250mm2.

Nakai
2009-06-10, 13:14:43
Also der 40nm-Prozess halbiert bei perfekter Fertigung ungefähr die Fläche zu 55nm.
Der RV770 hat etwa 260mm², der hier gezeigte RV8xx-Chip hat um die 180mm². Rechne ich den RV8xx-Chip auf 55nm hoch, erhalte ich etwa 300mm². Das wäre imo sehr gut möglich um ein RV770 mit DX11-Fähigkeiten zu sein. Aber davon gehe ich nicht aus. Das Design ist sehr flexibel. Man muss was geändert haben.

240 ALUs (12 cluster * 20 SIMD) - 48 TMUs - 32 ROPs
200 ALUs (10 cluster * 20 SIMD) - 40 TMUs - 24 ROPs
160 ALUs (8 cluster * 20 SIMD) - 32 TMUs - 16 ROPs

20er SIMDs sehen gut aus, finde ich aber zu wenig. Ich gehe mal von 24er SIMDs aus und doppelt so großen Textureinheiten(oder doppelte Filterungseinheiten pro TMU). Ich glaube, dass man hier auf Nummer sich gegangen ist.

Für RV840:
192 ALUs (8 cluster * 24 SIMD) - 32 DoppelTMUs - 16 ROPs

Mehr als 16 ROPs denke ich nicht.

Der RV870 machts wieder ein bisschen anders. Ich gehe davon aus, dass das MCM-Zeug und das ganze CF-Zeug viel Platz wegfrisst.

256 ALUs (16 cluster * 16 SIMD) - 64 DoppelTMUs - 32 ROPS


IMO würde der RV840 den RV770 ersetzen(RV740 bleibt vorerst erhalten) und der RV870 wird etwa 60% schneller sein als der RV770/790.

RV870 175%
RV790 110%
RV770 100%
RV830 90%


Achja das ist alles nur Speku und kann deshalb nicht für voll genommen werden.


mfg Nakai

Ailuros
2009-06-10, 13:31:33
Also der 40nm-Prozess halbiert bei perfekter Fertigung ungefähr die Fläche zu 55nm.
Der RV770 hat etwa 260mm², der hier gezeigte RV8xx-Chip hat um die 180mm². Rechne ich den RV8xx-Chip auf 55nm hoch, erhalte ich etwa 300mm². Das wäre imo sehr gut möglich um ein RV770 mit DX11-Fähigkeiten zu sein. Aber davon gehe ich nicht aus. Das Design ist sehr flexibel. Man muss was geändert haben.

Und jeglicher X11 Zusatz ist umsonst?

20er SIMDs sehen gut aus, finde ich aber zu wenig. Ich gehe mal von 24er SIMDs aus und doppelt so großen Textureinheiten(oder doppelte Filterungseinheiten pro TMU). Ich glaube, dass man hier auf Nummer sich gegangen ist.

Für RV840:
192 ALUs (8 cluster * 24 SIMD) - 32 DoppelTMUs - 16 ROPs

Mehr als 16 ROPs denke ich nicht.

Der RV870 machts wieder ein bisschen anders. Ich gehe davon aus, dass das MCM-Zeug und das ganze CF-Zeug viel Platz wegfrisst.

256 ALUs (16 cluster * 16 SIMD) - 64 DoppelTMUs - 32 ROPS


IMO würde der RV840 den RV770 ersetzen(RV740 bleibt vorerst erhalten) und der RV870 wird etwa 60% schneller sein als der RV770/790.

RV870 175%
RV790 110%
RV770 100%
RV830 90%


Achja das ist alles nur Speku und kann deshalb nicht für voll genommen werden.


mfg Nakai

Erstens hab ich klipp und klar betont dass ich mich an die Specs der Geruechte gehalten habe und zweitens wird ATI nicht so bloed sein und SIMDs auf 2 Schienen zu entwickeln (nix da mit 24 und 20 in einer Familie).

KonKorT
2009-06-10, 13:40:47
Es war lediglich ein Schritt fuer Schritt theoretisches Beispiel; ungerade Cluster Zahlen kommen ja nicht in Frage; irgendwie muss man ja auch illustrieren was zwischen A und C fuer ein theoretischer Abstand in die area liegen koennte oder?
Es erweckte in mir die Aussage, dass so drei künftige Chips (RV870, RV840, RV830?) aussehen könnten und ich wollte lediglich klarstellen, dass hier die Unterschiede größer ausfallen werden.

20er SIMDs sehen gut aus, finde ich aber zu wenig. Ich gehe mal von 24er SIMDs aus und doppelt so großen Textureinheiten(oder doppelte Filterungseinheiten pro TMU). Ich glaube, dass man hier auf Nummer sich gegangen ist.
Zu wenig, auf Nummer sicher gehen? Du weißt schon, dass sich die Branch-Granularität mit mehr SPs pro SIMD-Cluster verschlechtert?
Man verwendet seit R600 16 SPs pro SIMD-Cluster und ich wüsste keinen vernünftigen Grund, warum man das mit RV870 ändern sollte, wenngleich die (unbestätigten) Specs von ATI-Forum nahelegen, dass es jetzt 20 SPs pro Cluster werden.

[...] wird ATI nicht so bloed sein und SIMDs auf 2 Schienen zu entwickeln (nix da mit 24 und 20 in einer Familie).
Im Mainstream und Low-End hat man zurzeit auch nur 8 statt 16 SPs pro SIMD-Cluster.
Dies soll aber nicht heißen, dass ich Nakais Ausführungen für richtig erachte. Wie erwähnt, werden es <= 20 SPs pro SIMD-Cluster sein und bei leistungsschwächeren Grafikchips vielleicht (wieder) etwas weniger.

Ailuros
2009-06-10, 13:42:30
Es erweckte in mir die Aussage, dass so drei künftige Chips (RV870, RV840, RV830?) aussehen könnten und ich wollte lediglich klarstellen, dass hier die Unterschiede größer ausfallen werden.

So war es nicht gemeint ;)

Zu wenig, auf Nummer sicher gehen? Du weißt schon, dass sich die Branch-Granularität mit mehr SPs pro SIMD-Cluster verschlechtert?
Man verwendet seit R600 16 SPs pro SIMD-Cluster und ich wüsste keinen vernünftigen Grund, warum man das mit RV870 ändern sollte, wenngleich die (unbestätigten) Specs von ATI-Forum nahelegen, dass es jetzt 20 SPs pro Cluster werden.

Bei 4 mehr SIMDs waechst die "Anfrage" an die ROPs um die 25% afaik ;)

Nakai
2009-06-10, 13:48:33
Und jeglicher X11 Zusatz ist umsonst?



Erstens hab ich klipp und klar betont dass ich mich an die Specs der Geruechte gehalten habe und zweitens wird ATI nicht so bloed sein und SIMDs auf 2 Schienen zu entwickeln (nix da mit 24 und 20 in einer Familie).

Hat man doch schon gemacht, tut man immer noch.
RV610, RV630, RV710

Mir sind die Gerüchte egal, ATI muss etwas bringen um das alte Portfolio zu ersetzen oder zu erweitern. RV770 wird auf langer Sicht eh nicht mehr zu finden sein. RV740 und RV790 wird man noch etwas länger sehen können.

Der RV870 sollte doch der ursprüngliche R700 sein. Also zwei Chips welche sich den Speicher teilen. Das wird bestimmt auch nicht wenig DIE-Fläche kosten, vor allem für den Interconnect der beiden Chips. Der RV840 hat das wohl nicht, deswegen wird er deutlich kleiner sein. Ich glaube nicht, dass der RV870 so stark wird, wie von RV670 auf RV770. DX11 und die Verbindung zwischen den Chips kosten auch was. Der RV840 wird das wohl nicht benötigen.

Mir ist es prinzipiell auch egal, wie der RV840 und RV870 aussehen werden. Aber man muss auch berücksichtigen, dass man gewisse Leistungsziele erreichen muss. Wenn man das mit 20er SIMDs erreichen kann, dann ist das okay.


mfg Nakai

Ailuros
2009-06-10, 14:04:02
Hat man doch schon gemacht, tut man immer noch.
RV610, RV630, RV710

Welcher dieser hat mehr als 16 SIMDs genau?

Mir sind die Gerüchte egal, ATI muss etwas bringen um das alte Portfolio zu ersetzen oder zu erweitern. RV770 wird auf langer Sicht eh nicht mehr zu finden sein. RV740 und RV790 wird man noch etwas länger sehen können.

RV740 wird schon seinen Nutzen haben, aber ob 790 genauso lange leben wird ist fraglich.

Der RV870 sollte doch der ursprüngliche R700 sein. Also zwei Chips welche sich den Speicher teilen.

Und was soll dieses umwerfendes bringen selbst theoretisch? Anders gefragt werden in solch einem Fall Texturen dupliziert oder nicht?

Das wird bestimmt auch nicht wenig DIE-Fläche kosten, vor allem für den Interconnect der beiden Chips. Der RV840 hat das wohl nicht, deswegen wird er deutlich kleiner sein. Ich glaube nicht, dass der RV870 so stark wird, wie von RV670 auf RV770. DX11 und die Verbindung zwischen den Chips kosten auch was. Der RV840 wird das wohl nicht benötigen.

Siehe oben.

Mir ist es prinzipiell auch egal, wie der RV840 und RV870 aussehen werden. Aber man muss auch berücksichtigen, dass man gewisse Leistungsziele erreichen muss. Wenn man das mit 20er SIMDs erreichen kann, dann ist das okay.


mfg Nakai

Ein Leistungsziel waere theoretisch bis zu 2xMal RV770 Leistung mit einer RV870 zu erreichen. Unter Umstaenden koennte es schon hinhauen aber nur so lange die Bandbreite nicht zu stark limitiert.

KonKorT
2009-06-10, 14:20:09
Der RV870 sollte doch der ursprüngliche R700 sein. Also zwei Chips welche sich den Speicher teilen.
Ehm, nein, nicht das ich wüsste.

Ich glaube nicht, dass der RV870 so stark wird, wie von RV670 auf RV770. DX11 und die Verbindung zwischen den Chips kosten auch was.
Ja? In Post 1073 hast Du ihm immerhin 75 Prozent mehr Performance als RV770 attestiert.

Ein Leistungsziel waere theoretisch bis zu 2xMal RV770 Leistung mit einer RV870 zu erreichen. Unter Umstaenden koennte es schon hinhauen aber nur so lange die Bandbreite nicht zu stark limitiert.
Bin mehr als skeptisch, dass eine Leistungsverdopplung hinhaut.

Nakai
2009-06-10, 14:27:25
Welcher dieser hat mehr als 16 SIMDs genau?

Keiner, aber du gingst vo zwei SIMD-Schienen in einer Architektur aus und dies war schon öfter der Fall.

Und was soll dieses umwerfendes bringen selbst theoretisch? Anders gefragt werden in solch einem Fall Texturen dupliziert oder nicht?

Kann ich nicht beantworten, da ich nicht weiß, wie es genau gehandhabt wird.
Dazu gibt es doch auch mehrere Ansätze. Ich dachte, ATI verfolgt den Ansatz mit einer MasterGPU und einer SlaveGPU. Da müsste der Interconnect der beiden Chips mindestens der Speicherbandbreite betragen. Oder beide GPUs haben einen Speicher, welche von der anderen benutzt werden kann. So oder so, ich gehe nicht mehr als 64GB/s für den Interconnect aus. Ergo Texturen und andere bandbreitenlastige Elemente werden wohl dupliziert werden. Wie gesagt, ich kanns nicht beantworten.

Siehe oben.

Man braucht den halben Speicher, für zwei GPUs?
Ergo weniger Kosten, da weniger Speicherchips. Natürlich bringt das auch Nachteile mit sich.

Ein Leistungsziel waere theoretisch bis zu 2xMal RV770 Leistung mit einer RV870 zu erreichen. Unter Umstaenden koennte es schon hinhauen aber nur so lange die Bandbreite nicht zu stark limitiert.

Ich bezweifle, dass man dies mit etwa 50% mehr Recheneinheiten erreichen kann. Effizienzsteigerungen erwarte ich auch nicht, außer man hat den Aufbau grundlegend geändert um die SIMDs besser auszulasten. Da bleibt nur noch der Takt.


mfg Nakai


€: Ehm, nein, nicht das ich wüsste.

Naja, dann kann man das bei mir rausstreichen...lol

€:Ja? In Post 1073 hast Du ihm immerhin 75 Prozent mehr Performance als RV770 attestiert.


RV770 hatte mehr als doppelt soviele Einheiten, wie der RV670. Hätte der RV870 240SPs und erhöhten Takt, dann wäre eine Leistungssteigerung von 75% möglich.

Gast
2009-06-10, 15:37:42
Da bleibt nur noch der Takt.

Genau hier zeigt RV790, das die hohe Packungsdichte des RV770 nicht weiter gefahren werden kann.

turboschlumpf
2009-06-10, 18:06:29
Also der 40nm-Prozess halbiert bei perfekter Fertigung ungefähr die Fläche zu 55nm.
Theoretisch beträgt die Flächenskalierung 0,53. Praktisch wird die Skalierung von Logikfläche aber wohl kaum besser sein als 0,70. Siehe hier (http://www.chip-architect.org/news/2007_02_19_Various_Images.html).

Der RV770 hat etwa 260mm², der hier gezeigte RV8xx-Chip hat um die 180mm². Rechne ich den RV8xx-Chip auf 55nm hoch, erhalte ich etwa 300mm².Wie kommst du auf 300 mm²? Theoretisch wären es 180 mm² / 0,53 = 340 mm² und praktisch wohl eher 180 mm² / 0,70 = 257 mm².

AnarchX
2009-06-10, 18:17:55
Theoretisch beträgt die Flächenskalierung 0,53. Praktisch wird die Skalierung von Logikfläche aber wohl kaum besser sein als 0,70. Siehe hier (http://www.chip-architect.org/news/2007_02_19_Various_Images.html).

Wir haben doch RV740 (826M Transitoren bei 137mm² -> 6,03MT/mm²), RV730 und RV770 liegen zwischen 3,52 und 3,73.

Da RV730 von der Größe am ehesten ergleichbar ist, liegt der Skalierung bei 0,583.

=Floi=
2009-06-11, 03:22:42
ist doch eh nicht so wchtig. wenn der chip nur 1200 shadereinheiten und max. 50% der leistung eines G300 hat, dann ist er eh unineresannt. das wird keinen vom hocker reissen und man wird sich den schnelleren karten zuwenden.

Ailuros
2009-06-11, 10:48:05
Keiner, aber du gingst vo zwei SIMD-Schienen in einer Architektur aus und dies war schon öfter der Fall.

Nirgends. Alle R6x0/RV6x0/RV7x0 haben stets 16 SIMDs.

Kann ich nicht beantworten, da ich nicht weiß, wie es genau gehandhabt wird.
Dazu gibt es doch auch mehrere Ansätze. Ich dachte, ATI verfolgt den Ansatz mit einer MasterGPU und einer SlaveGPU. Da müsste der Interconnect der beiden Chips mindestens der Speicherbandbreite betragen. Oder beide GPUs haben einen Speicher, welche von der anderen benutzt werden kann. So oder so, ich gehe nicht mehr als 64GB/s für den Interconnect aus. Ergo Texturen und andere bandbreitenlastige Elemente werden wohl dupliziert werden. Wie gesagt, ich kanns nicht beantworten.

Sobald Texturen pro chip dupliziert werden muessen geht Dir der Zweck einer solchen Idee sofort den Bach runter. Natuerlich hilft geteilter Speicher etwas aber eine richtige Loesung fuer das Speicherproblem ist es immer noch nicht.

Anders wenn sich eine hypothetische 58x0 X2 wirklich gegen eine hypothetische GTX380 mit 2GB Speicher stellen will, wird es verdammt eng fuer die erste falls sie nur 2GB geteilten Speicher haben sollte. Man ist hoechstwahrscheinlich sowieso schon von der Bandbreite pro chip begrenzt.

Man braucht den halben Speicher, für zwei GPUs?
Ergo weniger Kosten, da weniger Speicherchips. Natürlich bringt das auch Nachteile mit sich.

Der Nachteil ist zu niedrige Leistung bei hohen Aufloesungen.

Ich bezweifle, dass man dies mit etwa 50% mehr Recheneinheiten erreichen kann. Effizienzsteigerungen erwarte ich auch nicht, außer man hat den Aufbau grundlegend geändert um die SIMDs besser auszulasten. Da bleibt nur noch der Takt.

Nur sind leider nur die Rechenheiten von sich allein nicht der entscheidende Faktor fuer die Leistung einer GPU. Wie schon zich Male erwaehnt ich erwarte eine gesunde Effizienz-steigerung in primitiveren Stellen einer jeglichen X11 GPU wie u.a. rasterizing, tri-setup usw, eben genau da wo zich Entwickler sich etliche Male darueber geaeussert haben dass heutige GPUs kraenkeln. Es wuerde dann auch sofort eine logische Erklaerung geben warum eine hypothetische RV870 auch 32 ROPs oder besser 32 Pixel/Takt bearbeiten kann.


RV770 hatte mehr als doppelt soviele Einheiten, wie der RV670. Hätte der RV870 240SPs und erhöhten Takt, dann wäre eine Leistungssteigerung von 75% möglich.

Nochmal seit wann definieren nur die ALUs die insgesamte Leistung einer GPU?

Rein theoretisch hat nach den Geruechten eine 870 im Vergleich zu einer 770:

Arithmetische Leistung = + 80%
Texel Fuellrate = +44%
Pixel Fuellrate = +140%
Bandbreite = +22%

Wir haben hier mit einer total neuen technologischen Generation zu tun und man kann auf keinen Fall etwas hier auf RV770 oder GT200 Basis einschaetzen. Zumindest nicht wenn man nicht weiss was in manchen Grundsaetzen der Architektur geaendert wurde der erstmal die enorme Steigerung der Pixelfuellrate gerechtfertigt.

Anders wir wissen viel zu wenig ueber die kommenden GPUs und jegliche Vorhersage ohne zu wissen wie diese genau aussehen koennte stark daneben liegen.

ist doch eh nicht so wchtig. wenn der chip nur 1200 shadereinheiten und max. 50% der leistung eines G300 hat, dann ist er eh unineresannt. das wird keinen vom hocker reissen und man wird sich den schnelleren karten zuwenden.

Es gilt nach wie vor das oben erwaehnte; aber:

5870X2 @950MHz = 4.56 TFLOPs
GTX360 @1.6GHz = 2.46 TFLOPs

igg
2009-06-11, 12:23:34
5870X2 @950MHz = 4.56 TFLOPs
GTX360 @1.6GHz = 2.46 TFLOPs
Damit wären RV870 und GT300 zumindest was die TFLOPS angeht relativ nah (2.28, 2.46)

X.Perry_Mental
2009-06-11, 12:46:54
Damit wären RV870 und GT300 zumindest was die TFLOPS angeht relativ nah (2.28, 2.46)
Bei der Chipfläche wohl eher nicht...

Ailuros
2009-06-11, 13:00:53
Damit wären RV870 und GT300 zumindest was die TFLOPS angeht relativ nah (2.28, 2.46)

Nur die X2 soll auf 950MHz getaktet sein; die einzelne RV870 soll auf 900MHz kommen.

***edit: wobei uebrigens RV770/1200GFLOPs vs. GT200/933GFLOPs

Botcruscher
2009-06-11, 13:46:48
Wie steht den die Chancen auf verbessertes AF?

KonKorT
2009-06-11, 13:57:43
Nirgends. Alle R6x0/RV6x0/RV7x0 haben stets 16 SIMDs.
RV710 und RV730 haben beispielsweise nur 8 statt 16 SPs pro SIMD-Cluster.

horn 12
2009-06-11, 14:02:42
@Ailuros

Was denkt du, kann man vom RV870 (HD5870) in etwa mit einer Performancesteigerung gegenüber einer HD4890 1Ghz von 35-40% rechnen, mehr werden wohl nicht drinnen sein, also ca. 75% einer HD4870 X2 Karte.
Dazu wird aber wieder mal der Preis verlockend sein, knappe 300 Euro wäre dies allemal Wert für eine Single GPU Karte.

crux2005
2009-06-11, 14:18:41
Wie steht den die Chancen auf verbessertes AF?

imho schlecht, erst mit der nächsten gen. wird vieleicht etwas mit dem AF/TMUs/A.I. gemacht

Ailuros
2009-06-11, 15:17:35
@Ailuros

Was denkt du, kann man vom RV870 (HD5870) in etwa mit einer Performancesteigerung gegenüber einer HD4890 1Ghz von 35-40% rechnen, mehr werden wohl nicht drinnen sein, also ca. 75% einer HD4870 X2 Karte.
Dazu wird aber wieder mal der Preis verlockend sein, knappe 300 Euro wäre dies allemal Wert für eine Single GPU Karte.

Ich kann es nicht wissen; jeder IHV zielt normalerweise bei jeder Generation traditionell bis zu 2xMal die Leistung des Vorgaengers an. Nur 40% ueber der 4890 waere stinklangweilig und ich traue ATI viel mehr als solches zu. Es gibt hier 2 Moeglichkeiten: entweder ATI verarscht wieder mit Absicht alle (siehe 480 vs. 800SP Spekulationen fuer RV770 vor dem Launch) oder die Specs der Geruechte stimmen und es gibt (wie schon oefters erwaehnt) erhebliche Effizienz-steigerungen im chip die jemand mit ein paar Zahlen einfach nicht vorhersehen kann.

Ich tendiere eher auf den zweiten Fall, eben weil ich auch den Verdacht habe dass sich ATI beim RV870 auf jeden Fall bei =/<250mm2 halten wird. Alles darueber wuerde sich in einem weniger optimalen perf/mm2 Bereich gegenueber "G300" bewegen.

RV710 und RV730 haben beispielsweise nur 8 statt 16 SPs pro SIMD-Cluster.

Ich muss mich mehr mit den kleineren GPUs beschaeftigen wuerde ich sagen *schluck*. Auf jeden Fall muss ich mich dafuer entschuldigen.

=Floi=
2009-06-11, 16:34:37
eine dual-gpu mit einer single-gpu karte zu vergleichen halte ich aber schon für grenzwertig. 1. kommt da in games nicht die doppelte power an (auf das spielst ja ausgerechnet DU so oft an) 2. kann ich bei ati keine profile editieren und deren mgpu ist zz noch für den popo.
dual-gpu pcbs werden schon alleine aus platzmangel eine noch stärker abgeschwächte stromversorgung haben!

Gast
2009-06-11, 16:58:05
Wie steht den die Chancen auf verbessertes AF?

nach den aktuellen Gerüchten von +50% SPs und nur +20% TMUs sehr schlecht.

Ailuros
2009-06-14, 09:06:31
eine dual-gpu mit einer single-gpu karte zu vergleichen halte ich aber schon für grenzwertig.

Was heisst grenzwertig? Hat AMD eine andere Antwort was das high end Segment betrifft? Wenn ich fuer Zeitraum X von der einen Seite eine high end single chip GPU bei Preis A und von der anderen Seite eine high end dual chip GPU bei Preis B habe werde ich was mit was genau vergleichen?

1. kommt da in games nicht die doppelte power an (auf das spielst ja ausgerechnet DU so oft an)

Was hat das eine mit dem anderen zu tun? Man kann solchen Vergleichen nicht entgehen wenn es nur solche Produkte auf den Regalen gibt.

So und jetzt zurueck zum Thema:

http://www.xbitlabs.com/news/video/display/20090611123755_Game_Developers_Likely_to_Utilize_Performance_Boosting_Features_o f_DirectX_11_First__ATI.html

“As soon as I got hold of DirectX 11 API from Microsoft and Windows 7 beta, which they’ve had for a considerable amount of months now, I would add multi-threading support through the use of Display Lists because that can guarantee me a speed up in almost any application I can think of. Typical benefit is going to be around 20%, but I expect a large variation of that; the variation it can be north of 50%,” explained the developer relations specialist.

What is even more important, software developed with DirectX 11 Display Lists in mind would work faster on every hardware that is compatible with Windows 7, provided that there are appropriate drivers for graphics cards.

“That would be attractive to game developers since that would not require that I have DirectX 11 hardware at hand: the use of Display Lists will give a benefit on any Windows 7 hardware, which includes DirectX 9, DirectX 10, DirectX 11 hardware, once AMD, Nvidia and others ship appropriate drivers that offer the acceleration,” said Richard Huddy.

Kann jemand hier dem Laien vielleicht etwas genauer erklaeren was mit Display Lists hier genau gemeint wird? :confused:

***edit: und ja natuerlich hatte ich Anand's X11 damals gelesen ueber deferred contexts und co nur kann ich das Ganze als Laie nicht auf Anhieb verstehen....anders inwiefern kann X11 deferred context effizienter behandeln als X10?

Gast
2009-06-15, 17:54:11
Was würdet ihr von folgender These halten :

AMD hat uns bisher alle so ziemlich an der Nase rumgeführt, und der Wafer denn sie gezeigt haben war nicht unbedingt RV 870. Denn wenn ich mir das alles so zusammenreime, denn verschleiert AMD diesmal noch mehr als bei RV 770.

Was würdet ihr davon halten ?

Ailuros
2009-06-15, 22:03:02
Was würdet ihr von folgender These halten :

AMD hat uns bisher alle so ziemlich an der Nase rumgeführt, und der Wafer denn sie gezeigt haben war nicht unbedingt RV 870. Denn wenn ich mir das alles so zusammenreime, denn verschleiert AMD diesmal noch mehr als bei RV 770.

Was würdet ihr davon halten ?

Wie viele glauben denn eigentlich dass es sich um RV870 handelte?

BlackBirdSR
2009-06-16, 00:13:58
Was würdet ihr von folgender These halten :

AMD hat uns bisher alle so ziemlich an der Nase rumgeführt, und der Wafer denn sie gezeigt haben war nicht unbedingt RV 870. Denn wenn ich mir das alles so zusammenreime, denn verschleiert AMD diesmal noch mehr als bei RV 770.

Was würdet ihr davon halten ?

Gute Idee, AMD überrascht uns noch mehr als beim RV790. Es wird noch mehr Performanceüberraschungen, noch mehr unbekannte Features und noch mehr WoW-Momente geben als wir uns vorstellen können....

Meist ist das doch Wunschdenken.

Ailuros
2009-06-16, 00:42:53
Gute Idee, AMD überrascht uns noch mehr als beim RV790. Es wird noch mehr Performanceüberraschungen, noch mehr unbekannte Features und noch mehr WoW-Momente geben als wir uns vorstellen können....

Meist ist das doch Wunschdenken.

Er hat aber vielleicht schon irgendwo recht denn der ~180mm2 die der gezeigt wurde duerfte irgendwo um die 1Mrd. Transistoren unterbringen koennen und das klingt mir verdammt wenig fuer eine Performance X11 GPU.

horn 12
2009-06-16, 00:48:09
Nun gut, die HD4870 512/1GB Karte ist ein Abverkauf, und sollte bald sehr rar werden,-
die HD4890 1Ghz wird die Lücke zwischen dem RV740 und dem RV870 schliessen, da es wohl bald übertaktete Versionen des RV740 geben wird, ebenso neue KühlerLösungen.
Sobal die HD4850 - 4870 raus sind, ist die GEFAHR NICHT MEHR GEGEBEN DIESE ZU ÜBERTRUMPFEN bei den GENIALEN OC Werten des RV740 mit ALTERNATIVKÜHLERN, sprich Sapphire Design und Co.

Geht man vom im Moment zu erwartenden Preis einer HD5870 aus, (um die 300Euro) so sollte diese mindestens 50-60% flotter als eine HD4890 1Ghz werden,- um den Preis zu rechtfertigen---> sprich 180/190 Euro zu ca. 300 Euro.

aylano
2009-06-16, 02:12:00
Gute Idee, AMD überrascht uns noch mehr als beim RV790. Es wird noch mehr Performanceüberraschungen, noch mehr unbekannte Features und noch mehr WoW-Momente geben als wir uns vorstellen können....

Meist ist das doch Wunschdenken.
RV670 wäre ja auch nichts besonderes, wenn R600 nicht so daneben gegangen wäre.

RV790 ist ja auch eine kleine Überraschung.
Ist ja nur ein RV770 mit OC Eigenschaften.
Eigentlich so wie ich es am Anfang dachte.
Entwedern ein neuer Die mit mehr Shader & Co oder der selbe mit einer neuen Technologie.
Aber damals dachte ich eher an einer Verbindungstechnologie, die den ineffizenten X2 ersetzen könnte.

Ich finde es nicht so schlecht, wenn AMD Features ausprobiert.
Denn ich kann mich gut erinnern, als AMD eine HD 2600 X2 probierte. Damals wurde das ziemlich belächelt, aber Monate später konnte sie Nvidia prestigemäßig vom Thron werfen.

RV770 wurde auf Wirtschaftlichkeit und auf 300/150/110 Watt ausgelegt und konnte GT200 einen Schock verpassen.
Während GT200b auf Yiedrate/Wirtschaftlichkeit sowie auf einen niederen Stromverbrauch nahe RV770 hinoptimiert wurde, wurde RV790 auf OC optimiert.
Klar, dass die RV770 bzw. RV790 nicht ganz so stromsparend wirkt, weil es eben nie die erste Priorität hatte.
(Soviel ich weiß, hatten sie auch eine höhere Volt als Nvidia)

Das ist nicht ganz unwichtig, vorallem wenn die Gerüchte stimmen, dass der RV7x0 nicht mehr weit von DX11 ist.

Ich denke, ATI wird eine größere Überraschung bringen.
Entweder Negative oder Positive.

Positiv, wenn die 180mm² ein RV840 wird und negative, weil ATI bei Einführung einer neuen DX-Serie manchmal es ziemlich vermasselte ala R600.

Gast
2009-06-16, 09:45:41
GT200b war nur ein Shrink um die Kosten zu drücken, der wahre Gegner in Form des GT210/212 ist gecancelt worden und erscheint in beschnittener Form nun als Mobile GPU.
Alle DX10 GPUs sind nicht "weit" von DX11 entfernt.

mboeller
2009-06-16, 09:46:27
http://www.nordichardware.com/news,9486.html


The hardware was performance level, not high-end

AMD is very confident about its coming DirectX 11 lineup and even though it used the same performance level hardware, and not high-end, it claimed it was the fastest single-GPU graphics card on the market

reunion
2009-06-16, 10:14:42
They said that the upcoming launch will be even more of a surprise than when they shocked the world with the 800sp RV770 GPU, still vague but very intriguing.

Na da bin ich mal gespannt. Jedenfalls scheint AMD wieder jedemenge Fud zu verbreiten. Während die Specs des GT300 feststehen hat man bei RV8xx, Evergreen oder wie auch immer im Grunde keine Ahnung.

igg
2009-06-16, 10:20:00
Hm, NordicHardware fiel mir vor dem GT200 (und GT200b) Launch mit einigen falschen Prophezeiungen auf.

Haben CJ oder dieser Typ aus China (phk oder so?) bereits was gesagt?

Coda
2009-06-16, 14:04:43
Ich denke das High-End einfach X2 wird. Und dass der Performance-Chip derzeit der schnellste auf dem Markt wird wenn er vor GT300 rauskommt ist auch klar.

Spasstiger
2009-06-16, 14:28:06
Gerüchteweise soll ja auch die Xbox 360 Ende nächsten Jahres mit einer SM5-fähigen GPU aufgestockt werden. Wäre es denkbar, dass man diese GPU auf den Fotos präsentiert hat?
Denn auf 180 mm² bringt man wohl nur schwer den RV870 unter, wenn er tatsächlich schneller werden soll als der GT200b und dazu noch DX11 unterstützt.

reunion
2009-06-16, 14:33:33
Es könnte genau so gut irgend eine Testwafer von TSMC gewesen sein, ich würde mir um die Wafer keine Gedanken machen. Man hat selbst die Frameangaben verfälscht und die Karte nur unter strengster Geheimhaltung gezeigt, aber mit dem Die geht man hausieren? Never. Zumal das Die wenn man es mal genauer betrachtet sehr seltsam aussieht mit diesen vier Blöcken.

Coda
2009-06-16, 16:13:02
Gerüchteweise soll ja auch die Xbox 360 Ende nächsten Jahres mit einer SM5-fähigen GPU aufgestockt werden
Ganz sicher nicht.

BlackBirdSR
2009-06-16, 16:14:56
Ganz sicher nicht.

Ich stelle mir das Chaos vor, wenn 2 Renderpfade für ein Konsolenspiel entwickelt werden müssten. Mehr Aufwand, mehr QA, mehr Chaos bei der Produktpalette. Man hätte einen schleichenden Generationenwechsel wie beim PC. Das gabs bei Konsolen bisher noch nicht in dieser Form. Würde MS das wirklich anfangen wollen?

Coda
2009-06-16, 16:20:04
Das Problem ist vor allem, dass das "DirectX" auf der Xbox 360 viel näher an der Hardware ist und eigentlich nur eine Library ist die in die Spiele gelinkt wird und dann direkt auf die GPU-Register zugreift.

Der neue Chip müsste also vollständig registerkompatibel sein und außerdem in einem Kompatibilitätsmodus genau die gleiche Performance liefern.

Err. Nein?

Spasstiger
2009-06-16, 16:24:30
Der neue Chip müsste also vollständig registerkompatibel sein und außerdem in einem Kompatibilitätsmodus genau die gleiche Performance liefern.
Wieso genau die gleiche Performance? Wäre doch schön, wenn man GTA IV auf der Xbox 360 auch mal mit 50 fps statt 25 fps oder in 1920x1080 statt 1280x720 zocken könnte.

Coda
2009-06-16, 16:26:48
Weil es immer Software gibt die dann nicht mehr funktioniert (race conditions), zu schnell läuft, o.ä.

_flx
2009-06-16, 16:27:01
würde dann wahrscheinlich auch bedeuten das gewisse Dinge unkontrollierbar schneller laufen als zuvor...


edit: grml zu spät >_>

Gast
2009-06-16, 16:31:37
Warum sollte man keine Huckepack-Lösung realisieren können:
Xbox360 II => Daughter-platine dazu = fertig!
Die HW kostet doch kaum was...

Coda
2009-06-16, 16:34:49
Die HW kostet doch kaum was...
Ja ne, is klar :hammer:

_DrillSarge]I[
2009-06-16, 16:41:46
Gerüchteweise soll ja auch die Xbox 360 Ende nächsten Jahres mit einer SM5-fähigen GPU aufgestockt werden.
wie will man das realisieren? eine neue xbox365 rausbringen oder ein package zum selberauflöten :D?

igg
2009-06-16, 16:50:50
Neue Xbox Revision, wie schon so oft.

Coda
2009-06-16, 17:04:36
Wie schon so oft wird sich aber auch dieses Mal nichts an der Spezifikation ändern.

Gast
2009-06-16, 17:09:30
"Xbox 360 soll neue Hardware erhalten"

http://www.computerbase.de/news/consumer_electronics/konsolen/microsoft/2009/juni/xbox_360_hardware/

Coda
2009-06-16, 17:20:10
Wir werden sehen. Ich gehe sehr stark davon aus, dass sich da nur mal wieder jemand wichtig machen will.

Wenn es solche Änderungen gibt, dann wird die Konsole anders heißen und inkompatibel zur Xbox 360 sein. Und das ist nächstes Jahr noch etwas früh.

Überhaupt muss die Xbox 360 zur PS3 überhaupt nirgendwo "aufschließen". Das was da angedacht wird ist der PS3 mehr als deutlich überlegen.

mboeller
2009-06-16, 17:27:58
Wir werden sehen. Ich gehe sehr stark davon aus, dass sich da nur mal wieder jemand wichtig machen will.

Wenn es solche Änderungen gibt, dann wird die Konsole anders heißen und inkompatibel zur Xbox 360 sein. Und das ist nächstes Jahr noch etwas früh.

Überhaupt muss die Xbox 360 zur PS3 überhaupt nirgendwo "aufschließen". Das was da angedacht wird ist der PS3 mehr als deutlich überlegen.


Ja, vor allem weil Microsoft gesagt hat/haben soll das die XBox360 eine Lebensdauer von 10 Jahren haben soll (wie auch die PS3)

Coda
2009-06-16, 17:31:01
Das halte ich genauso für ein Gerücht. Die Hardware wäre hoffnungslos veraltet.

mrt
2009-06-16, 17:39:41
Mit der Aussage war auch eher die Supportdauer gemeint und das ist nicht unrealistisch.

AnarchX
2009-06-16, 17:43:17
Das halte ich genauso für ein Gerücht. Die Hardware wäre hoffnungslos veraltet.
Wobei ein Verkauf als günstiges Einsteigergerät, mit weiter einhergehenden Shrinks und HW-Vereinfachungen, wie Sony es momentan bei der PS2 macht doch durchaus denkbar wäre.

KonKorT
2009-06-16, 19:13:07
@ Moderation

Wäre es nicht allmählich sinnvoll einen eigenen Thread "Kommende Xbox" hier zu erstellen?

@ Topic

Vielleicht sind wir schon die Tage bezüglich RV8xx ein gutes Stück weiter. :)

LovesuckZ
2009-06-16, 19:20:23
Na da bin ich mal gespannt. Jedenfalls scheint AMD wieder jedemenge Fud zu verbreiten. Während die Specs des GT300 feststehen hat man bei RV8xx, Evergreen oder wie auch immer im Grunde keine Ahnung.

Stimmt, nVidia war fähig 10.1 der Mobile Parts bis zwei Wochen vor dem Paperlaunch geheim zu halten, aber die Specs des GT300 sind natürlich schon in Stein gemeißelt. :rolleyes:

KonKorT
2009-06-16, 19:27:30
Stimmt, nVidia war fähig 10.1 der Mobile Parts bis zwei Wochen vor dem Paperlaunch geheim zu halten, aber die Specs des GT300 sind natürlich schon in Stein gemeißelt. :rolleyes:
Sagen wir es mal so: GT21x sind GT200 in 40 nm, da kniet man sich nicht so rein wie bei GT300. Da sind die Engineers selbst ganz heiß drauf. ;D
Und ja: Bis auf die Taktfrequenzen ist schon alles in Stein gemeisselt und der Stein glitzert wie ein Rubin.

reunion
2009-06-16, 19:28:43
Die mobilen Lowend-Chips haben schlicht kaum jemanden interessiert. Die Specs von GT300 sind bekannt, darauf geben ich dir Brief und Siegel.

Nakai
2009-06-16, 19:30:29
Stimmt, nVidia war fähig 10.1 der Mobile Parts bis zwei Wochen vor dem Paperlaunch geheim zu halten, aber die Specs des GT300 sind natürlich schon in Stein gemeißelt. :rolleyes:

NV hat Gründe dazu, ansonsten sähe die derzeitige Hardware schon etwas bescheidener aus.

Ich glaube eher, dass die Nv-Quellen den G300 als viel interessanter erachten, als DX10.1-Notebook-GPUs, es ist ja immerhin die nächste Generation. Außerdem muss man den Quellen auch manchmal nur die richtigen Fragen stellen.


mfg Nakai

LovesuckZ
2009-06-16, 19:32:00
Sagen wir es mal so: GT21x sind GT200 in 40 nm, da kniet man sich nicht so rein wie bei GT300. Da sind die Engineers selbst ganz heiß drauf. ;D
Und ja: Bis auf die Taktfrequenzen ist schon alles in Stein gemeisselt und der Stein glitzert wie ein Rubin.

Natürlich steht jetzt alles fest - wir reden hier von schon veröffentlichen Informationen.
Und 10.1 bei nVidia ist bedeutend und wesentlich überraschender wie DX11 beim GT300. Es zeigt nurmal wieder, wer überhaupt Quellen und wer keine Quellen hat. ;)

Gast
2009-06-16, 20:59:12
@ Topic

Vielleicht sind wir schon die Tage bezüglich RV8xx ein gutes Stück weiter. :)

soll heißen ? gibts die Tage was zu vermelden ?

Sorkalm
2009-06-16, 21:14:49
@ Moderation

Wäre es nicht allmählich sinnvoll einen eigenen Thread "Kommende Xbox" hier zu erstellen?

Ein bisschen was zu Natal gibts hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=457002&page=9

Passt zwar auch nicht 100%ig, aber besser als hier.

Ailuros
2009-06-16, 21:35:39
Die mobilen Lowend-Chips haben schlicht kaum jemanden interessiert. Die Specs von GT300 sind bekannt, darauf geben ich dir Brief und Siegel.

Nur die "Verpackung" des "G300" ist bekannt aber leider noch nicht die wichtigsten Einzelheiten. Dass ein chip 512SPs hat sagt mir persoenlich nicht besonders viel und gleiches gilt auch fuer die angeblichen 1200SPs eines RV870.

KonKorT
2009-06-16, 21:58:25
Und 10.1 bei nVidia ist bedeutend und wesentlich überraschender wie DX11 beim GT300. Es zeigt nurmal wieder, wer überhaupt Quellen und wer keine Quellen hat. ;)
Ja, ein Hoch auf Fuad, der diese, wie du sie nennst bedeutende Information, als erster zu Tage geführt hat. :)
Du weißt sicherlich auch, welche Seite kurz danach exklusiv ein erstes Statement mit Begründung dieser Entscheidung hatte? Gut. :)

horn 12
2009-06-16, 22:13:46
Hi, also kann man die Tage mit einigen Infos zum RV870 aufwarten,- oder wie meint @KonKorT dies nun genauer ?

LovesuckZ
2009-06-16, 22:29:01
Ja, ein Hoch auf Fuad, der diese, wie du sie nennst bedeutende Information, als erster zu Tage geführt hat. :)
Du weißt sicherlich auch, welche Seite kurz danach exklusiv ein erstes Statement mit Begründung dieser Entscheidung hatte? Gut. :)

Ailuros - hat er endlich auch eine Seite? :|

Hier vom 07.06.2009 - fast 2 Tage früher als deine "exklusive News":
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7345418&postcount=495

Nunja, ich hoffe, dass er nicht deine einzige "Quelle" ist - und weiß er auch, dass du dich schamlos an seinen gedankengut vergehst?

KonKorT
2009-06-16, 22:30:37
Lass es mich so formulieren: Halb AMD ist zurzeit in Sunnyvale und das nicht nur zum Kuchen essen.

Ailuros
2009-06-16, 22:35:53
Ailuros - hat er endlich auch eine Seite? :|

Ich brauche keine Seite erstens weil ich keine Zeit und Lust dazu habe (nicht relevant aber ich bekomme zu Weihnachten das schoenste Geschenk ueberhaupt von Frau AiL....;D ) und zweitens weil es eine schoene Sache ist sich mit einem "Hobby" zu beschaeftigen dass keine Verantwortungen mit sich bringt.

Tu mir einen Gefallen und lass mich aus dem Unsinn raus ja? ;)

Gast
2009-06-16, 22:54:04
Du bekommst ein Kind? Ich drück euch die Daumen, dass es gesund wird :)
Falls unwahr oder/und zu viel OT dann einfach löschen.

MR2
2009-06-16, 23:26:15
Na er sicher nicht;-) Ein 3dcenterkind, juhu;-)

----------------------------------------------
Jedenfalls wird der RV870 nicht nur ein DX11 4890, jede Wette! Der G200b ist im Vergleich zur 4890 schon stark gewesen, was wird da erst ein G300 bringen? Damit muß ATI rechnen, Verspätungen seitens nvidia können natürlich nicht eingeplant werden. Immer im vergleich zur Konkurenz. Und wenn sie die ersten sein wollen, muß da auch was anständiges fertig sein.

MFG MR2

Gast
2009-06-16, 23:29:49
AMD hat keinen Stress, sie haben ihre X2.
Aus Benutzersicht bleibt zu hoffen das mal AFR endlich begraben wird oder zumindest gelindert, bezweifel ich jedoch.

Das einzige Problem an der Sache ist, das AMD so nicht die absolute FPS Krone bekommen kann.

Ailuros
2009-06-16, 23:44:47
AMD hat keinen Stress, sie haben ihre X2.

AMD hat keinen Stress bis jetzt weil selbst eine einzelne RV770/790 sich ziemlich gut gegen GT200/200b stellen kann. Waere die pro chip perf/mm2 nicht so hoch wuerde die X2 auch nichts besonderes am Resultat aendern.

Aus Benutzersicht bleibt zu hoffen das mal AFR endlich begraben wird oder zumindest gelindert, bezweifel ich jedoch.

Ich kann mir nichts anderes vorstellen fuer multi-chip configs momentan.

Das einzige Problem an der Sache ist, das AMD so nicht die absolute FPS Krone bekommen kann.

Och die FPS Krone in den benutzten Benchmarks gewinnt die 4870X2 schon gegen eine jegliche GT200.

Der eigentliche Nachteil fuer AMD waere dass die maximal single chip Performance GPU Strategie nicht besonders fuer Profi-Maerkte hilft.

Gast
2009-06-16, 23:52:34
Och die FPS Krone in den benutzten Benchmarks gewinnt die 4870X2 schon gegen eine jegliche GT200.
Ich wollte auf die absolute Krone hinaus.

Sprich 4 GPUs vs 4/3 GPUs.

Ailuros
2009-06-17, 00:05:45
Ich wollte auf die absolute Krone hinaus.

Sprich 4 GPUs vs 4/3 GPUs.

Der Anteil des Markts ist so winzig dass es nicht der Rede wert ist. Die Kosten solcher Systeme sind viel zu hoch fuer die eher magere Leistungssteigerung im Vergleich zu dual-chip-wasauchimmer.

deekey777
2009-06-17, 00:12:32
...

Der eigentliche Nachteil fuer AMD waere dass die maximal single chip Performance GPU Strategie nicht besonders fuer Profi-Maerkte hilft.
Anscheinend geht die aktuelle Strategie mit der FirePro-Serie (wohl schon mit der FireGL-Serie) zufriedenstellend auf.

Ailuros
2009-06-17, 00:33:55
Anscheinend geht die aktuelle Strategie mit der FirePro-Serie (wohl schon mit der FireGL-Serie) zufriedenstellend auf.

Workstation bis zu einem Punkt ja, gar nichts fuer den Server Markt und rundum unterdurchschnittliche Unterstuetzung. Was ist daran zufriedenstellend?

Man wachte endlich auf was OpenGL und multi-GPU betrifft:

http://www.xbitlabs.com/news/video/display/20090612123450_ATI_to_Boost_Efficiency_of_Multi_GPU_Operation_in_OpenGL.html

Klar haben sie nach der 770 ihren Profi-Markt von 8 auf 12% steigern koennen welches gute 50% Steigerung entspricht, aber es sind trotz allem immer noch Erbsen in einem ziemlich grossen Topf.

=Floi=
2009-06-17, 01:50:47
wo soll man denn das geld dafür hernehmen? Es ist kein geld für solche sachen im topf und deshalb betreibt man das ganze auf sparflamme.

Ailuros
2009-06-17, 02:12:23
wo soll man denn das geld dafür hernehmen? Es ist kein geld für solche sachen im topf und deshalb betreibt man das ganze auf sparflamme.

Momentan sowieso nicht mit der finanziellen Krise; aber langfristig wenn sich die finanzielle Situation von AMD generell verbessert, koennten sie durchaus daran denken mehr Resourcen in generelle Unterstutzung und auch DevRel zu widmen. Von nichts kommt nichts.

Vor 10 Jahren meckerten wir ueber die eher lahmen GPUs von ATI und dessen Treibern; in den Zwischenzeit haben sie brutale Fortschritte gemacht. Vor ein paar Jahren meckerten wir ueber konstante Verspaetungen was die Vorstellung neuer GPUs betrifft, welches seit RV670 sich um 180 Grad gedreht hat....ergo was ist als naechstes an der Reihe?

=Floi=
2009-06-17, 03:25:26
erst einmal brauchbare treiber und ein standfestes design des PCBs. Die lüfter könnten auch besser sein.
Vor allem beim treiber sehe ich sehr großes potential bei MGPU und offenen profilen. Eine möglichkeit TRMSAA oder TRSSAA wählen zu können wäre mal erstrebenswert. Keine blur AA modi mehr (das ist wohl der größte scheiß überhaupt den sie da damals eingebaut haben und ohne geht es ja auch problemlos und gut) und zu guter letzt die filterqualität. ;)

Es gibt viele sachen die besser geworden sind, aber durch den billigwahn und dem margenrückgang eben auch viel negatives. Ich sehe deshalb nicht wirklich einen positiven trend. Das problem ist auch, der der zug nicht einfach mal stehen bleibt auf den man aufspringen möchte und wo soll das geld herkommen, wenn man immer am limit arbeitet. Die karten müssten hochprofitabel sein um den finanziellen grundstock für weitere expansion schaffen zu können und dort gibt es die nächsten jahre eben nicht wirklich einen aufschwung.

Ailuros
2009-06-17, 11:12:02
Was die Bildqualitaet betrifft man muss ja nicht unbedingt die custom filter benutzen wenn sie einem nicht stehen; die edge detect custom filter sind auf jeden Fall ausgezeichnet.

Was jetzt das AF betrifft, so lange sich die Verbraucher nicht beschweren und die online Presse sich nicht mit dem Thema beschaeftigt stempelt ein jeglicher IHV ihr Filterungsniveau als "gut genug" ab und laesst es liegen.

Ich sehe deshalb nicht wirklich einen positiven trend.

Glaubst Du dass sich solche Einzelheiten schneller aendern bei einem IHV wie NVIDIA? Einfaches Beispiel: wie lange dauerte es bis NV endlich RGMS mit 4x samples lieferte? Die default AF Qualitaet von NV4x bis G7x waere das naechste Beispiel. Oder dass die RAMDAC Qualitaet sich zwar konstant ab NV1x steigerte aber erst das erwuenschte peak ab G80 erreichte usw usw.

Ein IHV kann nie alle zufrieden stellen; und ja es ist ziemlich unfair zu sagen dass ATI sich im letzten Jahrzehnt nicht angestrengt hat oder besser dass man keine Verbesserungen sehen kann. Eher das Gegenteil.

horn 12
2009-06-17, 11:21:33
Nun, kann gut sein dass wir schon bald endlich mal einige Infos zum RV870 erhalten, denn so wie es scheint gehen die HD4870 512/ 1024/ 4890 weg wie warme Semmeln und somit wird das Angebot in Zukunft immer weniger.

So erreicht man das Platzmachen für die HD5870 1024 im Berich von 250-300 Euro,- und wundern tät ich mich gar nicht mal so, falls die Karte gar Ende Juli kommen sollte... Zwar nicht in Unmengen aber dennoch!

Vielleicht fördert ATI-AMD dies gar (Fertigung TSMC) und sieht beim RV740 gar nicht soo die Eile, da man den Rest erst abverkaufen möchte.

Gast
2009-06-17, 11:56:09
Nun, kann gut sein dass wir schon bald endlich mal einige Infos zum RV870 erhalten, denn so wie es scheint gehen die HD4870 512/ 1024/ 4890 weg wie warme Semmeln


Ganz im Gegenteil, die liegen wie Blei in den Regalen, weshalb AMD zu immer weiteren Preissenkungen gezwungen ist.

BlackBirdSR
2009-06-17, 12:37:27
Ganz im Gegenteil, die liegen wie Blei in den Regalen, weshalb AMD zu immer weiteren Preissenkungen gezwungen ist.

Cool, ich habs gewusst!.Wenn du jetzt noch Beweise liefern kannst mit denen ich argumentieren kann, wäre ich Dir sehr dankbar :)

Gast
2009-06-17, 13:21:16
Ganz im Gegenteil, die liegen wie Blei in den Regalen, weshalb AMD zu immer weiteren Preissenkungen gezwungen ist.

*LOOOL* genau. deswegen sind auch im geizhals und überall anders die topseller die radeons.

Gast
2009-06-17, 13:42:18
lasst doch den kinderkram. ati muss sicher reagieren weil NV die besseren karten hat, die besseren angebote hat NV hingegen net.

Gast
2009-06-17, 18:12:33
Cool, ich habs gewusst!.Wenn du jetzt noch Beweise liefern kannst mit denen ich argumentieren kann, wäre ich Dir sehr dankbar :)


Wenn dir die Regeln der Preisgestaltung nach Angebot und Nachfrage bekannt sind, dann ist das Beweis genug. :)

BlackBirdSR
2009-06-17, 18:17:38
Wenn dir die Regeln der Preisgestaltung nach Angebot und Nachfrage bekannt sind, dann ist das Beweis genug. :)

Nein leider nicht, hast du nicht was anderes, das ich den ungläubigen vorwerfen kann? Die nerven mich schon lange und diese Argumente lassen sie nicht gelten :(

Gast
2009-06-17, 18:19:42
Und wenn du glaubst, dass die Märkte überall und gerade heute so funktionieren, dann ist das reichlich naiv. Wobei natürlich zu wünschen wäre, dass dem so wäre.

deekey777
2009-06-17, 18:24:08
Wenn dir die Regeln der Preisgestaltung nach Angebot und Nachfrage bekannt sind, dann ist das Beweis genug. :)
Das ist Nonsense.

LovesuckZ
2009-06-17, 18:25:37
Nein leider nicht, hast du nicht was anderes, das ich den ungläubigen vorwerfen kann? Die nerven mich schon lange und diese Argumente lassen sie nicht gelten :(

Verlust von Marktanteilen, Rückläufiger Umsatz im 1. Q zum 4. Q des Vorjahres, massige Preissenkungen, Spoilern von neuer Hardware.
Sie haben massige Absatzprobleme, nachdem sie nVidia gezwungen haben in ihre Margen zu schneiden.

Gast
2009-06-17, 18:45:20
Verlust von Marktanteilen, Rückläufiger Umsatz im 1. Q zum 4. Q des Vorjahres, massige Preissenkungen, Spoilern von neuer Hardware.
Sie haben massige Absatzprobleme, nachdem sie nVidia gezwungen haben in ihre Margen zu schneiden.
lol? q4 ist weihnachtsquartal, klar wird da mehr verkauft. ist immer so. der rest hat nix damit zu tun - preissenkungen dienen eher dem AUSBAU von marktanteilen, vielleicht auf kosten des gewinns, aber das wärs auch schon.

LovesuckZ
2009-06-17, 18:49:38
lol? q4 ist weihnachtsquartal, klar wird da mehr verkauft. ist immer so. der rest hat nix damit zu tun - preissenkungen dienen eher dem AUSBAU von marktanteilen, vielleicht auf kosten des gewinns, aber das wärs auch schon.

Da hat aber jemand Ahnung. nVidia's Umsatz im Desktop ist um 50% gewachsen - der von AMD gesunken. Nunja, muss nVidia aber ein wirklich schlechtes Weihnachtsgeschäft gehabt haben. :rolleyes:
Preissenkungen werden in diesen Maße durchgeführt, um Marktanteile auf Teufel komm raus zu gewinnen. AMD hat im jahr 2008 Marktanteile an nVidia verloren - den gewonnenen Zuwachs der ersten 3. Q alleine im 4.Q 2008 sowie noch einiges mehr.
Und dein letzter Satz ist wirklich niedlich: "Vielleicht auf Kosten des Gewinns, aber das wärs auch schon". Stimmt, der Firma gehts wirklich prima, wenn sie schon keinen Gewinn mehr benötigen.

[fu]121Ah
2009-06-17, 18:54:08
Da hat aber jemand Ahnung. nVidia's Umsatz im Desktop ist um 50% gewachsen - der von AMD gesunken. Nunja, muss nVidia aber ein wirklich schlechtes Weihnachtsgeschäft gehabt haben. :rolleyes:
Preissenkungen werden in diesen Maße durchgeführt, um Marktanteile auf Teufel komm raus zu gewinnen. AMD hat im jahr 2008 Marktanteile an nVidia verloren - den gewonnenen Zuwachs der ersten 3. Q alleine im 4.Q 2008 sowie noch einiges mehr.
Und dein letzter Satz ist wirklich niedlich: "Vielleicht auf Kosten des Gewinns, aber das wärs auch schon". Stimmt, der Firma gehts wirklich prima, wenn sie schon keinen Gewinn mehr benötigen.
ähm, nv ist ein quartal verschoben, you know?

LovesuckZ
2009-06-17, 18:57:04
121Ah;7365144']ähm, nv ist ein quartal verschoben, you know?

Ein Monat. AMD geht von Januar - März, nVidia von Februar - April.
Der Markt ist im 1. Q zum 4. Q nach Jahren wieder gewachsen, aber daran hat AMD jedoch kaum im selben Maße teilgenommen wie nVidia und Intel.

V2.0
2009-06-17, 19:16:26
Es dürfte wohl klar sein, dass ATI den DX10 part sabverkaufen möchte bevor im Sommer DX11 karten erscheinen.

reunion
2009-06-17, 19:30:35
Nunja, muss nVidia aber ein wirklich schlechtes Weihnachtsgeschäft gehabt haben. :rolleyes:

Definitiv, NVs Weihnachtsquartal war katastrophal. Weder AMD/ATI noch Intel haben auch nur annähernd so starke Einbrüche zu verzeichnen gehabt. Da ist es nicht schwer zuzulegen. Ab Februar gings dann wieder bergauf dank der 55nm Chips.

LovesuckZ
2009-06-17, 19:41:34
Definitiv, NVs Weihnachtsquartal war katastrophal. Weder AMD/ATI noch Intel haben auch nur annähernd so starke Einbrüche zu verzeichnen gehabt. Da ist es nicht schwer zuzulegen. Ab Februar gings dann wieder bergauf dank der 55nm Chips.

Hm, warum sagen die Zahlen eigentlich was anderes aus als das, was du von dir gibst? :|

Nakai
2009-06-17, 19:43:25
Das ist die News.

http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/februar/nvidia_geschaeftsjahr_verlust/

Wo hat da NV einen höheren Umsatz gemacht?!


mfg Nakai

reunion
2009-06-17, 19:58:38
Hm, warum sagen die Zahlen eigentlich was anderes aus als das, was du von dir gibst? :|

Aja. Ein Umsatz von nur noch 481.1mio USD nach 1.2Mrd letztes Jahr spricht Bände. Vor kurzem hatte NV ähnliche Umsätze wie AMD, jetzt liegt hier mind. ein Faktor 2 dazwischen.

LovesuckZ
2009-06-17, 20:11:29
Aja. Ein Umsatz von nur noch 481.1mio USD nach 1.2Mrd letztes Jahr spricht Bände. Vor kurzem hatte NV ähnliche Umsätze wie AMD, jetzt liegt hier mind. ein Faktor 2 dazwischen.

Wenn der Markt einbricht - Stückzahlen wie ASP, dann verdient man auch weniger. Natürlich ist das für AMD Anhänger erstmal nicht verständlich, aber ich erkläre es für dich und deine Freunde: Wie soll nVidia 1,2 Milliarden Umsatz schaffen, wenn der Markt um fast die Hälfte einbricht und dabei gleichzeitig der Durchschnittsverkaufspreis aufgrund eines verrückten Konkurrenten einbricht? Richtig, garnicht. nVidia war auf ein hoch zum damaligen Zeitpunkt und selbst AMD hatte mit ihren Grafikkarten LineUp 2008 ein schlechteres Ergebnis als ein Jahr davor.
Aber wahrscheinlich ist das nicht verständlich, deswegen glaube einfach, dass nVidia's Weihnachtsgeschaft schlechter war als das von AMD. :rolleyes:

AnarchX
2009-06-21, 17:27:10
Der nachgebesserte 40nm Prozess von TSMC soll weiterhin sehr bescheiden sein:
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/516-neuer-40nm-prozess-von-tsmc-weiterhin-bescheiden

igg
2009-06-21, 17:58:33
Oh mann, TSMC ist ein echter Sargnagel...

Gast
2009-06-21, 19:39:17
Die News ist nicht wirklich neu:

http://www.digitimes.com/news/a20090619PD210.html

http://www.computerbase.de/news/hardware/grafikkarten/2009/juni/tsmcs_ausbeute_40-nm-chips/

Ailuros
2009-06-22, 14:47:30
Mit <25% yields kann keiner der beiden IHVs zu einem ernsthaften Launch kommen. Ich will zumindest hoffen dass beide IHVs genug Druck auf TSMC ausueben und tatsaechlich nur fuer die funktionierenden chips am Ende bezahlen.

Gast
2009-06-22, 15:08:52
so wenig Ausbeute,is die Herstellungstechnik veraltet?
Wirds da nicht Zeit für neue Methoden?

Coda
2009-06-22, 15:32:13
TSMC verwendete "Immersion Lithography", das ist die "neue Methode". Anscheinend gibt es damit aber Probleme.

Gast
2009-06-22, 16:08:50
TSMC verwendete "Immersion Lithography", das ist die "neue Methode". Anscheinend gibt es damit aber Probleme.
intel hatte ja anfangs auch mühe mit diesem verfahren. scheint nicht ganz unproblematisch zu sein - gut, wer erwartet dass so ne belichtung easy wäre, gehört sowieso auf den wafer geschnallt.

reunion
2009-06-22, 16:28:36
intel hatte ja anfangs auch mühe mit diesem verfahren. scheint nicht ganz unproblematisch zu sein - gut, wer erwartet dass so ne belichtung easy wäre, gehört sowieso auf den wafer geschnallt.

Intel verwendet es noch gar nicht. Einzig AMD und IBM verwenden schon Immersion-Lithographie erfolgreich.

[fu]121Ah@work
2009-06-22, 16:33:11
Intel verwendet es noch gar nicht. Einzig AMD und IBM verwenden schon Immersion-Lithographie erfolgreich.
^^soweit ich weis ist intel seit längerer zeit da dran und hatte afaik probleme - vielleicht verwechsle ich einfach intel mit ibm, könnte sein. kann gerade nicht nachkucken.

m.sch
2009-06-22, 16:45:36
Übers WE habe ich auf irgendeiner Chinaseite erfahren,das AMD gemeinsam mit TSMC versucht das problem zulösen.

Coda
2009-06-22, 16:54:56
Schwingt da Geringschätzung mit? Es ist weitaus schwerer 45nm ohne Immersion zu belichten als mit ;)

Immersion hat nur den Nachteil dass durch den zusätzlichen "flüssigen" Prozessschritt es zu Problemen mit dem Yield kommen kann, wenn z.B. Tröpfchen auf dem Wafer zurückbleiben. Ich bin aber immer noch der Meinung, dass das lösbare Probleme sind. AMD hat es ja auch geschafft. Intels 32nm Immersion-Prozess ist soweit ich weiß auch schon länger fertig.

horn 12
2009-06-22, 19:57:42
Nun, denke ab August könte der RV870 schon kommen, wenn gar nicht früher, vielleicht arbeitete man mit TSMC vielmehr zusammen als man bisher vermeldete,- und der Lauch der ersten Fanaten (Mich eingeschlossen) wäre erst mal getilgt, bis es im Frühherbst dann richtig zur Sache geht!

w0mbat
2009-06-22, 21:13:20
Ne, August halte ich für ausgeschlossen.

AnarchX
2009-06-23, 07:06:12
Vier DX11-Karten im Oktober? (http://www.semiaccurate.com/2009/06/22/ati-have-4-dx11-cards-october/)

V2.0
2009-06-23, 07:08:52
Bis Oktober. Die erste kommt eher.

AffenJack
2009-06-23, 08:20:00
Na das will ich sehen, da muss tsmc noch schnell deutlich höhere yields kriegen, sonst hamwa höchstens nen ganzes lineout von karten mit paperlaunch.

igg
2009-06-23, 09:52:35
August kann ich mir eigentlich auch nur einen Paperlaunch mit wenigen Karten, hauptsächlich für Tester und 1-2 Partner mit minimaler Verfügbarkeit vorstellen.

Aber vielleicht macht das aus Marketing-Sicht durchaus Sinn. Die Umbenennungsaktionen von NV haben ja auch gewirkt.

aylano
2009-06-23, 10:18:11
Na das will ich sehen, da muss tsmc noch schnell deutlich höhere yields kriegen, sonst hamwa höchstens nen ganzes lineout von karten mit paperlaunch.
Vielleicht wird das auch kompensiert, indem einfach mehr Wafer bestellt werden und dabei übernimmt TSMC dann einen (Groß-)Teil der Mehrkosten.
Irgendwie muss TSMC doch seine Kunden bei Laune halten.

Dazu könnten die DX11-Karten etwas teurer (als geplant) verkauft werden, bis es dann die DX11-Konkurrenz gibt.

BlackBirdSR
2009-06-23, 10:48:39
Es kommt immer darauf an, welche Probleme es gibt.
Je nach Situation, ist es auch eine Möglichkeit, dass ATI und Nvidia ordentlich Takt rausnehmen müssten und schon steigen die Yields stark an. Ist die Frage, ob man sich das "leisten" kann.

Gaestle
2009-06-23, 11:03:42
Ist es eigentlich im Bereich des Möglichen, das NV und ATi die Verzögerungen durch TSMC nutzen, um weitere Respins ihrer kommenden Chips vom Stapel laufen zu lassen und das "Startprodukt" dann etwas optimierter in den Markt zu entlassen, als ursprünglich vorgesehen?

deekey777
2009-06-23, 11:25:49
Meine Meinung: Ein Respin kostet mehrere Millionen, das macht niemand freiwillig. Sprich: Wenn die Chips fertig sind, dann werden die Hersteller keine weiteren Respins vornehmen.
Und wenn sie nicht fertig sind, dann gibt's Respins und die Hersteller behaupten, dass sie die Verzögerung bei der Fertigung nutzten, um noch bessere Produkte auf den Markt zu bringen. ;(

Gaestle
2009-06-23, 12:01:07
Klar kostet ein Respin viel. Aber gemessen am Gesamtbudget der Entwicklung ja nicht so. Und wenn man die Chance hat, schon zum Start besser dazustehen, was sich evtl. auch positiv auf die Verkäufe (und Refinanzierung des Gesamtbudgets) auswirken könnte, ist es doch nicht soooo abwegig, oder?

Sorkalm
2009-06-23, 12:44:26
Es kommt immer darauf an, welche Probleme es gibt.
Je nach Situation, ist es auch eine Möglichkeit, dass ATI und Nvidia ordentlich Takt rausnehmen müssten und schon steigen die Yields stark an. Ist die Frage, ob man sich das "leisten" kann.

Das sieht bei bisherigen Chips nicht so aus, und auch die Meldungen klangen bisher anders. Die Chips, die funktionieren, die laufen auch gut, nur viele sind halt wirklich unbrauchbar...

Gast
2009-06-23, 13:05:29
mal ne ganz einfache Frage.Warum baut ATI nicht endlich mal wieder ne highend Karte die mindestens genauso oder schneller ist wie NV?
Meisten Leute gucken nur auf lange Benchmarkbalken und NV is seit Jahren schneller.ATI hatte auch mal einige Jahre wo NV keine Chance hatte.

AMD und Intel das gleiche,AMD war viele Jahre DIE Wahl für Gamer.Jetzt ist Intel seit dem C2D deutlich vorn.
Verstehe nur nicht,warum die immer so lange brauchen um genug Speed zu liefern.

Einen Dx11 Chip bauen kostet seine Zeit,ok,aber im Endeffekt soll die Karte Ende 2009 akt. Spiele schnell darstellen,die meist noch Dx9 Spiele sind.

Aquaschaf
2009-06-23, 13:27:14
mal ne ganz einfache Frage.Warum baut ATI nicht endlich mal wieder ne highend Karte die mindestens genauso oder schneller ist wie NV?

Ist die Frage ernst gemeint? Warum AMD/ATI diese Strategie nicht mehr verfolgt kann man doch seit Ewigkeiten an vielen Stellen nachlesen. Geld verdient man im Performance-Segment, weniger mit Ultra-Highend-Karten. Ergo spart man es sich für das letztere Segment extra einen Chip zu entwickeln.

Ailuros
2009-06-23, 13:33:48
Ist die Frage ernst gemeint? Warum AMD/ATI diese Strategie nicht mehr verfolgt kann man doch seit Ewigkeiten an vielen Stellen nachlesen. Geld verdient man im Performance-Segment, weniger mit Ultra-Highend-Karten. Ergo spart man es sich für das letztere Segment extra einen Chip zu entwickeln.

Verdient AMD's GDP genauso viel im Desktop Performance Segment als NVIDIA im Profi-High end und Ultra High end Markt?

V2.0
2009-06-23, 13:53:19
Die doppel-GPU-Karten decken das High-End im Consumerbereich ausreichend ab. Im Prof-bereich haben sie ja weniger ein Hardwareproblem.

Gast
2009-06-23, 13:55:18
Ist die Frage ernst gemeint? Warum AMD/ATI diese Strategie nicht mehr verfolgt .

Welche Strategie,die Strategie des Verlustmachens ?
Ein Kunde will eine Karte kaufen,er schaut sich Test an und kauf die logischerweise schnellste Karte.

Ailuros
2009-06-23, 14:04:45
Die doppel-GPU-Karten decken das High-End im Consumerbereich ausreichend ab.

Er sagte wohl klipp und klar dass das Geld im Performance (Desktop) Segment verdient wird, was aber auch bedeutet dass man der Umsatz bzw. Gewinn fuer high end um einiges geringer ist als bei single chip Performance.

Im Prof-bereich haben sie ja weniger ein Hardwareproblem.

Es beantwortet aber so oder so nicht meine eigentliche Frage; NVIDIA hat guten Grund immer noch auf monolithische high end single chips bei der Vorstellung jeglicher neuen Generation zu setzen und dieser hat mit den Profi-Maerkten zu tun. AMD im Gegensatz hat diesen Grund nicht bisher und konnte sich daher die Entwicklung grosser einzelnen chips sparen.

Gast
2009-06-23, 14:06:22
Welche Strategie,die Strategie des Verlustmachens ?
Ein Kunde will eine Karte kaufen,er schaut sich Test an und kauf die logischerweise schnellste Karte.
Logisch ist das nicht, es ist dumm, weil undifferenziert.

Der_Korken
2009-06-23, 16:16:01
Welche Strategie,die Strategie des Verlustmachens ?
Ein Kunde will eine Karte kaufen,er schaut sich Test an und kauf die logischerweise schnellste Karte.

Ist das ernst gemeint? Guck dir doch mal zB die HD4870 und die GTX280 an. Die GTX280 war gute 20% schneller, dafür aber um die 50% teurer. Und das nicht zu Unrecht, denn der RV770 war zu dem Zeitpunkt deutlich günstiger zu fertigen, als der GT200. So gesehen war der RV770 sogar erstaunlich schnell und hat Nvidia gezwungen, mit den Preisen runterzugehen.

LovesuckZ
2009-06-23, 16:48:31
Ist die Frage ernst gemeint? Warum AMD/ATI diese Strategie nicht mehr verfolgt kann man doch seit Ewigkeiten an vielen Stellen nachlesen. Geld verdient man im Performance-Segment, weniger mit Ultra-Highend-Karten. Ergo spart man es sich für das letztere Segment extra einen Chip zu entwickeln.

Erstaunlich, dass sich diese "Urban Legend" immer noch hält. AMD zeigt eindrucksvoll, dass dies nicht stimmt.

Black-Scorpion
2009-06-23, 16:57:52
Stimmt, hast recht.
500.000 Karten zu 500,00€ bringen mehr wie 2.000.000 Karten zu 200,00€.

Gipsel
2009-06-23, 17:40:11
Erstaunlich, dass sich diese "Urban Legend" immer noch hält. AMD zeigt eindrucksvoll, dass dies nicht stimmt.
Wahrscheinlich genau wie nvidias letzte Quartalszahlen ;)

LovesuckZ
2009-06-23, 18:11:35
Wahrscheinlich genau wie nvidias letzte Quartalszahlen ;)

Jo, deren Umsatz ist gewachsen, AMD's Umsatz in der Grafikkartenabteilung ist sogar nochmal gefallen. nVidia's PCB Business macht 48% des Umsatzes von der gesamten Grafikkartenabteilung von AMD. Soviel dazu, dass man im "Performancebereich" das Geld verdient.

Schlammsau
2009-06-23, 18:15:12
Jo, deren Umsatz ist gewachsen, AMD's Umsatz in der Grafikkartenabteilung ist sogar nochmal gefallen. nVidia's PCB Business macht 48% des Umsatzes von der gesamten Grafikkartenabteilung von AMD. Soviel dazu, dass man im "Performancebereich" das Geld verdient.

Es ist eher genau umgekehrt werter LZ!
Aber ich lasse mich gerne eines besseren Belehren, wenn du mir einen Link gibst, der deine These untermauert.

Also ich fange mal mit meinen Links an:
Nvidia: 42 % weniger Umsatz, $201 Mio. Verlust (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/mai/nvidia_42_umsatz_201_mio_verlust/) vom 08.05.2009
Nvidia beendet Geschäftsjahr mit Verlust (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/februar/nvidia_geschaeftsjahr_verlust/) vom 10.02.2009
Nvidia bricht der Umsatz weg (http://www.computerbase.de/news/wirtschaft/unternehmen/2009/januar/nvidia_umsatz/) vom 13.01.2009
Nvidias Gewinn bricht um 74 Prozent ein (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2008/november/nvidias_gewinn_74_prozent/) vom 07.11.2008

Leider ist es nahezu unmöglich genaue ATi Zahlen auszumachen, weil sie immer nur als AMD/ATi Gesamt aufgeführt werden. Aber was man herauslesen kann ist, dass die Grafikkartensparte im Aufwind ist.

LovesuckZ
2009-06-23, 18:22:32
So, du kannst links posten. Das ist toll. Schade nur, dass du eine Leseschwäche hast und deswegen nicht in der Lage bist zu filtern, was ich als Autor gemeint habe.
Das macht es unmöglich mit dir zu diskutieren, da du das, was ich schreibe, nicht verstehst.
Sry, aber daher habe ich keine Zeit es dir verständlich zu erklären.

Schlammsau
2009-06-23, 18:27:02
So, du kannst links posten. Das ist toll. Schade nur, dass du eine Leseschwäche hast und deswegen nicht in der Lage bist zu filtern, was ich als Autor gemeint habe.
Das macht es unmöglich mit dir zu diskutieren, da du das, was ich schreibe, nicht verstehst.
Sry, aber daher habe ich keine Zeit es dir verständlich zu erklären.

Ich würde von dir gerne einen Link sehen der deine Behauptung, das nVidias Umsatz steigt und ATis (nicht AMD/ATi ;)) Umsatz fällt untermauert. Ich warte.......

Black-Scorpion
2009-06-23, 18:30:46
Das bringt nichts. Da kannst du lange warten.
Er hat seine verdrehte Vorstellung und zieht die bis zum bitteren Ende durch.
Das können ihm noch tausend andere erzählen und er wird es so drehen wie es ihm passt.
Schau mal in den Intel Thread mit der EU Strafe und du wirst sehen was ich meine.

Schlammsau
2009-06-23, 18:32:22
Das bringt nichts. Da kannst du lange warten.
Er hat seine verdrehte Vorstellung und zieht die bis zum bitteren Ende durch.
Das können ihm noch tausend andere erzählen und er wird es so drehen wie es ihm passt.
Schau mal in den Intel Thread mit der EU Strafe und du wirst sehen was ich meine.

Ich weiss was du meinst aber ich gebe die Hoffnung nicht auf! :biggrin:

Gipsel
2009-06-23, 18:37:23
da du das, was ich schreibe, nicht verstehst.Das Problem mit dem Verstehen haben hier so ziemlich alle.

|MatMan|
2009-06-23, 18:47:50
Ich würde von dir gerne einen Link sehen der deine Behauptung, das nVidias Umsatz steigt und ATis (nicht AMD/ATi ;)) Umsatz fällt untermauert. Ich warte.......
für das Q1 2009 hat er zumindest Recht: nvidia's (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/mai/nvidia_42_umsatz_201_mio_verlust/) Umsatz ist ggü dem Vorquartal um 38% gestiegen, während der von AMD's (http://www.planet3dnow.de/photoplog/index.php?n=5470) Grafiksparte um ca 25% 18% zurückgegangen ist

edit: Tippfehler korrigiert

Schlammsau
2009-06-23, 18:54:06
für das Q1 2009 hat er zumindest Recht: nvidia's (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/mai/nvidia_42_umsatz_201_mio_verlust/) Umsatz ist ggü dem Vorquartal um 38% gestiegen, während der von AMD's (http://www.planet3dnow.de/photoplog/index.php?n=5470) Grafiksparte um ca 25% 18% zurückgegangen ist

edit: Tippfehler korrigiert

Danke, nur Schade dass LZ nicht den Arsch in der Hose hatte es selber zu posten.

Aber irgendwie finde ich im Web nichts was diese Zahlen verifizieren könnte. Komisch....

Gipsel
2009-06-23, 18:58:32
für das Q1 2009 hat er zumindest Recht: nvidia's (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2009/mai/nvidia_42_umsatz_201_mio_verlust/) Umsatz ist ggü dem Vorquartal um 38% gestiegen, während der von AMD's (http://www.planet3dnow.de/photoplog/index.php?n=5470) Grafiksparte um ca 25% 18% zurückgegangen ist

edit: Tippfehler korrigiert
Aus den gleichen Links kann man auch die Werte gegenüber dem Vorjahr ablesen: ATI -15%, nvidia -42%
Über die schlechte Vergleichbarkeit (insbesondere in so turbulenten Wirtschaftszeiten) mit gegeneinander um einen Monat verschobenen Quartalen zwischen den beiden Herstellern wurde ja schon genug diskutiert. Das Ganze ist auch wohl eher eine längerfristige Strategie, so daß man auch die längerfristige Entwicklung betrachten sollte. Schwankungen von Quartal zu Quartal sind da sehr wenig aussagekräftig.

LovesuckZ
2009-06-23, 19:17:16
Und wo verdient AMD Geld im Performancesektor? Das war die Aussage. AMD zeigt, dass dies nicht der Fall. Zahlen aus dem letzten Jahr sind sowieso fatal als Vergleichsgrundlage, da dort keine rezession herrschte und AMD's Grafikkartenabteilung dort auch schon auf dem Zahnfleisch lief. Und wenn man das Line-Up von AMD vor einem Jahr und das aus diesem jahr betrachtet, dann haben sie sich vorbewegt. Oh und nVidia hat Wachstum im 1.Q zu verzeichnen gehabt - im Gegensatz zu AMD.

Danke, nur Schade dass LZ nicht den Arsch in der Hose hatte es selber zu posten.

Aber irgendwie finde ich im Web nichts was diese Zahlen verifizieren könnte. Komisch....

Wozu, die Zahlen sind frei zugänglich. ich bin nicht für deine Unfähigkeit schuldig. Wenn MatMan sie finden kann, dann auch du. Also troll nicht rum, sondern fange auch endlich mal an zu denken. :rolleyes:

Gipsel
2009-06-23, 19:27:01
Und wo verdient AMD Geld im Performancesektor?Und verdient nvidia momentan überhaupt irgendwo Geld? Immerhin haben die im letzten Quartal fast so viel Verlust wie ATI Umsatz gemacht ;)

KonKorT
2009-06-23, 19:42:49
Im Zusammenhang mit Nvidia-Quartalszahlen ist diese wenige Stunden alte Meldung sicherlich nicht uninteressant, wenngleich sie mehr schlecht als recht zum ursprünglichen Thema dieses Threads passt:

Analysts predict Nvidia Q2 losses

http://www.theinquirer.net/inquirer/news/1405804/analysts-predict-nvidia-q2-losses

derguru
2009-06-23, 19:50:50
nv muss erhebliche verluste haben seit dem release der 200er karten,
1.musste man extrem runter mit den preisen(war sicherlich nicht so geplant)
2.dann der wechsel von 65nm zu 55nm,was sicherlich nicht umsonst ist.
3.jetzt wieder der umbau vom sandwich 295gtx zur ein pcb-karte.
immer wieder diese investitionen müsste doch einiges kosten und deshalb ist die frage von Gipsel ob nv wirklich geld verdient schon berechtigt.
amd hat doch eigentlich beginnend mit dem release der 4er serie däumchen gedreht.

_flx
2009-06-23, 19:57:09
Öhmm, das ist der Speku-Thread des R(v)8xx oder irr ich mich da? :sneak:

|MatMan|
2009-06-23, 19:57:11
Aus den gleichen Links kann man auch die Werte gegenüber dem Vorjahr ablesen: ATI -15%, nvidia -42%
Trotzdem war nVidias Umsatz noch ca 3x höher als der von ATI...

Und verdient nvidia momentan überhaupt irgendwo Geld? Immerhin haben die im letzten Quartal fast so viel Verlust wie ATI Umsatz gemacht ;)
Naja 140 Mio waren Sonderabschreibungen, die restlichen 60 Mio trotzdem noch Verlust während ATI 1 Mio Gewinn gemacht hat ;D

So und jetzt mal zurück zum Thema - so eine Strategieänderung zeigt sich ohnehin erst langfristig und ist überhaupt nicht Gegenstand von diesem Thread.

LovesuckZ
2009-06-23, 20:00:20
Deswegen pusht nVidia ION. Ihr Motherboardgeschäft ist um fast 100% gestiegen zum 4.Q. Und, wenn der Markt im diskreten Bereich schrumpft, wird das natürlich auch AMD'S Grafikkartenabteilung treffen. Nicht umsonst macht ihr CPU und Mainboardgeschäft fast 5mal soviel Umsatz.

nv muss erhebliche verluste haben seit dem release der 200er karten,
1.musste man extrem runter mit den preisen(war sicherlich nicht so geplant)
2.dann der wechsel von 65nm zu 55nm,was sicherlich nicht umsonst ist.
3.jetzt wieder der umbau vom sandwich 295gtx zur ein pcb-karte.
immer wieder diese investitionen müsste doch einiges kosten und deshalb ist die frage von Gipsel ob nv wirklich geld verdient schon berechtigt.
amd hat doch eigentlich beginnend mit dem release der 4er serie däumchen gedreht.

Komisch, die Aussage hier war: Das meiste Geld verdient man Performancesektor. So, statt also Argumente zu bringen, dass dies so wäre, werden wieder natürlich vollkommen andere Bereich abgedeckt.
Also nochmal: Wo ist das Geld, das AMD angeblich verdient hätte?

derguru
2009-06-23, 20:07:07
Öhmm, das ist der Speku-Thread des R(v)8xx oder irr ich mich da? :sneak:
hast recht.
DX11 is AMD's weapon (http://www.theinquirer.net/inquirer/news/1399999/dx11-amd-weapon)

reunion
2009-06-23, 20:18:35
FUAD:

We've learned that ATI's upcoming mainstream DirectX 11 part, something that we call RV870, should be ready for the Windows 7 launch.

ATI might even launch its card earlier, but if they align the launch with Windows 7, ATI should be launching its DirectX 11 performance card in the second half of October.

This is at least timeframe that ATI plans for its hardware launch and we are quite sure that ATI should launch DirectX 11 before Nvidia. At the same time, we’ve heard that “RV870” is not really a brand new architecture, and that you should expect more shaders, DirectX 11 support but all based on RV770 concepts.

http://www.fudzilla.com/content/view/14351/1/

LovesuckZ
2009-06-23, 20:24:06
AMD redet ziemlich offen über DX11, aber kaum über OpenCL und CS. Das finde ich erstaunlich für eine Firma, die nVidia in diesem bereich bezüglich C for Cuda ziemlich aggressiv angeht.

deekey777
2009-06-23, 20:59:39
AMD redet ziemlich offen über DX11, aber kaum über OpenCL und CS. Das finde ich erstaunlich für eine Firma, die nVidia in diesem bereich bezüglich C for Cuda ziemlich aggressiv angeht.
Wo reden sie nicht von OpenCL? Nur weil du davon nichts mitbekommen hast, bedeutet nichts, dass sie hier nichts machen.

LovesuckZ
2009-06-23, 21:01:41
Wo reden sie nicht von OpenCL? Nur weil du davon nichts mitbekommen hast, bedeutet nichts, dass sie hier nichts machen.

Ja, wo reden sie denn davon? Die Berichterstattung bezieht sich fast ausnahmelos auf DX11. Auch sehe ich keine Ankündigungen von OpenCL Treibern von AMD.
AMD war immer gerne bereit über nVidia's C for Cuda zu lästern, aber selbst scheinen sie kein Interesse in diesem Bereich zu haben.

deekey777
2009-06-23, 21:05:48
Ja, wo reden sie denn davon? Die Berichterstattung bezieht sich fast ausnahmelos auf DX11. Auch sehe ich keine Ankündigungen von OpenCL Treibern von AMD.
AMD war immer gerne bereit über nVidia's C for Cuda zu lästern, aber selbst scheinen sie kein Interesse in diesem Bereich zu haben.
Was kann ich für deine Sehschwäche?

LovesuckZ
2009-06-23, 21:07:19
Was kann ich für deine Sehschwäche?

Also nirgends. Gut, ich dachte da käme jetzt irgendwas.
Oder meinst du die eine Folie von der Computex? :|

KonKorT
2009-06-23, 21:15:29
http://ati.amd.com/technology/streamcomputing/opencl.html

Ailuros
2009-06-23, 21:16:29
FUAD:



http://www.fudzilla.com/content/view/14351/1/


Wenn ich mir den letzten Paragraph mehr als einmal durchlese (welches natuerlich nicht stimmen muss...) gibt es bei dem gesamten Quote mehr zu trauern als zu feiern.

reunion
2009-06-23, 21:22:18
Auch sehe ich keine Ankündigungen von OpenCL Treibern von AMD.

http://www.xbitlabs.com/news/video/display/20090610074239_ATI_Jumps_on_OpenCL_Bandwagon_by_Releasing_OpenCL_Drivers.html

LovesuckZ
2009-06-23, 21:22:34
http://ati.amd.com/technology/streamcomputing/opencl.html

Jo, gibt es bei nVidia auch. Aber ich sehe keine Kommunikation zwischen AMD und den Journalisten wie es auch bei nVidia der Fall ist. Anscheinend redet man bei AMD nur über DX11. Entweder man sieht keine Zukunft in gpgpu oder man kann nichts liefern...

deekey777
2009-06-23, 21:53:26
Die Treiber werden nur an bestimmte Entwickler herausgegeben und stehen unter NDA. Alle werden im nächsten Halbjahr öffentliche Betatreiber veröffentlichen, wie es der Khronos-Roadmap entspricht. Weder Nvidia noch AMD quatschen über die Entwicklung, sondern nur über den Status. Nvidia hat zusätzlich mehrere Dokumente veröffentlicht, wie man von CUDA auf OpenCL wechseln kann (hier schweigt AMD tatsächlich).

Aber wie gesagt: Khronos und nur Khronos bestimmt, wann was veröffentlicht werden darf.

Coda
2009-06-23, 23:58:18
Bitte? Das glaub ich kaum. OpenCL ist ein offener Standard.

S940
2009-06-24, 20:15:09
Ja was soll man den Großartiges verkünden ?

Der OpenCL Treiber von ATi ist in Arbeit und kommt demnächst.

Soll man jeden Tag eine Pressemitteilung verschicken, dass OpenCL super toll ist, der Treiber ganz große Leistung bietet, die eigenen Teraflopraktenkarten dafür wie geschaffen wären und alles gaaanz bald fertig ist ?

@topic:
Charlie vermeldet 4 Karten für Oktober:
http://www.semiaccurate.com/2009/06/22/ati-have-4-dx11-cards-october/

Eventuell 2 unterschiedliche Chips, ansonsten wären die 4 Kartendesigns irgendwie overkill. Außer es wären die X2 dabei, aber die kommen eigentlich ja immer später.

Ein low-cost DX11 "RV740" wäre ja auch sinnvoll.

ciao

Alex

Ailuros
2009-06-26, 16:31:51
Tchock erwaehnte gerade im B3D Forum dass die Chinesen andeuten dass RV870 ein "nativer" dual-core sei. Hmmmmm....... :rolleyes:

_flx
2009-06-26, 16:36:16
also mit meine Laien Kenntnissen ausgedrückt 2 GPUs auf einem Package?

Ailuros
2009-06-26, 16:46:09
also mit meine Laien Kenntnissen ausgedrückt 2 GPUs auf einem Package?

Wohl schon; es ist ja auch per se kein eingetliches Problem auf sw Seite denn der Treiber wird stets "1 chip" logischerweise erkennen. Ich will nur hoffen dass dieses native dual core nicht 180mm2/core ist....

Botcruscher
2009-06-26, 16:49:56
Der 180mm² Chip wird wohl dann eher die Version für den Billigmarkt sein. Die Mainstremversion ist dann der native dual und fürs High-End gibts die Dualkarte.

Passt doch.

w0mbat
2009-06-26, 16:49:59
Also das, was man für den "originalen" R800 spekulierte?

AnarchX
2009-06-26, 17:26:38
Ohne den Schritt auf TBR und Chipteile die in Richtung 10GHz takten, um die nötige Interconnect-Bandbreite bei so einem kleinen Chip zu erreichen, dürfte wohl keine sinnvolle MGPU-Lösung ohne AFR möglich sein.

Der_Korken
2009-06-26, 17:57:21
Wie muss man sich das mit dem "nativen Dualcore" vorstellen? So ähnlich wie Intel das mit den C2Q gemacht hat? Wenn das funktioniert, wär das natürlich nicht schlecht, weil man sich damit die Entwicklungskosten für den großen Chip spart. Bleiben allerdings die Probleme mit AFR und dem gemeinsamen VRAM, den eine solche Verbindung haben müsste.

Ailuros
2009-06-26, 18:02:38
Ohne den Schritt auf TBR und Chipteile die in Richtung 10GHz takten, um die nötige Interconnect-Bandbreite bei so einem kleinen Chip zu erreichen, dürfte wohl keine sinnvolle MGPU-Lösung ohne AFR möglich sein.

Meinst Du nicht eher TBDR? Falls ja brauchst Du in dem Fall keine 10GHz Frequenzen.

Ich bezweifle dass sie - falls es stimmen sollte - irgend etwas auf dem Level mit AFR behandeln. Bei einer hypothetischen RV870X2 dann wohl schon. Frag mich nicht wie es faellt dem Laien hier nichts ein.

Es muss ja nicht stimmen; die Chinesen phantasieren ja auch gerne oefters nur so rum.

LovesuckZ
2009-06-26, 18:07:00
Wie muss man sich das mit dem "nativen Dualcore" vorstellen? So ähnlich wie Intel das mit den C2Q gemacht hat? Wenn das funktioniert, wär das natürlich nicht schlecht, weil man sich damit die Entwicklungskosten für den großen Chip spart. Bleiben allerdings die Probleme mit AFR und dem gemeinsamen VRAM, den eine solche Verbindung haben müsste.

Jede moderne GPU ist in dem Sinne ein x-Core.

[fu]121ah@home
2009-06-26, 18:26:57
Jede moderne GPU ist in dem Sinne ein x-Core.
dann beantworte ich eben die frage. dein geblubber ist als antwort ja nicht zu gebrauchen.

denkbar sind verschiedene ansätze - ursprünglich ging man von zwei logisch getrennten cores aus, die einen fetten interconnect haben, über welchen die daten augetauscht werden.

dies ist nötig, da beim AFR ja z.b. geometrie und texturen ausgetauscht werden müssen - oder dann - zumindest was die texturen angeht - diese doppelt gespeichert werden müssen. die verzögerung die vorhanden ist, zwischen dem jeweilig fertig gestellten bild der GPU 1 und GPU 2 ist nicht zwingend gleich (rechenaufwand kann verschieden sein) was ein grund für die mikroruckler ist.

ein anderer ansatz wäre, die cores über eine zentrale einheit zu steuern, eine art uber-gpu, welche dann dafür sorgt, dass jede GPU im richtigen moment die richtigen daten hat - auch dies würde ein fettes interface voraussetzen (nehm ich mal an, ist nur ne behauptung).

desweiteren wäre möglich, dass jede GPU selbst schon die logik besitzt, um festzustellen, was wann und wie gebraucht wird - von beiden GPU's. bei zwei GPU's auf einem DIE (wie es intel z.b. macht), wäre dies grundsätzlich machbar.

usw. usf.

Coda
2009-06-26, 19:08:13
Man darf auch nicht vergessen, dass ATIs GPUs einen Cache haben für den man die Kohärenz bei "richtigem" Verbinden von zwei Chips auch gewährleisten müsste.

Es müsste also so etwas wie Hypertransport werden, nur mit sehr viel mehr Bandbreite. Und dann war da noch das mit der Latenz...

[fu]121ah@home
2009-06-26, 19:55:16
Man darf auch nicht vergessen, dass ATIs GPUs einen Cache haben für den man die Kohärenz bei "richtigem" Verbinden von zwei Chips auch gewährleisten müsste.

Es müsste also so etwas wie Hypertransport werden, nur mit sehr viel mehr Bandbreite. Und dann war da noch das mit der Latenz...
jop. wollte zuerst statt verzögerung latenz schreiben, aber eigentlich wäre richtig beides zu berücksichtigen.

mich wundert in dem zusammenhang, dass NV nie das 3dfx wissen bezüglich Sage genützt hat. 9 jahre danach wäre das design natürlich veraltet, aber trotzdem dürfte der teil der geometrieeinheit, welcher für das zusammenbauen des contents der beiden rasterizer verantwortlich gewesen wäre, ein guter ansatz sein.

Gast
2009-06-26, 20:30:10
Man darf auch nicht vergessen, dass ATIs GPUs einen Cache haben für den man die Kohärenz bei "richtigem" Verbinden von zwei Chips auch gewährleisten müsste.

Es müsste also so etwas wie Hypertransport werden, nur mit sehr viel mehr Bandbreite. Und dann war da noch das mit der Latenz...


Also sowas wie die Verbindung zw. der XBox GPU und dem eDRAM-Chip vielleicht? Nur mit mehr Bandbreite