Archiv verlassen und diese Seite im Standarddesign anzeigen : R600: alles rund um die neue Generation, Teil 7
Nakai
2007-03-29, 20:20:21
Die Die-Size wurde doch anhand der mitfotografierten China-Münze doch schon bestimmt -> ~420mm².
http://resources.vr-zone.com/newzhunter/R6xxgpus.jpg
Für mich sieht der R600 verdammt groß aus.
Wenn man bedenkt das der R580 auf eine Die-Size von 362mm² kommt, finde ich den R600 etwa doppelt so groß wie den R580.
mfg Nakai
----------------------------------------------------------------------------------------------------------------------
Teil sechs: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5367676#post5367676
AnarchX
2007-03-29, 20:28:50
Aber auch bei diesem Bild kommt man auf die ~420mm². ;)
Hauwech
2007-03-29, 20:33:43
Über den Preis kann man es immer richten, doch darum ging es nicht. Ich halte es einfach für Blödsinn zu behaupten, "20% Mehrleistung würden nichts bringen, da alles andere sowieso lächerlich wäre".
Kommt auf den Standpunkt des Betrachters an.
Wer sich nicht für die ganze "Geschichte" interessiert und sich nach der Veröffentlichung nur die schnellste Grafikkarte kaufen möchte und nicht extra gewartet hat, sind 20% ok und schön.
Wer sich für die ganze Geschichte interessiert, inklusive Gerüchten, offiziellen und inoffiziellen Erklärungen, Verschiebungen und vor allem dieser Geheimniskrämerei, dem kommen die 20% mehr für so eine lange Wartezeit vielleicht doch eher lächerlich vor. Vor allem wenn die Erwartung entweder einfach zu groß war oder der ganze Aufwand für die Leistung als einfach zu groß eingeschätzt wird.
Nakai
2007-03-29, 20:38:27
Aber auch bei diesem Bild kommt man auf die ~420mm². ;)
Naja die Drehung um 25° verwirrt ein bisschen, der R600 sieht hier einfach viel größer aus.
Ebenso ist das gesamte Package auch deutlich größer um genug Pins unterzubringen.
Wer sich für die ganze Geschichte interessiert, inklusive Gerüchten, offiziellen und inoffiziellen Erklärungen, Verschiebungen und vor allem dieser Geheimniskrämerei, dem kommen die 20% mehr für so eine lange Wartezeit vielleicht doch eher lächerlich vor. Vor allem wenn die Erwartung entweder einfach zu groß war oder der ganze Aufwand für die Leistung als einfach zu groß eingeschätzt wird.
Mindestens 20% mehr Performance. Da der R600 aber noch nicht mit Qualitätsfeatures getestet wurde, könnte da noch einiges an Leistung herauskommen, da ja ATI selbst gemeint hatte, dass die BQ-Performance beim R600 sehr gut sein sollte.
Ich frage mich wie das erreicht werden sollte.
mfg Nakai
[MK2]Mythos
2007-03-29, 20:39:25
Viele vergessen hier, dass nVidia schon Karten verkauft hat und die Nachfrage nach dem r600 somit geringer ist.
Nein, es ist genau umgekehrt, anscheinend denken Viele, dass der R600 besser sein muss ( wegen späteren Erscheinens ), um eines Kaufes würdig zu sein. Und genau da liegt der Fehler, die Leute, die im Laufe der nächsten Monate aufrüsten wollen, gucken sich an was zu diesem Zeitpunkt auf dem Markt und konkurrenzfähig ist, es ist völlig egal ob die eine Karte schon 8 Monate erhältlich ist, oder ob sie frisch auf den Markt geworfen wurde. Sicher wäre es von Vorteil wenn der R600 ein gutes Stück schneller als der G80 ist, aber ich denke ATi wird eher mit ein paar zusätzlichen Features und einem etwas günstigerem Preis bei gleicher Leistung probieren, die Karten an den Mann zu bringen. Das einzige wirkliche Negativ Argument dürfte wohl der hohe Stromverbrauch sein, falls die Gerüchte sich denn bestätigen.
Mythos;5367776']Nein, es ist genau umgekehrt, anscheinend denken Viele, dass der R600 besser sein muss ( wegen späteren Erscheinens ), um eines Kaufes würdig zu sein.
Das ändert nichts daran, dass nVidia schon Karten verkauft hat.
Und nicht jeder dieser Käufer wird wegen 20% auf die AMD Karte springen. Gleichzeitig gibt es dann auch Konkurrenz und die hohen Preise, die nVidia 6 Monate hatte, sond kaum zu halten.
Das ist der Vorteil der frühen Verfügbarkeit. Sollte ein Preiskampf ausbrechen, wäre AMD der Verlierer.
reunion
2007-03-29, 20:49:08
Kommt auf den Standpunkt des Betrachters an.
Wer sich nicht für die ganze "Geschichte" interessiert und sich nach der Veröffentlichung nur die schnellste Grafikkarte kaufen möchte und nicht extra gewartet hat, sind 20% ok und schön.
Wer sich für die ganze Geschichte interessiert, inklusive Gerüchten, offiziellen und inoffiziellen Erklärungen, Verschiebungen und vor allem dieser Geheimniskrämerei, dem kommen die 20% mehr für so eine lange Wartezeit vielleicht doch eher lächerlich vor. Vor allem wenn die Erwartung entweder einfach zu groß war oder der ganze Aufwand für die Leistung als einfach zu groß eingeschätzt wird.
Und wer sich für die ganze Geschichte interessiert hat kauft sich deshalb die langsamere Grafikkarte? Daran glaubst du doch selbst nicht. Ganz im Gegenteil, neue Produkte schaffen erwiesenermaßen einen gewissen Kaufreiz für die neugierigen Kunden. Deshalb wohl auch nVs 8800U.
Das ändert nichts daran, dass nVidia schon Karten verkauft hat.
Und nicht jeder dieser Käufer wird wegen 20% auf die AMD Karte springen. Gleichzeitig gibt es dann auch Konkurrenz und die hohen Preise, die nVidia 6 Monate hatte, sond kaum zu halten.
Das ist der Vorteil der frühen Verfügbarkeit. Sollte ein Preiskampf ausbrechen, wäre AMD der Verlierer.
Natürlich wird niemand, oder nur die allerwenigsten G80-Käufer deshalb auf den R600 springen, aber das war auch schon vorher klar. Doch Leute die sich erst nach der Verfügbarkeit von R600 eine neue Graka kaufen wollen, interessiert der Erscheinungstermin herzlich wenig. Da zählt dann was aktuell das beste Produkt ist.
Da zählt dann was aktuell das beste Produkt ist.
Nicht "das beste Produkt", sondern das "das beste Produkt zum besten Preis".
Und wenn AMD's r600 20% schneller und 150€ teurer wäre, dann bringt ihnen das auch nicht.
Die Absatzmenge wird nach oben hin immer kleiner. Und Preise von über 600€ sind kaum durchsetzbar, wenn Konkurrenz auf dem Markt ist. Siehe AMD mit den X2, siehe den Preis der X1950XTX und der 8800GTS. Alles Situationen, wo das eine Produkt deutlich höher verkauft wurde und plötzlich im Preis gefallen ist als Konkurrenz kam.
Und ich wette, dass sich mehr Leute eine 8800GTX/r600@450€ kaufen werden als einen 20% schnelleren r600 für 599€.
[MK2]Mythos
2007-03-29, 20:57:10
Natürlich hat NVIDA schon Karten verkauft und sich ne goldene Nase verdient. Doch darum geht es doch gar nicht.
Davon abgesehen würde auch Niemand ( bis auf ein paar kleine, völlig irrelevante Ausnahmen ) von einem 10 % langsameren G80 auf eine R600 Karte wechseln. Das dürfte wohl klar sein, darüber brauchen wir uns nicht zu unterhalten. Natürlich wird bei einem Preiskampf AMD lange nicht so profitabel sein wie NVIDIA, aus den oben genannten Gründen, aber das ändert nichts daran, dass die Karten, basierend auf dem R600 auch ohne großen Geschwindigkeitsvorteil gekauft werden. Und zwar von Menschen die keine GF 8800 GTX haben (möchten).
EDIT: AMD bzw dessen Reseller werden mit Sicherheit kein 20 % schnelleren R600 für 150 € mehr anbieten, dass wirst du hoffentlich einsehen.
Hauwech
2007-03-29, 21:54:52
Und kauft sich deshalb die langsamere Grafikkarte? Daran glaubst du doch selbst nicht.
Wo schrieb ich das sich die Leute dann trotzdem die langsamere Grafikkarte kaufen? Falls ich mich nicht klar genug ausgedrückt haben sollte, es ging darum ob und warum angenommene 20% mehr Leistung lächerlich sein könnten oder nicht.
Außerdem, du schreibst doch selbst, über den Preis kann man es immer richten. Wo ist also das Problem?
Edit: Die 88U nur als Kaufanreiz für neugierige Kunden? Daran glaubst du doch selbst nicht.
Edit 2: 1096 Posts in diesem Thread: Time for a split? :)
DrumDub
2007-03-29, 22:06:36
Naja die Drehung um 25° verwirrt ein bisschen, 45° sinds. ;)
LairD
2007-03-30, 00:28:09
HerrGottnochmal!
Die babbelei die in diesem Thread abgeht, ist wirklich das übelste was es im ganzen 3Dcenter gibt!
Ahnungslose die über Verkaufszahlen und Verkaufsprioritäten von Produkten palavern, die es noch gar nicht gibt.
Aber alle tun so, als ob sie die Weisheit schon mit Löffeln gefressen hätten und genau wüssten, wo die Prioritäten der möglichen Käufer liegen werden.
Ich kann mir die ganze Scheisse bald nicht mehr antun, die hier vollkommen Ahnungslose, über Produkte fällen von denen sie nicht mal den Hauch einer Ahnung haben.
Wartet einfach alle ab, bis das Produkt auf dem Markt ist und werft eure Vorurteile über Bo(a)rd, erst dann wird sich trefflcih spekulieren lassen.
Mfg LairD
Der die Schnauze voll hat von Spekulationen die überhaupt keine Grundlage haben.
20-30% (realistisch imho) Mehrleistung sind 20-30% Mehrleistung und solange NV dieses nicht übertreffen kann, spielt der Erscheinungstermin des R600 keine Rolle. Und da sieht es für ATI doch gut aus. Der G80 schafft es nicht und ein Nachfolger ist nicht in Sicht.
G90 im Herbst? Wer G80 nicht haben wollte, und auf R600 wartete, kann auch nochmal 6Monate warten und nochmal 20-30% mehr Leistung bekommen *g
Fetza
2007-03-30, 02:46:31
HerrGottnochmal!
Die babbelei die in diesem Thread abgeht, ist wirklich das übelste was es im ganzen 3Dcenter gibt!
Ahnungslose die über Verkaufszahlen und Verkaufsprioritäten von Produkten palavern, die es noch gar nicht gibt.
Aber alle tun so, als ob sie die Weisheit schon mit Löffeln gefressen hätten und genau wüssten, wo die Prioritäten der möglichen Käufer liegen werden.
Ich kann mir die ganze Scheisse bald nicht mehr antun, die hier vollkommen Ahnungslose, über Produkte fällen von denen sie nicht mal den Hauch einer Ahnung haben.
Wartet einfach alle ab, bis das Produkt auf dem Markt ist und werft eure Vorurteile über Bo(a)rd, erst dann wird sich trefflcih spekulieren lassen.
Mfg LairD
Der die Schnauze voll hat von Spekulationen die überhaupt keine Grundlage haben.
Amen!
Ailuros
2007-03-30, 06:13:37
20-30% (realistisch imho) Mehrleistung sind 20-30% Mehrleistung und solange NV dieses nicht übertreffen kann, spielt der Erscheinungstermin des R600 keine Rolle. Und da sieht es für ATI doch gut aus. Der G80 schafft es nicht und ein Nachfolger ist nicht in Sicht.
30% Durchschnitt? Verdammt gewagt. Ich wuerde >30% peaks stellenweise nicht ausschliessen aber das ist auch einen andere Geschichte.
Aber wollen wir mal grosszuegig sein und Deine +30% Durchschnitt akzeptieren. 10% von den kommenden Treibern mehr Leistung fuer die G80 und nochmal 10% durch analoge Taktsteigerungen in einem schnelleren G80 Modell. Was bleibt uebrig?
horn 12
2007-03-30, 07:01:18
Ja, ATI muss den R600 am 23/24 April launchen. und die gesamte Palette vorstellen mit dem Hardlaunch des R600 um vieles wieder gutzumachen. Die RV610 /630 werden halt erst dann nach 3-4 Wochen verfügbar sein, aber dennoch besser als gar keinen R600. Denn dies würde ATI komplett aus der Bahn werfen, und die Peinlichkeit würde niemals vergessen werden.....
Also lieber ein Schrecken mit Ende als ein ein koplettes Ende seitens ATI.
Das mit einem Gesamten Hardlaunch der R600 war dann wohl nichts mehr, schon genug peinlich für ATI, da dies immer betont wurde.....
Ja, ATI muss den R600 am 23/24 April launchen. und die gesamte Palette vorstellen mit dem Hardlaunch des R600 um vieles wieder gutzumachen. ...
Wau was ATI alles muß. Bloß gut das sie dich als Berater haben ,nochmal Glück gehabt.
seahawk
2007-03-30, 07:25:40
30% Durchschnitt? Verdammt gewagt. Ich wuerde >30% peaks stellenweise nicht ausschliessen aber das ist auch einen andere Geschichte.
Aber wollen wir mal grosszuegig sein und Deine +30% Durchschnitt akzeptieren. 10% von den kommenden Treibern mehr Leistung fuer die G80 und nochmal 10% durch analoge Taktsteigerungen in einem schnelleren G80 Modell. Was bleibt uebrig?
Warten wir nicht schon lange auf den "Wundertreiber" von NV und wa sie so alles versprehen. MUl-Nutzung, schneller und sogar einen Stromsparmodus für den 2D Betrieb. Daran glaube ich erst wenn ich einen sehe. .
James Ryan
2007-03-30, 08:31:47
Und da sieht es für ATI doch gut aus. Der G80 schafft es nicht und ein Nachfolger ist nicht in Sicht.
Nachfolger vom G80 ist nicht in Sicht? :|
NVIDIA hat mehr Möglichkeiten als ATi, ganz einfach weil der G80 früher kam.
Gf 8800 Ultra, G81 @ 80 nm, G90 vorziehen. Was macht ATi wenn der R600 sich nicht gegen den G80 durchsetzen kann? Nochmal höher takten? Nochmal 2-3 Monate warten? Im Moment ist ATi derb im Zugzwang. Wird der R600 gut (nicht nur im Speed, sondern das gesamte Paket) ist alles gut. Wird der R600 schlecht, sieht es für ATi auch schlecht aus.
MfG :cool:
Ailuros
2007-03-30, 08:50:59
Warten wir nicht schon lange auf den "Wundertreiber" von NV und wa sie so alles versprehen. MUl-Nutzung...
http://www.beyond3d.com/content/reviews/7/17
Nur ein Vorgeschmack.
schneller
Wann in der Vergangenheit gab es eine GPU die ueberhaupt keinen Leistungs-zuwachs durch Treiber bekam? Ausser Du willst mir einreden dass die G80 unter allen Faellen verdammt nahe an ihren Optimum laeuft. Es gibt einen XP Treiber von MSI der einen etwa 10% Unterschied zeigt und der sogar die hybriden modi wieder einfuehrt, momentan aber unbrauchbar bis die offizielle Version ankommt. Maximal fuer eine G80 32xS (8xRGMS+4xOGSS).
...und sogar einen Stromsparmodus für den 2D Betrieb. Daran glaube ich erst wenn ich einen sehe. .
Ach den Mist mit dem Stromsparmodus glaube ich selber nicht. Dafuer muesstest Du die original Quelle fragen woher sie genau den Quark hat denn ich hab NIE etwas relevantes gehoert.
PCGH_Carsten
2007-03-30, 09:26:56
Darüber hab ich mich auch gewundert. Aber das hat wohl Carsten nicht mitbekommen.
Vielleicht sollte man diesen nicht ganz unwichtigen Fakt mal ins erste Posting hinzufügen, sodass es auch der letzte mitbekommt. ;)
Lassen wir uns doch mal überraschen. ;) Bei all den Fehlinformationen, die es bisher so gab und gibt, überrascht mich aktuelle nämlich gar nichts mehr.
@R600 vs.G80+:
Einen Vorteil hat Nvidia mit ihren variablen Taktdomänen allerdings in der Hand. Je nachdem, wo der R600 vorn liegt, könnte man auch entweder nur mehr TMU/ROP-Takt oder nur mehr ALU-Takt geben - das würde den Taktspielraum und das thermale Budget weniger belasten, als den kompletten Chip hochzuziehen.
Meine Vermutung ist, dass es eine reine Shader-Clock-Erhöhung wird, da Ati wohl in Sachen ROP/Speicher eh vorn liegen wird und Nvidia in Sachen TMU.
Hauwech
2007-03-30, 09:31:54
Das mit dem Stromsparmodus kam von Jens Neuschäfer auf der CeBit.
PCGH_Carsten
2007-03-30, 09:53:26
http://resources.vr-zone.com/newzhunter/R6xxgpus.jpg Also - auf Grundlage dieses bescheiden aufgelösten Fotos, den ausgeschnittenen Dies (R600 wieder in die Waagerechte zurückrotiert), Verhältnis der Pixelzahlen der (bescheiden genau ausgeschnittenen) Die-only-Bilder komme ich auf ein R600/R580-Verhältnis von etwa 1,4 - macht rund 510 mm². Wenn jemand davon noch eine etwas bessere Version oder mehr Zeit im Photoshop hat, möge er mich bitte eines besseren belehren. R580: http://img292.imageshack.us/my.php?image=r580xe8.jpg R600: http://img292.imageshack.us/my.php?image=r600dx9.jpg (die weißen Ecken kommen vom Drehen und Ausschneiden, sollten für BreitexHöhe aber irrelevant sein)
Sphinx
2007-03-30, 12:50:10
HerrGottnochmal!
Die babbelei die in diesem Thread abgeht, ist wirklich das übelste was es im ganzen 3Dcenter gibt!
Ahnungslose die über Verkaufszahlen und Verkaufsprioritäten von Produkten palavern, die es noch gar nicht gibt.
Aber alle tun so, als ob sie die Weisheit schon mit Löffeln gefressen hätten und genau wüssten, wo die Prioritäten der möglichen Käufer liegen werden.
Ich kann mir die ganze Scheisse bald nicht mehr antun, die hier vollkommen Ahnungslose, über Produkte fällen von denen sie nicht mal den Hauch einer Ahnung haben.
Wartet einfach alle ab, bis das Produkt auf dem Markt ist und werft eure Vorurteile über Bo(a)rd, erst dann wird sich trefflcih spekulieren lassen.
Mfg LairD
Der die Schnauze voll hat von Spekulationen die überhaupt keine Grundlage haben.
Ich frag mich ob die Diskussionen um die => XBOX360 vs PS3 genaudieselbe waren wie diese hier...
Nakai
2007-03-30, 13:06:11
45° sinds. ;)
Ja ich weiß...*schäm*:redface:
@Carsten:
Danke für den Upload. Nun ha wobei man nicht genau sagen kann wie groß der Die ist...schade, dann muss ich wohl noch warten...
mfg Nakai
PCGH_Carsten
2007-03-30, 13:19:45
@Carsten:
Danke für den Upload. Nun ha wobei man nicht genau sagen kann wie groß der Die ist...schade, dann muss ich wohl noch warten...
mfg Nakai
Nein, leider ist das aus diesem Ursprungsbild nur sehr beschränkt möglich.
AnarchX
2007-03-30, 13:28:27
Meine Vermutung ist, dass es eine reine Shader-Clock-Erhöhung wird, da Ati wohl in Sachen ROP/Speicher eh vorn liegen wird und Nvidia in Sachen TMU.
Da könnten die aktuellen Spekulationen zur Ultra mit 650/1800/1100MHz (http://forums.ocworkbench.com/bbs/showthread.php?%20threadid=61380) passen, wobei sie mir eher sehr unglaubwürdig erscheinen.
Hier ist nochmal die Diskussion von B3D als die ersten Bilder zum R600 auftauchten:
http://forum.beyond3d.com/showthread.php?t=34676&page=28
Laut der Quelle dieser Bilder, soll der R600 20.23mm X 21.17mm groß sein.
reunion
2007-03-30, 15:32:15
Edit: Die 88U nur als Kaufanreiz für neugierige Kunden? Daran glaubst du doch selbst nicht.
Und ob ich daran glaube. Etwas neues verkauft sich erwiesenermaßen deutlich besser als ein ein vergleichbares Produkt, welches schön länger am Markt ist. Warum glaubst du gibt es zu einem späteren Zeitpunkt oft neue Versionen von älteren Chips, die sich leistungstechnisch oft nur um Nuancen unterschieden? Natürlich hat Nv auch andere Beweggründe, eine Ultra zu releasen.
@R600 vs.G80+:
Einen Vorteil hat Nvidia mit ihren variablen Taktdomänen allerdings in der Hand. Je nachdem, wo der R600 vorn liegt, könnte man auch entweder nur mehr TMU/ROP-Takt oder nur mehr ALU-Takt geben - das würde den Taktspielraum und das thermale Budget weniger belasten, als den kompletten Chip hochzuziehen.
Meine Vermutung ist, dass es eine reine Shader-Clock-Erhöhung wird, da Ati wohl in Sachen ROP/Speicher eh vorn liegen wird und Nvidia in Sachen TMU.
Ob die Taktdomainen wirklich so variabel sind, wird sich erst zeigen müssen. Könnte genausogut ein fixer Teiler eingebaut sein.
AnarchX
2007-03-30, 15:46:25
Ob die Taktdomainen wirklich so variabel sind, wird sich erst zeigen müssen. Könnte genausogut ein fixer Teiler eingebaut sein.
Das hat sich mit den OC-GTXen gezeigt, da hier einige mit übertakteter Shaderdomanin daherkommen, während andere die 1.35GHz beibehalten haben.(siehe auch den Bericht zu der wassergekühlten Karte von MSI (http://www.hardtecs4u.com/?id=1174749405,3893,ht4u.php))
Ob die Taktdomainen wirklich so variabel sind, wird sich erst zeigen müssen. Könnte genausogut ein fixer Teiler eingebaut sein.
Es ist schon bewiesen, dass sich die Shaderdomain vom Core/ROP - Clock takten lässt.
http://www.anandtech.com/video/showdoc.aspx?i=2931&p=3
reunion
2007-03-30, 15:51:25
Okay, dann will ich nichts gesagt haben.
PCGH_Carsten
2007-03-30, 15:52:31
Ob die Taktdomainen wirklich so variabel sind, wird sich erst zeigen müssen. Könnte genausogut ein fixer Teiler eingebaut sein.
Wir hatten schon genügend Karten im Test um zu sehen, dass es durchaus verschiedene Verhältnisse von Haupt- zu Shader-Takt geben kann. PCGH 04 und 05 - jeweils mit 8800er-Tests. Einmal die 320er-GTS und in der 05 übertaktete 8800 GTX.
reunion
2007-03-30, 16:18:16
Obwohl ich die PCGH sogar abonniert habe, ist mir das nicht aufgefallen.
bei ati macht mir sorgen das sie immer weiter hintenraus rutschen. bald wird ati wenn sie so weitermachen 1 generation hinter der geforce sein. (wenn im herbst wirklich schon g90 in sicht ist, gibt es den r600 vielleicht erst 3-4 monate)
seahawk
2007-03-30, 16:38:12
Nicht der Erscheinungszeitpunkt definiert eine Generation, sonder die LEistung der Karte.
Wie funktioniert der Grakaverkauf denn nun in der Realität? ist Stalker ein Zugpferd für die 8800 oder motiviert es die Gemeinde der Wartenden des R600 noch länger durchzuhalten?
PCGH_Carsten
2007-03-30, 16:52:35
Obwohl ich die PCGH sogar abonniert habe, ist mir das nicht aufgefallen.
Die 05 bekommst du wohl erst Samstag, in der 04 auf Seite 73.
reunion
2007-03-30, 17:16:04
Danke. Auch wenn es etwas OT ist, aber die Foxconn-Karte mit dem niedrigeren Shaderclock geht ggü. dem MSI-Modell mit "vollen" Takt sowohl in Anno 1701 bei den min-fps, als auch bei NFS:Carbon ziemlich in die Knie, was ich so absolut nicht erwartet hätte. Offensichtlich scheint der G80 doch hin und wieder an den ALUs zu hängen.
Heimatloser
2007-03-30, 17:24:41
Die 05 bekommst du wohl erst Samstag, in der 04 auf Seite 73.
Und wann liegt die neue beim Händler ?
Übrigends schmiert die PCGH von außen mal mehr und mal weniger - in letzter Zeit zum Glück weniger.
Und dabei bin ich keiner der übermäßig verschwitzte Finger hat.
Das hat zur Folge, daß die nach einer gewissen Zeit nicht gerade mehr "archivierungswürdig" aussieht und so behalte ich immer nur die letzten Beiden.
Ist ein wenig schade wenn man bedenkt, daß bei mir hier noch Happy Computer und Chip von Anfang 83 rumliegen.
So das war ganz schön OT - sorry.
Naja wir sind hier ja auch nicht bei der Arbeit, sondern zum Spaß.
Aber um mal zum R600 zurückzukommen:
Mich wundert immer wieder, daß niemand in den Diskussionen auch mal auf die Idee kommt wie viel Extrastreß so eine Firmenfusion macht.
Gut ich habe so etwas halt schon zwei Mal mitmachen müssen.
Und dann kommen in letzter Zeit auch immer mehr so an den Haaren herbei gezogene Argumente.
Da wird geschrieben die Kunden würden selbst bei geringerer Leistung das Produkt kaufen welches zuerst da war usw.
Dabei ist so ein Verhalten absolut nicht der menschlichen Natur entsprechend - schließlich sind die Karten ja zueinander kompatibel und so zählt normalerweise Leistung, Preis und Features (Lüfterlautstärke, Aussehen, etc.).
DerHeimatlose
laser114
2007-03-30, 17:58:09
Und wann liegt die neue beim Händler ?
Ohne die Erscheintungsdaten zu kennen vermute ich auf den nächsten Mittwoch.
Aber wann ein Produkt besser ist als ein anderes (und das muss ja nicht die Leistung sein), ist es doch relativ egal wann es erschien... das stimmt schon. ;)
OBrian
2007-03-30, 19:19:19
http://www.fudzilla.com/index.php?option=com_content&task=view&id=362&Itemid=1
Fudo meint zwar eine gute Nachricht damit zu bringen, daß der Kühler nicht lauter als bei der X1950XTX ist, aber so ultraleise war der doch nicht, oder?
Interessanter finde ich jedenfalls die Aussage "die Treiber sind sehr unausgereift, Benchmarks machen noch überhaupt keinen Sinn, viele Anwendungen crashen andauernd".
Man sollte doch annehmen, wenn die Hardware sich schon um Monate verspätet, daß der Treiber dann wenigstens fertig ist. Ein Treiberentwicklungsteam, was auf eine Deadline hinarbeitet, die dann aber mehrere Monate verschoben wird, müßte dann doch theoretisch weit vor dem neuen Zeitpunkt fertig sein (bzw. eine wesentlich bugärmere Version entwickelt haben), selbst wenn sie sich dann nicht mehr hypergestreßt 36 Stunden am Tag totprogrammieren müssen.
Den R600 gab es als Prototyp doch schon längere Zeit, was für die Treiberentwicklung wohl reicht, auch wenn noch keine verkaufsfähigen Karten in größerer Menge hinzukriegen waren. Und vorher wird doch sicher mit Simulationen gearbeitet, was schonmal etwas Vorarbeit ermöglicht und Zeit spart.
http://www.planet3dnow.de/vbulletin/images/smilies/noahnung.gif :|
laser114
2007-03-30, 19:25:19
Klingt immer mehr danach, als das nicht mehr der ursprünglich geplante R600 ist, sondern der eigentliche R650 / R680 (der Refresh des R600). Würde neben einigen Dingen auch das mit den Treibern erklären.
Spricht aber auch dafür, dass noch mehr Leistung drin ist.
Schrotti
2007-03-30, 19:27:39
Treiberprobleme?
Das klingt nach nvidia die es auch nicht hinbekommen einen vernünftigen Treiber für den G80 zu proggen.
Heimatloser
2007-03-30, 19:43:02
Ohne die Erscheintungsdaten zu kennen vermute ich auf den nächsten Mittwoch.
Aber wann ein Produkt besser ist als ein anderes (und das muss ja nicht die Leistung sein), ist es doch relativ egal wann es erschien... das stimmt schon. ;)
@laser
Hihi - nee ich wollte doch von Carsten wissen wann die PCGH im Zeitschriften-Laden liegt.
Die kommt doch immer etwas später in die Kioske, etc, als wenn man sie geschickt bekommt.
Das ich hoffe darin etwas zu lesen, wann der R600 endlich in irgendeinem Ladenregal liegt stimmt allerdings auch. :biggrin:
Falls das Ding jemals käuflich zu erwerben sein sollte - OK das war jetzt fies. :rolleyes:
DerHeimatlose
Steve1
2007-03-30, 19:47:26
@ Heimatloser
Wahrscheinlich erscheint die neue PCGH am kommenden Mittwoch.
Ailuros
2007-03-31, 08:36:45
Treiberprobleme?
Das klingt nach nvidia die es auch nicht hinbekommen einen vernünftigen Treiber für den G80 zu proggen.
Vielleicht wachen endlich einige von Euch auf und sehen ein dass es verdammt schwer ist Vista Treiber von Anfang an zu 100% richtig hinzubekommen. Weder ATI noch NVIDIA haben Zauberstaebe und man braucht Zeit dafuer.
Das Ganze ist nicht an Dich gerichtet sondern an den unendlichen Mist den ich seit November 06' lesen konnte was das Thema betrifft, zum einen wahr es angeblich problematische HW, zum anderen nur eine DX9.0 GPU mit D3D10 in SW draufgepappt und weiss der Geier welche noch idiotische These so herumflog oder sogar noch existiert.
Nochmal fuer all diese die manche Einzelheiten nicht schnallen wollen: R600 HW hat schon seit einiger Zeit keine Probleme; ein Anteil der letzten Verzoegerung liegt an ebenso beschissenen Treibern als bei NV, ein anderer an die Verspaetung der D3D10 paths der zwei "bundled games" usw usw. Man braucht gewisse Mittel mit dem Ding ueberzeugen zu koennen; ohne die demenstrechende SW (egal welche) wuerde eine R600 Vorfuehrung nur zur Blamage fuehren.
Ueberhaupt wenn man bisher indirekt mit allen Mitteln versucht hat den G80 und seine Treiber-qualitaet schlecht hinzustellen. Macht es besser ihr Herren von AMD und ich steh als erster auf und applaudiere aber auch nicht mit 6-monatiger Verspaetung.
Ailuros
2007-03-31, 08:39:37
Den R600 gab es als Prototyp doch schon längere Zeit, was für die Treiberentwicklung wohl reicht, auch wenn noch keine verkaufsfähigen Karten in größerer Menge hinzukriegen waren. Und vorher wird doch sicher mit Simulationen gearbeitet, was schonmal etwas Vorarbeit ermöglicht und Zeit spart.
Ein sehr gutes Treiberteam kann Dir auch elegant ein paar HW-bugs verstecken.
Das problematische an dem Erscheinungstermin ist imho, dass Ati/AMD die Karten gegen Sommer auf den Markt bringt. Ich weiß nicht, ob man das auf den Weltmarkt übertragen kann, aber in meinem Bekanntenkreis rüstet fast niemand zum spielen seinen PC im Sommer auf, weil sie einfach mehr Bock auf Schwimmbad und Grillen etc haben. Und es macht einfach keinen Sinn 500€+ für ne Graka auszugeben, wenn die die meiste Zeit nur vor sich hinstaubt. Und im Herbst(zur Aufrüstzeit) kommt dann wohl schon der G90, welcher wohl wieder ein Stück schneller sein wird.
Kennt jmd ne Tabelle, wo die Graka-Verkäufe über die verschiedenen Monate hinweg erkenntlich sind?
Blutmaul
2007-03-31, 11:15:12
[QUOTE=Ailuros;5371401]Man braucht gewisse Mittel mit dem Ding ueberzeugen zu koennen; ohne die demenstrechende SW (egal welche) wuerde eine R600 Vorfuehrung nur zur Blamage fuehren.
QUOTE]
Also doch 3dm07... :biggrin:
deekey777
2007-03-31, 11:23:55
[QUOTE=Ailuros;5371401]Man braucht gewisse Mittel mit dem Ding ueberzeugen zu koennen; ohne die demenstrechende SW (egal welche) wuerde eine R600 Vorfuehrung nur zur Blamage fuehren.
QUOTE]
Also doch 3dm07... :biggrin:
Call of Juarez und Just Cause.
horn 12
2007-03-31, 11:58:50
Auch gut, hoffe das da etwas kommt für Stalker und den R600.
Das wäre das I-Tup für den R600, ein Top Taktuelles Game mit AAA bei Stalker.... Wäre genial!:biggrin:
Daluxx
2007-03-31, 12:19:28
Die 05 bekommst du wohl erst Samstag, in der 04 auf Seite 73.
Ne kurze Frage an euch PCGH: Ich lese mir auch immer die PCGamesHardware und es ist wirklich ein sehr gutes Magazin,jedoch ist mir aufgefallen,dass seit zwei Augaben hinten immer steht,dass ihr nen G80vs. R600 Test macht. Der ist aber in keiner erschienen-bis jetzt.:| ;(
jedoch ist mir aufgefallen,dass seit zwei Augaben hinten immer steht,dass ihr nen G80vs. R600 Test macht. Der ist aber in keiner erschienen-bis jetzt.:| ;(Das liegt wohl an der ständigen Verschiebung des R600. ;)
Godmode
2007-03-31, 13:14:40
Ne kurze Frage an euch PCGH: Ich lese mir auch immer die PCGamesHardware und es ist wirklich ein sehr gutes Magazin,jedoch ist mir aufgefallen,dass seit zwei Augaben hinten immer steht,dass ihr nen G80vs. R600 Test macht. Der ist aber in keiner erschienen-bis jetzt.:| ;(
Es ist immer eine Fußnote dabei, wo steht: "Alle Angaben und Termine sind ohne Gewähr. Aufgrund von Terminverschiebungen auf Herstellerseite kann es zu planmäßigen Änderungen kommen."
James Ryan
2007-03-31, 14:31:01
Ne kurze Frage an euch PCGH: Ich lese mir auch immer die PCGamesHardware und es ist wirklich ein sehr gutes Magazin,jedoch ist mir aufgefallen,dass seit zwei Augaben hinten immer steht,dass ihr nen G80vs. R600 Test macht. Der ist aber in keiner erschienen-bis jetzt.:| ;(
:ulol3: :ulol4: :ucrazy3:
Frag mal bei ATi nach warum das so ist! Oder einfach mal scharf nachdenken. :P
MfG :cool:
Blutmaul
2007-03-31, 15:11:15
[QUOTE=Blutmaul;5371582]
Call of Juarez und Just Cause.
Ich meinte das ja auch im übertragenen Sinn: "Eine Software die den R600 zum glänzen bringt"!
Aber es fällt mir schwer, zu erkennen, wie allein zwei Spielchen gross was reissen sollen.
[QUOTE=DK777;5371594]
Aber es fällt mir schwer, zu erkennen, wie allein zwei Spielchen gross was reissen sollen.
ups...; du hast da was falsch verstanden, nicht die "spielchen" sollen was reisen, sondern der R600.
Hauwech
2007-03-31, 17:04:28
Und ob ich daran glaube. Etwas neues verkauft sich erwiesenermaßen deutlich besser als ein ein vergleichbares Produkt, welches schön länger am Markt ist. Warum glaubst du gibt es zu einem späteren Zeitpunkt oft neue Versionen von älteren Chips, die sich leistungstechnisch oft nur um Nuancen unterschieden? Natürlich hat Nv auch andere Beweggründe, eine Ultra zu releasen.
Ohne den schnelleren R600 am Horizont und nur um einen neuen "Kaufanreiz" für die Leute zu bieten hätte auch eine GTX mit 600 MHz gereicht, sich also leistungstechnisch nur um Nuancen unterscheidet. Eine Ultra mit den spekulierten/erwarteten Specs ~650/1800/1100MHz wäre imho mangels Konkurrenz gar nicht nötig gewesen da man im Moment ohnehin das stärkste Paket am Markt hat. Edit: Wer sich also die schnellste Karte holen möchte, kommt an der GTX also sowieso nicht vorbei. Also wozu einen neuen Kaufanreiz bieten. Daraus folgt für mich, dass die Ultra in erster Linie als Gegenspieler für den R600 gedacht ist und weniger als "Kaufanreiz".
Hey Ail und Demi ! Auch schon informiert worden das 65nm zum Launch kommt?
Ailuros
2007-03-31, 20:45:19
Hey Ail und Demi ! Auch schon informiert worden das 65nm zum Launch kommt?
Schoen; dann wird's ein ziemlicher ruhiger Sommer ;)
OT:
Also wenn MS die Schnittstellen nicht in aller letzte Sekunde total umgebaut hat, warum sollte es schwer sein? Da sollte doch genug Zeit gewesen sein, vielleicht auch unterschätzt von Seiten der Hardware Hersteller?.
Entweder hat MS die HW Hersteller in die Pfanne bei Vista gehauen, oder die stolpern über sich selbst(siehe Creative) oder man hat da zu sehr gespart am Personal.
Die andere Seite ist, desto weniger bei einem Kunden reifen muss, desto besser für den Kunden. Nur manche wollen alles möglichst früh und meckern natürlich sofort, weil es Fehler enthält, aber Irgendjemanden Zeit zugestehen für die Fertigstellung tun die nicht.
Thema:
Persönlich sehe ich DX10 nicht als must have an, mangels jeglicher Anwendungen und Treiber+HW(um es solop zubeschreiben). Daher ist die Verspätung bei ATI halb so schlimm, in der hinsicht aber nur. Mit DX10 kann man aber sicher gutes Marketing betreiben und Marketing ist manchmal schon fast alles, weniger Geschwindigkeit....OEM Vertäge....
Hauptsache es besteht weiterhin ne gesunde Konkurenz mit Innovationen für den Kunden mit halbwegs guten Preisen für den Kunden.
wenn eine oder andere Positive Überraschung noch bekannt gegeben wird, umso schöner. Wird wohl ja anscheinend nen Platform launch geben, so wie Intel die macht....
Was ich gehört hatte vor 2 Wochen, nen Mangel an GDDR4 Speicher ist schuld an der verzögerung......(nachgehackt, seine Quelle ist ok ....Edit)
Ailuros
2007-03-31, 21:26:14
Der Umstieg von win9x zu win2k Treibern war auch nicht besonders leicht. Bei XP war es leichter da es zu stark verwandt mit win2k ist.
zitat aus dem hardwareluxx forum :
Ok, Leute. Ich habe gerade eine eMail von meiner Quelle bekommen und mir fallen die Augen raus. AMD bereitet gerade den letzten und finalen Schlag gegen nVidia und Intel vor.
Ich konnte in Erfahrung bringen, daß der R600 schon im Januar hatte gelaunched werden können und zwar hart. Aber AMD verfolgt eine andere Strategie. Vom 23.-24. April wird AMD die gesamte R600-Serie sowie alle K10-Modelle auf einmal launchen. Die Hardware stellt alles bisher dagewesen in den Schatten, sowohl in der Leistung als auch im Preis! Auch wurde der Produktname Athlon 64 komplett verworfen.
R600 Launch Modelle:
X2900 XTX 65nm 64v5@1,2GHz 1GB GDDR4@2,8GHz@512Bit ca. 60% schneller als 8800GTX 499€
X2900 XT 65nm 64v5@1GHz 512MB GDDR3@2GHz@512Bit ca. 30% schneller als 8800GTX 399€
X2900 XL 65nm 48v5@1GHz 512MB GDDR3@1,8GHz@512Bit ca. 5% schneller als 8800GTX 319€
X2900 GT 65nm 48v5@0,8GHz 512MB GDDR3@1,6GHz@256Bit ca. 20% schneller als 8800GTS 640 249€
X2600 XT 65nm 36v5@0,6GHz 512/256MB GDDR3@1,4GHz@256Bit ca. 5% schneller als 8800GTS 320 199€
X2600 XL 65nm 36v5@0,5GHz 256MB GDDR3@1,2GHz@256Bit ca. 25% schneller als 8600GTS 149€
K10 Launch Modelle:
AMD Exan X4 65nm 4x2,5GHz 2MB L3 ca. 70% schneller als QX6700@3GHz 799€
AMD Exan X4 65nm 4x2,3GHz 2MB L3 ca. 50% schneller als QX6700@3GHz 699€
AMD Exan X4 65nm 4x2,1GHz 2MB L3 ca. 30% schneller als QX6700@3GHz 599€
AMD Exan X4 65nm 4x1,9GHz 2MB L3 ca. 10% schneller als QX6700@3GHz 499€
AMD Zetan X2 65nm 2x2,9GHz 2MB L3 ca. 90% schneller als X6800 699€
AMD Zetan X2 65nm 2x2,7GHz 2MB L3 ca. 70% schneller als X6800 599€
AMD Zetan X2 65nm 2x2,5GHz 2MB L3 ca. 50% schneller als X6800 499€
AMD Zetan X2 65nm 2x2,3GHz 2MB L3 ca. 30% schneller als X6800 399€
AMD Zetan X2 65nm 2x2,1GHz 2MB L3 ca. 10% schneller als X6800 299€
AMD Zetan X2 65nm 2x1,9GHz 2MB L3 ca. gleichschnell wie X6800 199€
Auch lassen sie die neuen AMDs auf K10-Basis super übertakten 4GHz mit 1,4v sind keine Seltenheit bei den Zetan X2s, die Exan X4s erreichen oft 3,5GHz mit 1,4v. Auch wird AMD den neuen Sockel AM2+, der auch Zerberus genant wird, launchen. Die Preise werden dank 32nm Fertigung des Chipsatzes sehr, sehr gering sein.
Erfreulich ist auf daß K10 und R600 sehr wenig Strom verbrauchen. Mit einem max. TDP von 135W beleibt der R600 unter dem G80 und der K10 setzt mit einem max. TDP von 65W Intel richtig unter Druck. Ich habe verschiedene validierte Benchmarkergebnisse gesehen und kann diese Daten damit bestätigen. Ich der nächsten Woche werde ich die Links wohl verbreiten können. Ein AMD Exan mit 2,5GHz und eine X2900 XTX erreichen die 25k Pkt. Marke im 3DMark06
Mit einem Lächeln einschlafen, soll Wunder bewirken.
Danke lieber Gast!
Auch wenn nicht seit 34min ein bestimmter Tag wäre, sind diese Infos wenig glaubwürdig. ;)
dargo
2007-04-01, 00:34:49
Ich liebe den ersten April. :D
Stimmt. Noch ist es ein Scherz.
Aber vielleicht werden wir TATSÄCHLICH eine R600-Grafikkarte zu diesem Preis im Sommer in den Händen halten.
Am 1. ein Witz bringen is einfach nur schlecht
w0mbat
2007-04-01, 00:44:32
Nein, schlecht ist es wann anders einen Witz zu bringen. Fehlt nur noch daß der INQ meinen Aprilscherz übernimmt :D
Edit/ Die Daten müssten stimmen, wie will sich AMD sonst gegen die 8800 Ultra wehren?
8800Ultra specifications out:
Nvidias ultimate flagship will be more than you ever expected.
This $999 card comes with 3 graphic chips. There will be two overclocked 80nm G80 chips with 650mhz(1.7GHz shaderclock), each of them can use 1.5GB GDDR4 with the awesome clock of 3.2GHz. The third chip will be a small G84 chip with 256MB GDDR3 memory, which is used for game physics in Nvidias new SLI 2.0.
The card uses an exclusive an special cooling solution and works very quiet although the power consumption establishs a new record.
Release will be in late May to crush Atis new R600 chip.
More information, pictures and maybe benchmarks soon!
;D
Anarchy-HWLUXX
2007-04-01, 07:04:09
Woah ... ich glaube ich meide jegliche News seiten für den rest des Tages und schalte mein Gedächtniss in den Stand-by Mode für alles andere ...
Ailuros
2007-04-01, 07:10:27
Was sollen 650MHz core/~1.7GHz shader clock grosses an Leistung bringen ausser dass der hohe shader clock eben mehr GFLOPs in sinnlosen synthetischen Benchmarks abgibt?
128 * 3 * 1.7GHz = 653 GFLOPs
Was sie nur brauchen ist mehr als nur 18% aus der MUL Einheit zu quetschen und einen synthetischen Benchmark der nur einfache MADD+MUL Befehle ausfuehrt.
Uebrigens koennte Carsten mit der R600 die-Groesse vielleicht doch recht haben; die RV630 trotz fast gleicher die-Groesse aber in 65nm kann der G84 leider doch nicht das Wasser reichen.
Blutmaul
2007-04-01, 08:58:54
Woah ... ich glaube ich meide jegliche News seiten für den rest des Tages und schalte mein Gedächtniss in den Stand-by Mode für alles andere ...
Heute wäre der Tag, wo ungestraft was durchsickern könnte :wink:
reunion
2007-04-01, 09:33:21
die RV630 trotz fast gleicher die-Groesse aber in 65nm kann der G84 leider doch nicht das Wasser reichen.
Wie kommst du darauf?
Blutmaul
2007-04-01, 10:42:34
DAS ist die Antwort auf viele Fragen:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1175412801
reunion
2007-04-01, 10:54:56
DAS ist die Antwort auf viele Fragen:
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1175412801
Das glaubst du doch selbst nicht. Stichwort 1. April.
Bin ich der einzige, der diesen 1.-April-Crap kein wenig lustig findet? Wenn die Leute, die diese Meldungen erstellen, wenigstens kreativ wären, aber so?
PhoenixFG
2007-04-01, 14:17:28
Es steht dir doch frei, es besser zu machen.
dr_mordio
2007-04-01, 14:36:04
hi,
was ist das hier?
auch ein aprilscherz?
oder endet die NDA wirklich?
http://www.tweakpc.de/news/11315/r600-vorstellung-am-montag/
vielleicht wurde ja bei einigen nach der verschiebung vergessen die NDA zu verlängern??? :smile:
Nakai
2007-04-01, 14:43:59
Ente...
die RV630 trotz fast gleicher die-Groesse aber in 65nm kann der G84 leider doch nicht das Wasser reichen.
Irgendwie versteh ich den Satz grammatikalisch nicht.
mfg Nakai
Lol, ne Karte bestellt dr.mordio^^
Ente...
Irgendwie versteh ich den Satz grammatikalisch nicht.
mfg Nakai
Die: G84 = RV630
Prozess: G84/80nm, RV630/65nm
Leistung: G84 > RV630
Ich denke mal, das war es, was Ailuros meinte.
Q
Nakai
2007-04-01, 14:50:46
Tja ich könnte das nicht wirklich herauslesen, aus diesem Satz, aber danke sehr.
Naja diesmal sieht es mies für ATI aus...:(
mfg Nakai
deekey777
2007-04-01, 18:06:42
Irgendiwe sind mir zu viele auf 23/24 April versessen.
hi,
was ist das hier?
auch ein aprilscherz?
oder endet die NDA wirklich?
http://www.tweakpc.de/news/11315/r600-vorstellung-am-montag/
vielleicht wurde ja bei einigen nach der verschiebung vergessen die NDA zu verlängern??? :smile:
Mich würde nichts mehr wundern. Morgen, Mai oder mit DNF zusammen.
OBrian
2007-04-01, 18:57:49
Irgendiwe sind mir zu viele auf 23/24 April versessen.
Mich würde nichts mehr wundern. Morgen, Mai oder mit DNF zusammen.Nun ja, da bei Stalker auch gewitzelt wurde, daß es erst kurz vor Duke Nukem ForNever erscheinen sollte, und es inzwischen tatsächlich erschienen ist, kann es ja nicht mehr lange dauern ;P
Naja diesmal sieht es mies für ATI aus...:(
mfg Nakai
Dann trennt sich wenigstens Spreu und Weizen der Käufer
Ist kein Aprilscherz, denn wenn man auf die Hauptseite geht sieht man ne andere News, die ist der Scherz. Das mit der wasserkühlung.
MadHatter666
2007-04-01, 23:14:57
Die Tweak-PC Meldung würde insofern schon passen, immerhin hat AMD bei der Cebit ja auch gesagt, dass es innerhalb der nächsten 16 Tage einen Tech-Day geben wird - ob nun Launch oder Tech-Day oder Ente bleibt aber abzuwarten ;-)
Na, da bin ich mal gespannt! Bis morgen ist es nicht mehr lang :cool:
MadHatter666
2007-04-01, 23:29:18
Jo, so lange warte ich auch noch, wenn die NDA wirklich um 0 Uhr fällt, dann sind die Reviews spätestens um 00:15 online - abwarten :)
Ist kein Aprilscherz, denn wenn man auf die Hauptseite geht sieht man ne andere News, die ist der Scherz. Das mit der wasserkühlung.
Ich glaube an gar nichts mehr. Die Seite hat bestimmt nicht nur einen Newsschreiber und bestimmt nicht nur einen Scherzkeks im Team :)
Aber falls doch was dran ist, war die Tarnung als Aprilscherz wirklich gelungen und ich bin baff :)
Ailuros
2007-04-02, 00:05:16
Wie kommst du darauf?
Du kannst Dir wohl nicht vorstellen dass ich schon etwas konkretes diesbezueglich von 2 zuverlaessigen (und unabhaengigen) Quellen gehoert habe oder?
Einen besonderen Eindruck macht es mir auch nicht wenn ich an die RV630 Specs denke.
Die: G84 = RV630
Prozess: G84/80nm, RV630/65nm
Leistung: G84 > RV630
Ich denke mal, das war es, was Ailuros meinte.
Q
Ja. Und damit reunion nicht wieder meckert dass ich nur Zeug in die Luft schreibe, es kam von zwei Herstellern die von beiden IHVs einkaufen.
Noch ein Aprilscherz:
If you want or need something faster, AMD will offer you two options. You can either slot in a second Excellon processor for a total of four processor cores and two graphics cores, or you can choose to install an ATI RenderX chip in the second Socket F. The RenderX is actually two R600 dies in a single chip. This gives you something like a 5-6X increase in graphics processing capability.
http://www.techarp.com/showarticle.aspx?artno=392&pgno=0
PCGH_Carsten
2007-04-02, 09:50:03
Du kannst Dir wohl nicht vorstellen dass ich schon etwas konkretes diesbezueglich von 2 zuverlaessigen (und unabhaengigen) Quellen gehoert habe oder?
Einen besonderen Eindruck macht es mir auch nicht wenn ich an die RV630 Specs denke.
Ja. Und damit reunion nicht wieder meckert dass ich nur Zeug in die Luft schreibe, es kam von zwei Herstellern die von beiden IHVs einkaufen.
Das wäre aber ziemlich böse - älterer Prozess, gleicher Die-Size und trotzdem höhere Performance. Ich hoffe, das lag noch an den unoptimierten Treibern bei Ati.
robbitop
2007-04-02, 10:02:45
Offensichtlich ist die G80 Architektur pro Transistor und Takt deutlich schneller als die R600 Architektur. (575 MHz vs ~800 MHz). ATI musste also eine sehr hohe Taktrate waehlen, um gleichzuziehen.
Bei einer Halbierung beider Produkte (Midrange) bleibt das Verhaeltnis ja dasselbe. Allerdings scheinen die Taktraten bei G84 mit 720 MHz so hoch zu sein, dass ATI da nicht mehr adaequat gegensteuern kann.
drmaniac
2007-04-02, 10:47:43
ich hoffe jeder hat die Meldung gelesen, dass es ein AS war ;)
Offensichtlich ....
Offensichtlich ist dass hier etwas ganz schnell ohne Grundlagen als offensichtlich dargestellt und höchstwahrscheinlich nur wenige posts später als Tatsache postuliert wird.
dargo
2007-04-02, 11:43:15
Offensichtlich ist die G80 Architektur pro Transistor und Takt deutlich schneller als die R600 Architektur. (575 MHz vs ~800 MHz). ATI musste also eine sehr hohe Taktrate waehlen, um gleichzuziehen.
Ich verstehe nicht wie man immer wieder das selbe wiederholen kann. Der G80 taktet nicht langsamer. Der Shadertakt liegt bei 1350Mhz!
Man kann also schlecht behaupten, der G80 hätte eine bessere Pro/Mhz Leistung.
Ich verstehe nicht wie man immer wieder das selbe wiederholen kann. Der G80 taktet nicht langsamer. Der Shadertakt liegt bei 1350Mhz!
Der G80 hat einfachere Recheneinheiten. Der hohe Shadertakt resultiert einzig daraus.
Oder anders ausgedrückt: Trotz unterlegender GFlops (MADD) schafft er eine bessere Umsetzung der Leistung als der r580.
Abgesehen davon taktet nVidia den 8800GTX noch konservativ. Der Vorteil einer deutlich früheren Veröffentlichung.
robbitop
2007-04-02, 12:24:23
Offensichtlich ist dass hier etwas ganz schnell ohne Grundlagen als offensichtlich dargestellt und höchstwahrscheinlich nur wenige posts später als Tatsache postuliert wird.
Nunja, sonst braeuchte R600 wohl kaum eine so hohe Taktrate. So what?
Ich verstehe nicht wie man immer wieder das selbe wiederholen kann. Der G80 taktet nicht langsamer. Der Shadertakt liegt bei 1350Mhz!
Man kann also schlecht behaupten, der G80 hätte eine bessere Pro/Mhz Leistung.
Ja das stimmt allerdings. Die Rechenleistung ist damit natuerlich hoeher. Aber das aendert trotzdem nichts an meiner Kernaussage.
PCGH_Carsten
2007-04-02, 12:28:25
Nunja, sonst braeuchte R600 wohl kaum eine so hohe Taktrate. So what?
Im Durchschnitt hat der G80 aber 962,5 MHz - wie schon erwähnt takten die Shader ebenfalls sehr sehr hoch.
Allerdings ist es IMO ziemlich wurscht, wie die Leistung zustande kommt. Mich interessieren drei Dinge.
Wer ist schneller
Wer hat die höhere Bildqualität
Wer nimmt weniger Leistung auf
Mit etwas Abstand kommt dann noch mein Lieblingsthema: Optimierungen...
robbitop
2007-04-02, 12:34:49
Im Durchschnitt hat der G80 aber 962,5 MHz - wie schon erwähnt takten die Shader ebenfalls sehr sehr hoch.
Allerdings ist es IMO ziemlich wurscht, wie die Leistung zustande kommt. Mich interessieren drei Dinge.
Wer ist schneller
Wer hat die höhere Bildqualität
Wer nimmt weniger Leistung auf
Mit etwas Abstand kommt dann noch mein Lieblingsthema: Optimierungen...
Wie kommst du auf die Bildung eines aritmetischen Mittelwertes?
Wie auch immer. R600 muss den Kerntakt ziemlich hochreissen, um mit dem G80 gegenhalten zu koennen. Der G84 hat anscheinend relativ hohe Taktraten (zum G80). Das macht es schwerer gegen diesen gegenhalten zu koennen.
PCGH_Carsten
2007-04-02, 12:45:00
Wie kommst du auf die Bildung eines aritmetischen Mittelwertes?
Andere Vorschläge, die unterschiedlichen Clock-Domains zu verrechnen? 90:10, 80:20, 70:30, 60:40? Mir ist's, wie oben geschrieben, eigentlich egal, nur sollten wir alle mal von der Mähr runterkommen, der G80 hätte "niedrige" Taktraten. Er hat unter anderem niedrige, aber eben auch sehr sehr hohe Taktraten.
Sphinx
2007-04-02, 12:47:03
Wie auch immer. R600 muss den Kerntakt ziemlich hochreissen, um mit dem G80 gegenhalten zu koennen. Der G84 hat anscheinend relativ hohe Taktraten (zum G80). Das macht es schwerer gegen diesen gegenhalten zu koennen.
Was spielt es für eine Rolle wenn der Core effizienter mit dem zu verarbeitenden Material arbeitet. Den "Kerntakt" auf die Leistung (ProMHZ / Leistung) zu schliessen ist "lächerlich".
Was wenn der R600 Effizienter ist als der G80. Und der höhere Takt dann den Vorsprung nur noch erhöht.
robbitop
2007-04-02, 13:03:27
Andere Vorschläge, die unterschiedlichen Clock-Domains zu verrechnen? 90:10, 80:20, 70:30, 60:40? Mir ist's, wie oben geschrieben, eigentlich egal, nur sollten wir alle mal von der Mähr runterkommen, der G80 hätte "niedrige" Taktraten. Er hat unter anderem niedrige, aber eben auch sehr sehr hohe Taktraten.
Diese zu verrechnen halte ich fuer undifferenziert. Es ist ok, diese getrennt zu beachten.
robbitop
2007-04-02, 13:04:28
Was spielt es für eine Rolle wenn der Core effizienter mit dem zu verarbeitenden Material arbeitet. Den "Kerntakt" auf die Leistung (ProMHZ / Leistung) zu schliessen ist "lächerlich".
Was wenn der R600 Effizienter ist als der G80. Und der höhere Takt dann den Vorsprung nur noch erhöht.
Wenn du eine adaequate Antwort haben moechtest, empfehle ich einen anderen Umgangston.
Nakai
2007-04-02, 13:09:46
Der höhere Shadertakt hat den Vorteil, dass man nicht viele transistorfressende-DX10-Shader verwendet.
Ansonsten ist es egal, wie hoch eine GPU taktet...den Rest hat Carsten gesagt.
mfg Nakai
robbitop
2007-04-02, 13:15:51
Der hoehere Shadertakt spart ALUs und hat auch gleichzeitig eine hervoragende Granularitaet zurfolge.
PCGH_Carsten
2007-04-02, 13:21:01
Diese zu verrechnen halte ich fuer undifferenziert. Es ist ok, diese getrennt zu beachten.
Das ist es, das ist es. Dann habe ich mein Ziel der Sensibilisierung ja erreicht. ;)
James Ryan
2007-04-02, 13:46:09
OMG, in anderen Foren (nenne jetzt keine Namen, sonst gibts wieder Stress ;) ) wird doch wirklich mit einem Launch heute um 16 Uhr gerechnet.
Oh man, diese Aprilscherze sind echt nicht gut. ;D
MfG :cool:
Paul Brain
2007-04-02, 14:13:46
Wiedermal ein bisschen Fud von Fuad:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=379&Itemid=1
Weshalb 896MB? Pro Chip, oder pro Karte? Das wären dann evtl. 448MB/Chip.
Beides hört sich entweder nach einem etwas anders breiten SI an, oder es ist totaler Fuad... :biggrin:
DrumDub
2007-04-02, 14:17:43
Beides hört sich entweder nach einem etwas anders breiten SI an, oder es ist totaler Fuad... :biggrin: oder es ist einfach ein verspäteter aprilscherz. ;)
abgesehen davon ist das hier der r600-thread.
Wiedermal ein bisschen Fud von Fuad:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=379&Itemid=1
Weshalb 896MB? Pro Chip, oder pro Karte? Das wären dann evtl. 448MB/Chip.
Beides hört sich entweder nach einem etwas anders breiten SI an, oder es ist totaler Fuad... :biggrin:
2x 320 + 256 = 896
Paul Brain
2007-04-02, 14:22:23
abgesehen davon ist das hier der r600-thread.:biggrin:
Sorry! Und ich hab mich schon gewundert, daß hier noch nix drüber gestanden ist...^^
Sphinx
2007-04-02, 14:39:40
Wenn du eine adaequate Antwort haben moechtest, empfehle ich einen anderen Umgangston.
:) Ich habe keine "adaequate" Antwort in einem Spekulationsthread erwartet. Oder siehst du einen Fragezeichen " ? "
Und Hand aufs Herz was passt dir nicht and meiner Ausdrucksweise wenn du es auf dieses "Lächerlich" beziehst ~ einige "Kommentare" werden hier gleich für bare Münzen gehandelt ohne auch nur "einen" Hauch zu wissen was uns erwarten wird...
AnarchX
2007-04-02, 15:37:14
R600 GDDR4 works at 2100 MHz
Still comes later (http://www.fudzilla.com/index.php?option=com_content&task=view&id=380&Itemid=34)
reunion
2007-04-02, 16:21:23
Du kannst Dir wohl nicht vorstellen dass ich schon etwas konkretes diesbezueglich von 2 zuverlaessigen (und unabhaengigen) Quellen gehoert habe oder?
Einen besonderen Eindruck macht es mir auch nicht wenn ich an die RV630 Specs denke.
Ja. Und damit reunion nicht wieder meckert dass ich nur Zeug in die Luft schreibe, es kam von zwei Herstellern die von beiden IHVs einkaufen.
Warum sollte ich "wieder meckern"? Auch wenn es dir wohl nicht aufgefallen ist, so habe ich deine Behauptungen eigentlich immer als bare Münze genommen. Es hat sich ja in der Vergangenheit auch oft genug gezeigt, dass von dir nicht nur heiße Luft kommt. Nur wollte ich halt gerne etwas mehr Infos. :)
Wenn sich das wirklich so bewahrheiten sollte, und es nicht bloß an den Treibern liegt, dann lässt das jedenfalls auf die gesamte Architektur ein verdammt schlechtes Licht scheinen, denn aus dem kleineren Fertigungsprozess und einer fast gleichen Die-Größe müsste eigentlich eine wesentlich höhere Transistorenanzahl folgen. Und wenn daraus trotzdem ein langsamerer Chip resultiert, dann sieht es wahrlich düster für ATi aus.
robbitop
2007-04-02, 16:30:37
Nunja, ATIs Architekturen sind seit einer Weile bereits in der Designphase auf hohe Taktraten angewiesen. Das muss ja nichts schlechtes sein. Nur scheint ihnen jedesmal die Reife des Prozesses einen Strich durch die Rechnung zu machen.
Der G84 ist ja relativ hoch getaktet. Da muesste ein RV630 schon mit deutlich mehr Takt entgegenkommen, right?
PCGH_Carsten
2007-04-02, 16:35:32
Der G84 ist ja relativ hoch getaktet. Da muesste ein RV630 schon mit deutlich mehr Takt entgegenkommen, right?
Oder eben – untypischerweise – "breiter" sein.
Nunja, ATIs Architekturen sind seit einer Weile bereits in der Designphase auf hohe Taktraten angewiesen. Das muss ja nichts schlechtes sein. Nur scheint ihnen jedesmal die Reife des Prozesses einen Strich durch die Rechnung zu machen.
Der G84 ist ja relativ hoch getaktet. Da muesste ein RV630 schon mit deutlich mehr Takt entgegenkommen, right?
eigentlich nicht, außer es ist ein Fehldesign....denn der RV630 sollte mindestens soviele transistoren haben wie ein G84
ich weiß nicht wenn der RV630 wirklich deutlich mehr Takt braucht wie der G84 um mit diesem gleichzuziehen ist das R600 Design absolut für die Tonne....das möcht ich aber mal bezweifeln...
entweder bekommt ATI den Takt des RV630 wegen des neuen Fertigungsprozesses einfach nichtmal auf G84 niveau oder diese ganzen Spekulationen sind ziemlich irreführend....
reunion
2007-04-02, 16:42:12
Im Durchschnitt hat der G80 aber 962,5 MHz - wie schon erwähnt takten die Shader ebenfalls sehr sehr hoch.
Allerdings ist es IMO ziemlich wurscht, wie die Leistung zustande kommt. Mich interessieren drei Dinge.
Wer ist schneller
Wer hat die höhere Bildqualität
Wer nimmt weniger Leistung auf
Volle Zustimmung. Wenn bei R600 der gesamte Chip mit 800Mhz taktet, ist das dann im Vergleich zu G80 hoch oder niedrig? ATi spart durch die hohen TMU/ROP-Taktrate hier an zusätzlichen Einheiten, während nV durch die hohen ALU-Taktraten dort sparen konnte. Leider wird oft, um einen künstlichen Vorteil herbeizureden, nur einer der beiden Taktdomainen bei G80 betrachtet. Ganz davon abgesehen, dass letztendlich ohnehin nur das zählt, was hinten rauskommt, ist das doch etwas zu einfach.
Der G84 ist ja relativ hoch getaktet. Da muesste ein RV630 schon mit deutlich mehr Takt entgegenkommen, right?
Wenn beide ein halbierter High-End-Core wären ja. Allerdings scheint das bei weitem nicht so einfach zu sein. Was G84 angeht: Zumindest was die TMU/ROP-Taktraten betrifft. Dafür dürften bei G84 die ALU-Taktraten nach momentanen Spekulationen wesentlich niedriger sein als bei G80.
Nakai
2007-04-02, 17:15:49
Wenn beide ein halbierter High-End-Core wären ja. Allerdings scheint das bei weitem nicht so einfach zu sein. Was G84 angeht: Zumindest was die TMU/ROP-Taktraten betrifft. Dafür dürften bei G84 die ALU-Taktraten nach momentanen Spekulationen wesentlich niedriger sein als bei G80.
Wenn nicht sogar gleich zum Rest des Chips.
Er hat weniger Einheiten und deswegen muss er höher getaktet sein.
Erste Übertaktungsversuche zeigen schon deutlich wie hoch das Ding geht.
mfg Nakai
robbitop
2007-04-02, 17:50:31
eigentlich nicht, außer es ist ein Fehldesign....denn der RV630 sollte mindestens soviele transistoren haben wie ein G84
ich weiß nicht wenn der RV630 wirklich deutlich mehr Takt braucht wie der G84 um mit diesem gleichzuziehen ist das R600 Design absolut für die Tonne....das möcht ich aber mal bezweifeln...
entweder bekommt ATI den Takt des RV630 wegen des neuen Fertigungsprozesses einfach nichtmal auf G84 niveau oder diese ganzen Spekulationen sind ziemlich irreführend....
Das habe ich doch schon ausgefuehrt. R600 braucht 800 MHz Coreclock, um gegen G80 gegenhalten zu koennen. RV630 und G84 sind anscheinend halbierungen. Also bleibt das Verhaeltnis gleich. Da G84 aber ein ganzes Stueck hoeher taktet als G80, muss RV630 ziemlich hochtakten, um das selbe Kraefteverhaeltnis wie zw G80 und R600 herzustellen.
@reunion
good point!
Allerdings zeigen die ersten Benches, dass der G84 ziemlich reinhaut. Das spricht eher fuer meine These.
Da das aber nur 3DMarks sind, ist die Aussagekraft natuerlich noch nicht soo stark.
@Carsten
jepp, das ist natuerlich auch eine Moeglichkeit, die man nicht ausschleissen sollte.
Das habe ich doch schon ausgefuehrt. R600 braucht 800 MHz Coreclock, um gegen G80 gegenhalten zu koennen.
Fundierte Quelle? Bisher ist das Spekulation mehr nicht.
reunion
2007-04-02, 18:09:27
Das habe ich doch schon ausgefuehrt. R600 braucht 800 MHz Coreclock, um gegen G80 gegenhalten zu koennen. RV630 und G84 sind anscheinend halbierungen. Also bleibt das Verhaeltnis gleich. Da G84 aber ein ganzes Stueck hoeher taktet als G80, muss RV630 ziemlich hochtakten, um das selbe Kraefteverhaeltnis wie zw G80 und R600 herzustellen.
Tja, das Problem an deinen Aussagen ist, dass du von zwei Dingen ausgehst, die alles andere als fix sind. Niemand weiß aktuell, ob R600 mit diesen ~800Mhz, mit denen er vermutlich am Ende getaktet sein wird, X% schneller, X% langsamer, oder gleichschnell wie G80 ist. Auch das RV630 und G84 Halbierungen sein werden, ist zumindest in punkto SI schonmal definitiv falsch, und wohl auch sonst alles andere als gewiss. Ich habe hier duchaus noch starke Zweifel.
@reunion
good point!
Allerdings zeigen die ersten Benches, dass der G84 ziemlich reinhaut. Das spricht eher fuer meine These.
Da das aber nur 3DMarks sind, ist die Aussagekraft natuerlich noch nicht soo stark.
Was ist deine These? Dass der ALU-Takt im selben Maß mit skaliert wie die TMU/ROP-Taktraten? Der 3dmark hat in der Vergangenheit schon zu oft ein falschen Bild abgegeben, was die reellen Leitungswerte betrifft, und vorallem ist das natürlich total undifferenziert, und ohne AA/AF auch wenig praxisrelevant.
robbitop
2007-04-02, 18:32:15
Fundierte Quelle? Bisher ist das Spekulation mehr nicht.
Wir befinden uns im Spekulationforum. Waere das nicht der Fall, waere R600 schon lange raus. Pure Logik. Indizien gibt es uebrigens genug (es gibt immer mehr Quellen die alle dasselbe sagen). Das genuegt mir fuers Spekuforum.
Fundiert ist es erst nach dem Launch. Dann ist es aber keine Spekulation sondern nurnoch uninteressanter kalter Kaffee. ;)
robbitop
2007-04-02, 18:35:12
Tja, das Problem an deinen Aussagen ist, dass du von zwei Dingen ausgehst, die alles andere als fix sind. Niemand weiß aktuell, ob R600 mit diesen ~800Mhz, mit denen er vermutlich am Ende getaktet sein wird, X% schneller, X% langsamer, oder gleichschnell wie G80 ist. Auch das RV630 und G84 Halbierungen sein werden, ist zumindest in punkto SI schonmal definitiv falsch, und wohl auch sonst alles andere als gewiss. Ich habe hier duchaus noch starke Zweifel.
Ja natuerlich unter den gegebenen spekulativen (und wahrscheinlichen) Vorraussetzungen. Viele alternative Moeglichkeiten existieren dennoch, klar.
Wie gesagt, pure Spekulation mit dem Versuch das Wahrschinlichste herauszupicken. Obs am Ende korrekt ist, wissen wir nicht.
Was ist deine These? Dass der ALU-Takt im selben Maß mit skaliert wie die TMU/ROP-Taktraten? Der 3dmark hat in der Vergangenheit schon zu oft ein falschen Bild abgegeben, was die reellen Leitungswerte betrifft, und vorallem ist das natürlich total undifferenziert, und ohne AA/AF auch wenig praxisrelevant.
Nein meine These bezog sich auf die Performance des G84. Nicht auf detailierte Taktraten.
Natuerlich muss mir niemand zustimmen. Spekulatius ahoi.
Nakai
2007-04-02, 18:59:33
Wir befinden uns im Spekulationforum. Waere das nicht der Fall, waere R600 schon lange raus. Pure Logik. Indizien gibt es uebrigens genug (es gibt immer mehr Quellen die alle dasselbe sagen). Das genuegt mir fuers Spekuforum.
Fundiert ist es erst nach dem Launch. Dann ist es aber keine Spekulation sondern nurnoch uninteressanter kalter Kaffee. ;)
Nun ja der R600 soll mittlerweile ohne Probleme höher als 800 Mhz takten.
mfg Nakai
Zeit macht einen Chip nicht schneller... irgendwann wird ein Respin unwirtschlaftlich, bevor man diesen Punkt erreicht cancelt man lieber die Produktion und treibt die Entwicklung auf dem kleineren Prozess voran.
D.h. das das geschehen ist, nur kann man nicht so mir nix dir nix vermuten das 800MHz no Prob sind. Ok wir haben schon beim NV40/R420 Release gesehen das ATI höhere Taktraten fahren kann als nV, wobei das aber auch nicht heißen muss das mehr Taktrate mehr Leistung entspricht...
Vorallem wenn ich eine Architektur zu sehr auf Arithmetische Leistung auslege die gar nicht rüberkommt in meinem wichtigsten Verkaufsargument (FPS).
Es lohnt immer noch "mehr" Füllrate und Speicherbandbreite zu pushen als ein Arithemtik Monster zu schaffen, für das AA ein Fremdwort ist...
Nun ja der R600 soll mittlerweile ohne Probleme höher als 800 Mhz takten.
Ja bis 850MHz, was aber in diesem Bereich nicht wirklich viel ist. Für mehr soll es dann schon eine WaKü brauchen.
sklave_gottes
2007-04-02, 19:26:17
Zeit macht einen Chip nicht schneller... irgendwann wird ein Respin unwirtschlaftlich, bevor man diesen Punkt erreicht cancelt man lieber die Produktion und treibt die Entwicklung auf dem kleineren Prozess voran.
D.h. das das geschehen ist, nur kann man nicht so mir nix dir nix vermuten das 800MHz no Prob sind. Ok wir haben schon beim NV40/R420 Release gesehen das ATI höhere Taktraten fahren kann als nV, wobei das aber auch nicht heißen muss das mehr Taktrate mehr Leistung entspricht...
Vorallem wenn ich eine Architektur zu sehr auf Arithmetische Leistung auslege die gar nicht rüberkommt in meinem wichtigsten Verkaufsargument (FPS).
Es lohnt immer noch "mehr" Füllrate und Speicherbandbreite zu pushen als ein Arithemtik Monster zu schaffen, für das AA ein Fremdwort ist...
Das kann man bedenkenlos unterschreiben. Ich sehe immer noch nicht so einen grossen vorteil von übermässiger Arithmetischer Leistung.(r520vs580) Und das gerade bei aa/af.
Aber auch bei der Speicherbandbreite wird es so sein wie letzte zeit immer im High End : Übermässig viel(bissel zu viel) damit der chip dadurch nicht langsamer wird.
Im migrange eher fast das gegenteil immer bissel zu wenig...
Mal sehen zu zeit sieht es so aus als würde der r600 ein noch unausgeglichenneres verhältnis wie die x1950xtx haben was Speicherbandbreite/gpu betrift.
mfg martin
Nakai
2007-04-02, 19:34:54
Ja bis 850MHz, was aber in diesem Bereich nicht wirklich viel ist. Für mehr soll es dann schon eine WaKü brauchen.
Es soll sogar noch weiter gehen. ;)
Ich sehe immer noch nicht so einen grossen vorteil von übermässiger Arithmetischer Leistung.(r520vs580) Und das gerade bei aa/af.
Soviel hat das auch nicht mit der höheren aritmethischen Leistung zu tun.
mfg Nakai
robbitop
2007-04-02, 19:42:58
R580 hat die ALUs auch nicht gerade in der besten Granularitaet angebunden. 12 von ihnen kuemmern sich simultan um einen Quad. Allerdings war es fuer ATI billig, auf diese Weise einfach nur die ALU Anzahl zu skalieren, ohne die Steuerungslogik grossartig beruecksichtigen zu muessen.
12 von ihnen kuemmern sich simultan um einen Quad.
Hrmm? Nicht um das selbe Quad auf dem Bildschirm. Das wäre viel zu ineffizient. Ergibt auch keinen Sinn, wenn man bedenkt, dass die Branch-Granularität auf 12x4 Pixel vergrößert wurde (3 Quads).
Vorallem wenn ich eine Architektur zu sehr auf Arithmetische Leistung auslege die gar nicht rüberkommt in meinem wichtigsten Verkaufsargument (FPS).
Es lohnt immer noch "mehr" Füllrate und Speicherbandbreite zu pushen als ein Arithemtik Monster zu schaffen, für das AA ein Fremdwort ist...
Dann brauchen wir uns um den R600 ja keine Gedanken zu machen, Speicherbandbreite scheint er in Hülle und fülle zu bekommen und im Gegensatz zum G80 werden die Aritmethikeinheiten nicht extra höher getaktet sondern der komplette chip :rolleyes:
robbitop
2007-04-02, 19:53:50
Hrmm? Nicht um das selbe Quad auf dem Bildschirm. Das wäre viel zu ineffizient. Ergibt auch keinen Sinn, wenn man bedenkt, dass die Branch-Granularität auf 12x4 Pixel vergrößert wurde (3 Quads).
Naja gut, dann bearbeitet eine Quadpipe eben gleichzeitig 3 nebeneinanderliegende Quads. Dennoch hat sich die Granularitaet verschlechtert.
AnarchX
2007-04-02, 19:54:32
R600/RV610/RV630 launch date is 14 May 2007 (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61511)
It is more or less confirmed that the launch of the highly anticipated cards from ATi is on the 14 May 2007.
As we all know, schedules keeps changing. If nothing goes wrong, it should be early May or rather in mid May.
@ G80 vs R600 - Takt :
Man sollte vielleicht mehr auf die Taktrate im Verhältnis zum Design schauen um hier einen Vergleich zu ziehen.
Und da scheint man imo beim R600 wohl eher mehr im Nachheinein getan zu haben um ihn in einen konkurrenzfähigen Zustand zu bringen, wodurch eben der Takt für dieses auf einen hohen Takt ausgelegt Design wohl auch schon ziemlich Grenze ist.
Der G80 scheint da eher noch mehr Potential zu haben, nicht zuletzt wenn man ihn auch die Möglichkeit gäbe in 80nm in diesem Vergleich anzutreten.
Dann brauchen wir uns um den R600 ja keine Gedanken zu machen, Speicherbandbreite scheint er in Hülle und fülle zu bekommen und im Gegensatz zum G80 werden die Aritmethikeinheiten nicht extra höher getaktet sondern der komplette chip :rolleyes:
... Schonmal genau hingesehen was der G80 an Texture Leistung bietet und warum? 32TMUs mit 2xAF gratis, klar kann man das durch mehr Taktrate schlagen, aber das kostet auch. Und von mehr Bandbreite profitiert der G80 nicht wirklich, wie man an den sehr wenigen OC Benchmarks sieht, also wird ein R600 wohl EHER nicht von seinem SI profitieren können. Das wird gar nix reißen können, es ist nur "good to have" für die Zukunft.
Naja gut, dann bearbeitet eine Quadpipe eben gleichzeitig 3 nebeneinanderliegende Quads. Dennoch hat sich die Granularitaet verschlechtert.
Klar. Ich vermute auch dass der Rasterizer nun immer 3 Quads ausgibt die nebeneinander liegen. Das würde die Effizienz an den Polygonkanten auch schmälern. Aber dazu hab ich keine echte Quelle.
Steve1
2007-04-02, 20:08:32
Sollte der R600 nicht Ende April erscheinen? Das wird ja immer später.
seahawk
2007-04-02, 20:09:11
Es gibt durchaus vermehrte Anzeichen, dass die 800Mhz nut die XT betreffen und die XTX um 1GHZ liegt.
Es gibt durchaus vermehrte Anzeichen, dass die 800Mhz nut die XT betreffen und die XTX um 1GHZ liegt.
Mit oder ohne den "1. April" Faktor?
Abgesehen davon kommt nVidia nur auf ca. 800MHz ohne Spannungserhöhung mit der 8600. Und AMD soll dann mit einem doppelt so komplexen Chip 1000mHz erreichen?
... Schonmal genau hingesehen was der G80 an Texture Leistung bietet und warum? 32TMUs mit 2xAF gratis, klar kann man das durch mehr Taktrate schlagen, aber das kostet auch. Und von mehr Bandbreite profitiert der G80 nicht wirklich, wie man an den sehr wenigen OC Benchmarks sieht, also wird ein R600 wohl EHER nicht von seinem SI profitieren können. Das wird gar nix reißen können, es ist nur "good to have" für die Zukunft.
Transistorcount R600 >> Transistorcount G80
Und ich bezweifle das ATI davon kaum was in TMUs angelegt hat :rolleyes: welche auch noch sehr hoch getaktet sind
Die meisten sehen den G80 immer wegen der 128 Shadereinheiten welche mit 1350mhz auch noch sehr hoch getaktet sind im Vorteil :rolleyes: aber eher nicht wegen der TMUs oder der Speicherbandbreite.
Tests zeigen eher das auch mit ein paar Shadereinheiten weniger (simuliert durch geringeren Shadertakt) der G80 noch eine ähnliche performance liefern würde :rolleyes:
Und was sagst du damit, auser das du mich bestätigst, das TMU Leistung wichtiger ist als "Shaderleistung"? Die Smilies machens nicht besser... Und wer sind die meisten?
Mit oder ohne den "1. April" Faktor?
Mit natürlich, vergessen wir nich den 65nm Faktor *g
Im Herbst vieleicht, aber vorher nicht...
Es gibt durchaus vermehrte Anzeichen, dass die 800Mhz nut die XT betreffen und die XTX um 1GHZ liegt.
Niemals für die GPU, beim RAM Takt ja...
In der Vergangenheit haben die Refresh Chips so hohe Taktsprünge hinbekommen, (G70@0,11 vs G71@0,09 z.b. waren 220MHz) aber doch net innerhalb einer Modell Reihe bei Release...
Sind doch auch nur 25%. Nicht so von den großen Zahlen beeindrucken lassen.
AnarchX
2007-04-02, 20:32:02
Transistorcount R600 >> Transistorcount G80
Soviel sind die 720M auch nicht wieder, wenn man beim G80 den NVIO dazuzählt und bedenkt dass ATi wohl bei der R X2-Serie erweiterte IO-Features bieten wird.
Es wird sich zeigen müssen wie viel der hohe Gesamttakt beim R600 beim R600 aus den Einheiten holen kann, die mit dem Transistorbudget noch möglich waren neben dem 512Bit-"Ringbus" und den 64 5D-ALUs, die man mit einer gewünschten Flexibilität verkaufen will.
Und was sagst du damit, auser das du mich bestätigst, das TMU Leistung wichtiger ist als "Shaderleistung"? Die Smilies machens nicht besser... Und wer sind die meisten?
ich hab nie was anderes behauptet nur soll der R600 gerade in sachen bandbreite überlegen sein und da er in punkto shaderanzahl/takt unterlegen seion könnte müssen die transistoren ja in form von ROPs oder TMUs verwendung finden :rolleyes:
reunion
2007-04-02, 20:38:00
Mal sehen zu zeit sieht es so aus als würde der r600 ein noch unausgeglichenneres verhältnis wie die x1950xtx haben was Speicherbandbreite/gpu betrift.
Selbst mit nur 24 stinknormalen TMUs wäre das Füllrate/Bandbreiteverhältnis bei >800Mhz kaum niedriger als bei R580+.
Soviel sind die 720M auch nicht wieder, wenn man beim G80 den NVIO dazuzählt und bedenkt dass ATi wohl bei der R X2-Serie erweiterte IO-Features bieten wird.
Es wird sich zeigen müssen wie viel der hohe Gesamttakt beim R600 beim R600 aus den Einheiten holen kann, die mit dem Transistorbudget noch möglich waren neben dem 512Bit-"Ringbus" und den 64 5D-ALUs, die man mit einer gewünschten Flexibilität verkaufen will.
so wie VIVO->AVIVO? :rolleyes: erweiterte IO features werden eher durch die flexible DX10 Architektur geschaffen wo man die GPU mittlerweile ähnlich einer CPU nutzen kann.....das da für irgendwas noch einen Haufen Transistoren verschwendet werden wage ich mal zu bezweifeln ^^
ich hab nie was anderes behauptet nur soll der R600 gerade in sachen bandbreite überlegen sein und da er in punkto shaderanzahl/takt unterlegen seion könnte müssen die transistoren ja in form von ROPs oder TMUs verwendung finden :rolleyes:
Bandbreite reißt ja nix, aber bezüglich TMUs war die letzte Generation ja nicht gerade vollmundig, da ist man auch eher in der Taktrate nach oben als in der Architektur in die Breite. 24TMUs @ 800MHz nur zu gerne, aber 32... Das wird ne heiße Kiste, erinnert an den 32TMU G71 der im Simulator geglüht hat ^^
sklave_gottes
2007-04-02, 20:56:16
Selbst mit nur 24 stinknormalen TMUs wäre das Füllrate/Bandbreiteverhältnis bei >800Mhz kaum niedriger als bei R580+.
Wieso kann doch passen:
r580+
16x650=10400MTex/s zu 64000 MB/s
(jetzt mal ganz blöde :-) ) MB/sec / MTex/sec = 6,15 MB/sec / MTex/sec
r600 GDDR4
24x850=20400MTex/s zu 128000 MB/s
MB/sec / MTex/sec = 6,27 MB/sec / MTex/sec
mfg martin
Radeonator
2007-04-02, 20:57:53
240W Peak :eek: ;D :P
Naja, zumindest hat ATi somit definitiv im Verbrauch nV hinter sich gelassen...schade eigentlich.
robbitop
2007-04-02, 20:57:58
erinnert an den 32TMU G71 der im Simulator geglüht hat ^^
Welcher ein frueher G80 war, wie sich spaeter herausstellen sollte ;)
reunion
2007-04-02, 20:59:21
Sind doch auch nur 25%. Nicht so von den großen Zahlen beeindrucken lassen.
Das sind über 50%. Wobei G70 mit angezogener Handbremse lief.
Wieso kann doch passen:
r580+
16x650=10400MTex/s zu 64000 MB/s
(jetzt mal ganz blöde :-) ) MB/sec / MTex/sec = 6,15 MB/sec / MTex/sec
r600 GDDR4
24x850=20400MTex/s zu 128000 MB/s
MB/sec / MTex/sec = 6,27 MB/sec / MTex/sec
mfg martin
Tja, nur sollte R600 zumindest 32TMUs haben. Ich sehe also hier also keine überflüssige Bandbreite.
robbitop
2007-04-02, 21:04:37
Tja, nur sollte R600 zumindest 32TMUs haben. Ich sehe also hier also keine überflüssige Bandbreite.
Wenn man die 64 bi Samples vom G80 betrachtet, und das sollte man, dann ist das Verhaeltnis hier nochmehr zulasten der Fuellrate als es beim R600 mit 32 bi Samples sein duerfte. G80 scheint allerdings dennoch nicht durch die Bandbreite behindert zu sein. Gute Caches und immer mehr wachsende aritmetische Berechnungsauffwand sei dank. Selbst mit MSAA ist man noch ziemlich ausgewogen.
Aber wer weiss, was ATI sich hat einfallen lassen. :)
Nakai
2007-04-02, 21:04:42
Vll wird der RV630 ähnlich dem RV530 also weniger mit dem R600 zu tun haben als man denkt.;)
32TMUs
Vll 16 BiTMUs...oder gar TriTMUs^^
mfg Nakai
Naja es gibt halt keine Benchmarks die sich richtig mit dem OC Verhalten des G80 beschäftigen, auf meiner GTS640 bin ich der Meinung limiert das SI überhaupt nicht. Wenn ich von 513 auf ~600MHz hochtakte, sehe ich in Eve Online @ 1680*1050 bei 4x4SuperSampling eine FPS Steigerung von 53 auf 60FPS, gehe ich auf 900MHz Ramtakt dabei steigen die FPS um ~3 nochmal an (bei Standart GPU Takt + 900MHz Ramtakt sehe ich auch nur ~3FPS Steigerung). 4x4S Habe ich als Worst Case genommen, das 8telt die Füllrate oder ;)
SuperSampling belastest die Texturleistung.
Wenn schon, muss MSAA (8x) und hohe Auflösungen verglichen werden.
reunion
2007-04-02, 21:21:12
Wenn man die 64 bi Samples vom G80 betrachtet, und das sollte man, dann ist das Verhaeltnis hier nochmehr zulasten der Fuellrate als es beim R600 mit 32 bi Samples sein duerfte. G80 scheint allerdings dennoch nicht durch die Bandbreite behindert zu sein. Gute Caches und immer mehr wachsende aritmetische Berechnungsauffwand sei dank. Selbst mit MSAA ist man noch ziemlich ausgewogen.
Aber wer weiss, was ATI sich hat einfallen lassen. :)
Andererseits scheint selbst noch R580+ von der höheren Bandbreite zu profitieren, wenn auch natürlich nicht linear mit der Taktsteigerung. Auch bin ich von der nicht vorhandenen Bandbreitenlimitierung auf G80 alles andere als überzeugt. Soweit ich das beobachten konnte, legt der Chip durch einen höheren Speichertakt doch relativ gut zu, wenn auch hier natürlich nicht linear mit der Taktsteigerung, aber muss das gewährleistet sein, damit man von Bandbreitenlimitierung sprechen darf?
Letztendlich sind das zwei völlig unterschiedliche Chips, und beide Hersteller werden sich bei ihrer zur Verfügung gestellten Bandbreite schon was gedacht haben.
Spasstiger
2007-04-02, 21:49:31
Ich bin mal auf einen Showdown zwischen G80 und R600 in Stalker gespannt. Hier könnte der R600 mit seinem breiten Speicherinterface und dem großeb Speicher in der XTX-Version den G80 durchaus deklassieren. Schließlich ist ein deferred-Renderer wie in Stalker extrem bandbreiten- und speicherhungrig.
robbitop
2007-04-02, 21:51:21
Was hat das eine mit dem Anderen zu tun?
Das sind über 50%. Wobei G70 mit angezogener Handbremse lief.
800Mhz -> 1000Mhz sind 50%? Err.
Ne vom G70 auf den G71 (430-650). Die jetzige XTX hat ja gegenüber den anderen Modellen nicht wirklich an GPU Takt hinzugewonnen, da fährt ATI ja eine viel geringere Abstufung durch den GPU Takt als nV.
Wenn man die 64 bi Samples vom G80 betrachtet, und das sollte man, dann ist das Verhaeltnis hier nochmehr zulasten der Fuellrate als es beim R600 mit 32 bi Samples sein duerfte. G80 scheint allerdings dennoch nicht durch die Bandbreite behindert zu sein. Gute Caches und immer mehr wachsende aritmetische Berechnungsauffwand sei dank. Selbst mit MSAA ist man noch ziemlich ausgewogen.
Aber wer weiss, was ATI sich hat einfallen lassen. :)
Das ergibt keinen Sinn. Einerseits willst du die überragende Texelleistung herausstellen, andererseits relativierst du diese durch den angeführten wachsende "Arithmetikbedarf".
Vielleicht sind die benannten Caches auch gar nicht so besonders und der G80 kann seine TMU Leistung gar nicht ausspielen... Wäre auch nicht das erste Mal und würde in die bisherige Nvidia Doktrin passen.
? Wie darf man das verstehen *g Das der G80 seine TMU Leistung voll Zeigen darf sieht man doch.
Inwieweit kann man von den 2 R600 und der Aussage das diese eine Leistung von über 1 TeraFlop bringen mit den 346GFlops einer G80 vergleichen?
Gar nicht, theoretische Leistungsdaten sagen nichts aus, solange nicht bekannt ist wieviel davon umgesetzt werden kann bzw. wie effizienz das ganze ist. Eine Cell in der PS3 ist ja auch ein Monster bei Folding@Home, heist aber nicht das er einen C2D bei Spielen in den Boden stampft.
Der R580 bringts auf 374GFLOPs, theoretisch, G71 auf 250 und bei der G80 ists wohl zwischen 346 und 518 irgendwo (wobei das "fehlende" Mul gar nicht soviel ausmachen soll seit neuestem, vieleicht theoretische 30GFLOPs)
Ailuros
2007-04-03, 06:59:59
eigentlich nicht, außer es ist ein Fehldesign....denn der RV630 sollte mindestens soviele transistoren haben wie ein G84
ich weiß nicht wenn der RV630 wirklich deutlich mehr Takt braucht wie der G84 um mit diesem gleichzuziehen ist das R600 Design absolut für die Tonne....das möcht ich aber mal bezweifeln...
entweder bekommt ATI den Takt des RV630 wegen des neuen Fertigungsprozesses einfach nichtmal auf G84 niveau oder diese ganzen Spekulationen sind ziemlich irreführend....
Es reicht wenn RV630 weniger (oder insgesamt zu wenig) TMUs/ROPs als der direkte Konkurrent hat; die Busbreite in diesem Segment ist sowieso gleich fuer RV630/G84.
In solch einem Fall waere R600 nicht fuer die Tonne, sondern eben die Skalierbarkeit der Architektur ist etwas schlecht durchdegacht.
robbitop
2007-04-03, 09:16:37
Das ergibt keinen Sinn. Einerseits willst du die überragende Texelleistung herausstellen, andererseits relativierst du diese durch den angeführten wachsende "Arithmetikbedarf".
Durch anwachsende aritmetikleistung in ASICs wird natuerlich auch ein gewisser Anteil an Tex Leistung benoetigt. Ich relativierte lediglich die dafuer benoegtigte Bandbreite, da die Berechnung und Filterung eines Texels immer mehr Zeit in Anspruch nimmt.
Vielleicht sind die benannten Caches auch gar nicht so besonders und der G80 kann seine TMU Leistung gar nicht ausspielen... Wäre auch nicht das erste Mal und würde in die bisherige Nvidia Doktrin passen.
Waere das der Fall, haetten wir einen Bottleneck in Richtung Bandbreite. Die Sklaierungstests, die ich gesehen habe, sagen etwas voellig anderes.
PCGH_Carsten
2007-04-03, 09:31:37
Transistorcount R600 >> Transistorcount G80
Und ich bezweifle das ATI davon kaum was in TMUs angelegt hat :rolleyes: welche auch noch sehr hoch getaktet sind
Ich glaube nicht, Tim.
Zum einen gab es von Ati bereits ziemlich klare Aussagen, dass das 3:1 -Verhältnis von ALU zu TMU in Zukunft nur höher gehen würde (und das war vor der leidigen Skalar-Prozession - also mit der eigentlichen Anzahl Shadereinheiten im R600) und zweitens dürften die deutliche fetteren ALUs des R600 (ich sehe jetzt mal mind. 4*64 eher 5*64 als gesetzt) schon ziemlich stark ins Budget hauen - ob da bei halbwegs vergleichbarem TC noch soviel Platz für eine sinnvolle Aufstockung der TMUs bleibt, wage ich zu bezweifeln.
Was ich allerdings für möglich halte sind 16 TMUs, die entweder doppel-Bi, eher aber direkt trilinear filtern können. Ich denke nicht, dass Ati auf den 16 Bi-TMUs des R4x/5x stehenbleibt.
robbitop
2007-04-03, 10:12:41
TMUs sind so teuer nicht.
"Doppel-Bi" TMUs sind flexibler als Tri TMUs.
deekey777
2007-04-03, 10:50:39
http://hardwarezone.com/articles/view.php?cid=30&id=2229&pg=2
HWZ: With the merger, it is understandable that certain products have been realigned, but could we have an update on the R600 delays?
Henri Richard: The R600 will be out in the second quarter. The reason we decided to delay the launch was that we wanted to have a complete DX10-enabled solution top to bottom. A lot of people wrote that the reason it is delayed is because of a problem with the silicon, but there is no problem with the silicon. We are demonstrating it. We can ship it today. But if you think about it, looking at where the market is at, the volumes are going to be in the R610 and R630, so it makes sense for us to do a one time launch of the entire family of DX10 enabled products. That meant delaying the R600 for a few weeks, but frankly it doesn't make a difference in the life cycle of the product and talking with our customers and partners, they felt that it would make a bigger impact with one full launch. So we decided to do that.
Also increasingly in particular with Vista, as we've seen with the competition. It doesn't matter if you're shipping the silicon if the drivers are not stable. There is nothing more frustrating than having bought a new graphics card and having your system crash repeatedly because the drivers are not ready. Although we today, even by Microsoft standards, have the best and most stable drivers in the entire industry. The few weeks will give us even more time to continue improving the drivers. Again, the decision lies in the fact that we will have a top to bottom DX10 offering with drivers that will have a very very high level of stability and the only difference is a few weeks. So it seems to make a lot of sense to do it that way
Alles klar?:biggrin:
Die Frage ist nur ob sie wirklich zugeben würden ob sie ein Problem bei der Produktion hätten/haben.
So long
der_guru
seahawk
2007-04-03, 11:39:24
Der Chip leif doch schon lage, nur nicht in den gewünschten Taktungen und zu brauchbaren Yields.
PCGH_Carsten
2007-04-03, 11:39:44
TMUs sind so teuer nicht.
"Doppel-Bi" TMUs sind flexibler als Tri TMUs.
Atis alte TMUs, ohne FP-Filterung, waren noch "günstiger, trotzdem habens nur 16 Stück selbst in den R580 geschafft. Jetzt müssen sie noch FP16-Filter integrieren - das wird mehr kosten.
Klar sind Tri-TMUs nicht so flexibel wie Bi-TMUs, wie Skalare-TMUs (ehrlich gesagt hoffe ich irgendwann darauf - gerade für GPPGU-Stuff). Andererseits sind 4-5D-ALUs ja auch nicht so flexibel wie Skalareinheiten...
robbitop
2007-04-03, 11:45:32
Die Ursache darin liegt im Dispatcher. Dieser ist nicht fuer mehr als 16 TMUs ausgelegt. Die Kontrollogik bei einem entkoppelten Design ist besonders teuer fuer TMUs (diese brauchen ja 4 Samples pro TMU und viel mehr Register).
Was willst du denn mit skalaren TMUs? Bei GPGPU bringen die nichts und auch beim Filtern bringt das nichts. (man rechne mal auf einem Blatt papier die bilineare Interpolation eines beliebigen Texels nach)
ATi muss noch mehr als nur FP16-Filterung in die TMUs integrieren. Vor allem unterstützung für NPOT-Texturen.
PCGH_Carsten
2007-04-03, 12:01:18
Was willst du denn mit skalaren TMUs? Bei GPGPU bringen die nichts und auch beim Filtern bringt das nichts. (man rechne mal auf einem Blatt papier die bilineare Interpolation eines beliebigen Texels nach)
Dasselbe, wie mit skalaren ALUs: Eine möglichst gute Auslastung erreichen. Beim Filtern wird das sicherlich nichts bringen, beim reinen Speicherzugriff im GPGPU-Bereich IMO aber schon. Soweit ich das mitbekommen habe, sind dort auch einkanalige Zugriffe sinnvoll.
@Coda:
Wie kompliziert ist denn NPOT (Non-Power-of-Two) zu implementieren? Für meinen Laien-Chipdesigner-Verstand klingt das eher trivial.
robbitop
2007-04-03, 12:09:42
Dasselbe, wie mit skalaren ALUs: Eine möglichst gute Auslastung erreichen. Beim Filtern wird das sicherlich nichts bringen, beim reinen Speicherzugriff im GPGPU-Bereich IMO aber schon. Soweit ich das mitbekommen habe, sind dort auch einkanalige Zugriffe sinnvoll.
Was willst du mit Fixed function Units bei GPGPU?
Hmm wenn an dem Geschwätz etwas dran ist, dann könnte dies bedeuten, dass AMD/ATI der Klage gegen NVidia bezüglich der Treiber mit Angst entgegensehen. Wahrscheinlich wird ein Sieg der Kläger nicht für unwahrscheinlich angesehen. Produkthaftungssummen in den USA kennt man ja. Sollte diese Gefahr wirklich bestehen, so könnte ich den Schritt bestehen. Vor allem könnte dies der Fall sein, wegen der neuen Treiberpolitik unter Vista. Dies könnte solch einer Klage wesentlich erfolgversprechnder machen. Hoffe, diese Konstellation ist nicht real.
Wie kompliziert ist denn NPOT (Non-Power-of-Two) zu implementieren? Für meinen Laien-Chipdesigner-Verstand klingt das eher trivial.
Zumindest wird die Zugriffslogik deutlich fetter was Mipmapping, Anisotropy und die verschiedenen Adressierungsmodi (Wrap, Mirror, etc.) angeht.
Das hat nicht umsonst bis NV4x gedauert bis das eine GPU mal konnte.
PCGH_Carsten
2007-04-03, 12:51:38
Was willst du mit Fixed function Units bei GPGPU?
Einzelne Texel auslesen, anstelle von Quads. Könnte IMO sinnvoll sein bei Texturen, die als Datenspeicher benutzt werden - dort ist nicht zwingend eine lokale Kohärenz der Daten gegeben, sodass Quad-TMUs evtl. nur ein Viertel ihrer Nennleistung bringen könnten.
@Coda:
Danke für den Input.
Eine Quad-TMU heißt nur so weil der Pixelshader immer in 4er Paketen durchgearbeitet wird und dementsprechend die TMU auch so angesprochen wird. Die gesampleten Texel können aber voneinander völlig unabhängige Positionen auf der Textur haben.
Oder meinst du eine TMU die statt einem bilinearen 4 Point-Samples raushaut?
robbitop
2007-04-03, 14:00:07
Wozu braucht man Texturfilterung bei GPGPU?
Beim normalen Rasterizen gibt es allerdings schon durch die Quadpipelines einen gewissen Verschnitt. Das ist aber kein Problem, dass die TMUs allein haben. Im Gegenzug kann man zur eingesparten Kontrollogik allerdings mehr dieser Einheiten verbauen. Dass das am Ende effektiver ist, weiss man spaetestens seit dem NV10.
reunion
2007-04-03, 16:11:24
800Mhz -> 1000Mhz sind 50%? Err.
Ich denke es war mehr als offensichtlich, dass es hier um G70/G71 ging.
Ich glaube nicht, Tim.
Zum einen gab es von Ati bereits ziemlich klare Aussagen, dass das 3:1 -Verhältnis von ALU zu TMU in Zukunft nur höher gehen würde (und das war vor der leidigen Skalar-Prozession - also mit der eigentlichen Anzahl Shadereinheiten im R600) und zweitens dürften die deutliche fetteren ALUs des R600 (ich sehe jetzt mal mind. 4*64 eher 5*64 als gesetzt) schon ziemlich stark ins Budget hauen - ob da bei halbwegs vergleichbarem TC noch soviel Platz für eine sinnvolle Aufstockung der TMUs bleibt, wage ich zu bezweifeln.
Was ich allerdings für möglich halte sind 16 TMUs, die entweder doppel-Bi, eher aber direkt trilinear filtern können. Ich denke nicht, dass Ati auf den 16 Bi-TMUs des R4x/5x stehenbleibt.
Ich bin auch von der Zahl 16 überzeugt, was die TMUs betrifft. Das würde dann exakt ein 4:1 ALU/Tex-Ratio nach alter Definition geben. Allerdings wird eine TMUs höchstwahrscheinlich ein tri-Sample pro Takt rausschmeißen können.
Is aber teuer... irgendwo muss es bei Tri-TMUs einen Haken geben sonst hätten wir sie doch. Auch der G80, der WinkelU Filtert, der sogar 2xAF in einem Rutsch raushaut macht "nur" Bi-Samples in einem Takt. Warum hat man das 2xAF nicht gelassen und dafür Tri-Sampling in einem Takt verbaut?
Logischste Erklärung ist nunmal das es zu teuer in Sachen Transistoren ist, oder die Sache hat noch n anderen Hacken, zu komplex für höhere Taktrate? Vieleicht gibts deswegen nur Bi-TMUs, kann man höher Takten, relativiert Tri-TMUs...
16TMUs oder 32TMUs mal beiseite... wieviel ROPs soll denn der R600 haben? Bei "nur" 16 und der klassichen Abhängigkeit der ROPs vom SI ergibt das, 16x32Bit Kanäle, höh?
Die Ursache darin liegt im Dispatcher. Dieser ist nicht fuer mehr als 16 TMUs ausgelegt. Die Kontrollogik bei einem entkoppelten Design ist besonders teuer fuer TMUs (diese brauchen ja 4 Samples pro TMU und viel mehr Register).
Baut man halt den Dispatcher um, oder erfindet das Rad neu, die Konkurrenz hatte das Problem ja nicht, sind wir bei 32TMUs schon...
robbitop
2007-04-03, 19:18:56
Is aber teuer... irgendwo muss es bei Tri-TMUs einen Haken geben sonst hätten wir sie doch. Auch der G80, der WinkelU Filtert, der sogar 2xAF in einem Rutsch raushaut macht "nur" Bi-Samples in einem Takt. Warum hat man das 2xAF nicht gelassen und dafür Tri-Sampling in einem Takt verbaut?
Eine Tri-TMU kann pro Takt entweder ein bilineares oder ein Trilineares Sample raushauen. Aber sie ist nicht so flexibel z.B. 2xBiAF pro Takt zu realisieren.
Die G80 TMUs koennen das was Tri TMUs koennen und noch mehr.
Baut man halt den Dispatcher um, oder erfindet das Rad neu, die Konkurrenz hatte das Problem ja nicht, sind wir bei 32TMUs schon...
Ich glaube ich habe R520->R580 angesprochen. Da war ein Dispatcherumbau wohl eher zu umfangreich. Zum R600 ist es natuerlich ein ganz anderes Thema.
reunion
2007-04-03, 20:31:20
16TMUs oder 32TMUs mal beiseite... wieviel ROPs soll denn der R600 haben? Bei "nur" 16 und der klassichen Abhängigkeit der ROPs vom SI ergibt das, 16x32Bit Kanäle, höh?
Ja, das mit den 16 SP mit jeweils 32-bit hat Ail schon mehrmals erwähnt. Das SI ist also nicht nur breiter, sondern es ist auch die Granularität deutlich besser als bei G80. Plus den Ringbus. Das dürfte allerdings wohl auch stark zulasten der Transistorenanzahl gehen.
Eine Tri-TMU kann pro Takt entweder ein bilineares oder ein Trilineares Sample raushauen. Aber sie ist nicht so flexibel z.B. 2xBiAF pro Takt zu realisieren.
Die G80 TMUs koennen das was Tri TMUs koennen und noch mehr.
Bleibt die Frage, wer 2xbi AF heute braucht. Im Endeffekt wird, oder besser gesagt sollte ohnehin überall mindestens tri gefiltert werden. Wo wir auch schon beim Vorteil von tri TMUs wären, denn bei diesen macht bi-Filterung, und damit die ganzen Filteroptimierungen keinen Sinn mehr. Die TMUs des G80 sind zwar flexibler, aber nicht unbedingt zum Vorteil des Kunden.
Bleibt die Frage, wer 2xbi AF heute braucht. Im Endeffekt wird, oder besser gesagt sollte ohnehin überall mindestens tri gefiltert werden. Wo wir auch schon beim Vorteil von tri TMUs wären, denn bei diesen macht bi-Filterung, und damit die ganzen Filteroptimierungen keinen Sinn mehr. Die TMUs des G80 sind zwar flexibler, aber nicht unbedingt zum Vorteil des Kunden.
Daraus resultiert quasi kostenloses 2xbi-AF, Resultat: mehr FPS. Vorteil für den Kunden: mehr FPS, positiver Nebeneffekt, kein Filtertricks mehr, nie mehr.
robbitop
2007-04-03, 21:03:02
Bleibt die Frage, wer 2xbi AF heute braucht. Im Endeffekt wird, oder besser gesagt sollte ohnehin überall mindestens tri gefiltert werden. Wo wir auch schon beim Vorteil von tri TMUs wären, denn bei diesen macht bi-Filterung, und damit die ganzen Filteroptimierungen keinen Sinn mehr. Die TMUs des G80 sind zwar flexibler, aber nicht unbedingt zum Vorteil des Kunden.
Denk mal an die Filteroptimierungen. Echtes 8 Sample Tri gibts schon lange nicht mehr in der Praxis. ;)
reunion
2007-04-03, 21:11:01
Daraus resultiert quasi kostenloses 2xbi-AF, Resultat: mehr FPS. Vorteil für den Kunden: mehr FPS, positiver Nebeneffekt, kein Filtertricks mehr, nie mehr.
Wie schon gesagt, 2xbi-AF braucht heute wohl niemand. Filtertricks machen mit den Dual-bi-TMUs des G80 sehrwohl noch Sinn, durch eine Reduktion des "tri-Grades" könnte man AF deutlich beschleunigen. Einzig mit tri-TMUs würden die ganzen Filterspielchen keinen Sinn mehr machen, und genau deshalb glaube ich auch nicht wirklich dran. IMO sind da zu viele Ressourcen in die ganzen Optimierungen hinein geflossen, um diese jetzt leichtfertig nutzlos zu machen. Auch ist der Leistungsgewinn dadurch viel zu groß.
Denk mal an die Filteroptimierungen. Echtes 8 Sample Tri gibts schon lange nicht mehr in der Praxis. ;)
Diese Optimierungen könnte man ggf. auch in die tri-TMUs einbauen. Aber wie schon gesagt glaube ich da nicht wirklich dran. Vermutlich werden es dual-TMUs wie bei G80.
Naja das dürfte man wohl eher spektisch sehen können oder. Der R600 "soll", und das is ja wirklich das einzige was man überall hört, Verwandschaft zum R500/R520/Xenos aufweisen. Der G80 war für nV eine Revolution, R600 wird eher eine weitere Eevolution seitens AMD.
Frage ist, wie weit hat man sein Konzept einer US ausgebaut. Ist man von der Doktrin, mindestens 3fache Arithemtische Leistung gegenüber Textureleistung zu bringen abgewichen? Oder hat man am R580 Design gesehen, hm das hats net wirklich gebracht. Gut der Aufwand zum R580 war sicher gering und man hat noch viel Entwicklung in den R600 einfließen lassen, aber ist man von der eingeschlagenen Richtung abgewichen?
16ROPs/TMUs @ 800MHz sollen höheres AA in höherer Auflösung erlauben? Klar in hoher Auflösung sieht man nicht mehr die großen Unterschiede zwischen 4x 6x und 8x AA, aber es wird ja gebencht ;) Highend muss in hoher Auflösung @ MAX Quali Einstellungen noch Dampf bringen.
Ich hoffe man hat genug "Rawpower" eingebaut und die AA Modi erhöht, denn was man oben reingibt, bleibt auch im unteren Segment hängen, und da zählt das Featureset ja auch.
robbitop
2007-04-03, 22:06:58
Wie schon gesagt, 2xbi-AF braucht heute wohl niemand. Filtertricks machen mit den Dual-bi-TMUs des G80 sehrwohl noch Sinn, durch eine Reduktion des "tri-Grades" könnte man AF deutlich beschleunigen. Einzig mit tri-TMUs würden die ganzen Filterspielchen keinen Sinn mehr machen, und genau deshalb glaube ich auch nicht wirklich dran. IMO sind da zu viele Ressourcen in die ganzen Optimierungen hinein geflossen, um diese jetzt leichtfertig nutzlos zu machen. Auch ist der Leistungsgewinn dadurch viel zu groß.
Die 2 bi Samples pro Takt und Texel kann man auf jeden Fall gebrauchen.
Diese Optimierungen könnte man ggf. auch in die tri-TMUs einbauen.
Nicht in der Art und Weise, nein.
Ailuros
2007-04-04, 07:14:31
Wie schon gesagt, 2xbi-AF braucht heute wohl niemand. Filtertricks machen mit den Dual-bi-TMUs des G80 sehrwohl noch Sinn, durch eine Reduktion des "tri-Grades" könnte man AF deutlich beschleunigen. Einzig mit tri-TMUs würden die ganzen Filterspielchen keinen Sinn mehr machen, und genau deshalb glaube ich auch nicht wirklich dran. IMO sind da zu viele Ressourcen in die ganzen Optimierungen hinein geflossen, um diese jetzt leichtfertig nutzlos zu machen. Auch ist der Leistungsgewinn dadurch viel zu groß.
Reunion,
AF Algorithmen sind aeusserst adaptiv, wobei je nach Bedarf der Texturen zwischen 1x oder 16xAF samples angelegt werden. Wenn Du bedenkst wo der wahre Durchschnitt der angewendeten samples liegt (schaetzungsweise etwas >2xAF) ist das Ganz nutzvoller als Du Dir vorstellst,
Was jetzt tri-TMUs betrifft, man sagte mir hier dass fast-tri TMUs nicht unbedingt billiger waeren als die ersten, waehrend im B3D IRC mir genau das Gegenteil erlaeutert wurde. Auf jeden Fall sind sie nicht billiger so wie ich es verstehe als 2x Mal so viele bi-TMUs. Das dumme an der Geschichte ist dann dass die meisten Spiele zwar fuer trilinear aufrufen, aber eine immer noch sehr grosse Portion immer noch nur bilinear braucht. Mit einer tri-TMU wird einfaches bilinear nicht schneller und es ist fuer dieses angewendete Prozentual dann doch HW-Verschwendung.
Der extremste Fall den ich auf der G80 messen konnte zeigte einen ~17% Unterschied (wenn ich mich jetzt nicht irre mit der genauen Zahl) zwischen brilinear und trilinear AF. In echten Spielen ist der Unterschied dann um einiges kleiner. Man haette das Zeug auch locker weglassen koennen und ich sehe nichts von einer "deutlichen" Beschleunigung in Spielen, ausser Du willst jetzt Haare spalten und empfindest niedrige einstellige Prozentuale als grosse Unterschiede.
robbitop
2007-04-04, 09:06:14
Es gibt ja verschiedene Arten von Tri TMUs. Die Fast-Tri TMUs von S3 koennen aus der Haupttextur noch on-the-fly Mipmaps generieren. Das spart Texturbandbreite und Texturspeicher. Kostet aber sicher einiges an Rechenlogik, Registern und Caches.
PCGH_Carsten
2007-04-04, 09:58:13
Oder meinst du eine TMU die statt einem bilinearen 4 Point-Samples raushaut?
Exakt.
PCGH_Carsten
2007-04-04, 10:02:08
Auf jeden Fall sind sie nicht billiger so wie ich es verstehe als 2x Mal so viele bi-TMUs.
Besonders, wenn man nicht 2x soviele, vollständige Bi-TMUs einbaut, sondern nur die BiLERPs verdoppelt, nicht aber die komplette TMU.
robbitop
2007-04-04, 10:05:10
Oder meinst du eine TMU die statt einem bilinearen 4 Point-Samples raushaut?
Das tun die TMUs des Xabre und des Volari V5/8.
Ich verstehe nicht, was das bringen soll. Egal in welcher Situation.
PCGH_Carsten
2007-04-04, 10:13:02
Das tun die TMUs des Xabre und des Volari V5/8.
Ich verstehe nicht, was das bringen soll. Egal in welcher Situation.
Habe ich doch oben bereits geschrieben: Wenn ich eine Textur als Datenspeicher nutze, nicht als Bild. Dann hätte ich gern die genauen Werte, die in den jeweiligen Koordinaten hinterlegt sind.
robbitop
2007-04-04, 10:17:06
Habe ich doch oben bereits geschrieben: Wenn ich eine Textur als Datenspeicher nutze, nicht als Bild. Dann hätte ich gern die genauen Werte, die in den jeweiligen Koordinaten hinterlegt sind.
Und wo kommt sowas vor?
Soweit ich die Leute von der Uni Saarland verstanden habe, laeuft beim GPGPU Kram da nicht mehr viel ueber die TMUs.
PCGH_Carsten
2007-04-04, 10:54:06
Und wo kommt sowas vor?
Soweit ich die Leute von der Uni Saarland verstanden habe, laeuft beim GPGPU Kram da nicht mehr viel ueber die TMUs.
Die Saarland-Uni macht Raytracing - das ist nicht das einzige GPGPU-Gebiet. Schau mal auf die Seite der Uni Stanford, Stichworte Brook, Folding-at-Home, und noch einige andere Dinge. Das ist schon nützlich.-
stav0815
2007-04-04, 11:53:57
Die Saarland-Uni macht Raytracing - das ist nicht das einzige GPGPU-Gebiet. Schau mal auf die Seite der Uni Stanford, Stichworte Brook, Folding-at-Home, und noch einige andere Dinge. Das ist schon nützlich.-
War das bei Folding@Home aber nicht das Problem, dass dann statt den TMUs die ALUs brachliegen?
PCGH_Carsten
2007-04-04, 12:09:33
War das bei Folding@Home aber nicht das Problem, dass dann statt den TMUs die ALUs brachliegen?
Das ist öfter das Problem, ich wollte nur zeigen, dass es nicht "eine" GPGPU-Anwendungsmöglichkeit gibt.
robbitop
2007-04-04, 13:29:27
Die Saarland-Uni macht Raytracing - das ist nicht das einzige GPGPU-Gebiet. Schau mal auf die Seite der Uni Stanford, Stichworte Brook, Folding-at-Home, und noch einige andere Dinge. Das ist schon nützlich.-
Ja natuerlich. Da diese jedoch eine FPGA in diesem Gebiet selbst programmiert haben, gehe ich davon aus, dass diese Leute fitter im Bereich GPGPU sind als alle von hier zusammengenommen.
Ueber GPGPU abseits von Raytracing habe ich einige Fragen gestellt und viel auch so erklaert bekommen.
Anders gefragt, kennst du denn einen Entwickler, der fuer GPGPU die TMUs nutzt? (ausser fuer das bunte Gerendere des BOINC Clients von dem was er gerade wirklich berechnet und was niemandem effektiv etw nutzt)
PCGH_Carsten
2007-04-04, 13:42:42
Anders gefragt, kennst du denn einen Entwickler, der fuer GPGPU die TMUs nutzt? (ausser fuer das bunte Gerendere des BOINC Clients von dem was er gerade wirklich berechnet und was niemandem effektiv etw nutzt)
Mike Houston.
Und die nutzen - ich dachte, ich hätte das bereits klargemacht - die TMU nicht im klassischen Sinne, sondern schlicht, um Daten in die ALUs zu bekommen, während ein Thread läuft.
robbitop
2007-04-04, 13:56:01
Ich finde auf der Folding Page leider keine Dokumentation dazu. Hast du etw dazu parat?
Ich sehe allerdings kein Problem darin, dass die TMUs gleich 4 oder mehr Werte in einem Paket in die Pipeline druecken.
Auch wenn viele die ALUs im G80 als skalar bezeichnen, so sind diese, wie du selbst weisst, auch riesige SIMD Rechenwerke nur mit einer etwas anders angebundenen Kontrolllogik. Pro Takt wird fuer 16 Werte zwangsweise die gleiche Operation ausgefuehrt.
Ob es irgendwann tatsaechliche skalare ALUs gibt, kann vermutlich niemand sagen. Fuers Rasterizen waere die pro Tansistoreffizienz vermutlich zu schlecht. Und auch GPGPU Kram sollte groesstenteils aus SIMD bestehen. Denn nur parallelisierbare Dinge machen auf einem solchen ASIC Sinn.
Anarchy-HWLUXX
2007-04-04, 14:00:25
http://uk.theinquirer.net/?article=38714
R600's secret weapon revealed
A sound card, HDMI compliant
... soll ich mich jetzt freuen ?
Ömmm, tu ich aber nicht ! Ich will doch net auf ner GraKa Sound funktionalität haben (bezahlen) die ich eh niemals benutzen werde :udown: Dazu noch DRM verseucht, nein danke ...
PCGH_Carsten
2007-04-04, 14:20:27
Ich finde auf der Folding Page leider keine Dokumentation dazu. Hast du etw dazu parat?
Ich sehe allerdings kein Problem darin, dass die TMUs gleich 4 oder mehr Werte in einem Paket in die Pipeline druecken.
Siehe Anhang. Eine Quad-TMU kann - AFAIK - hier nur vier benachbarte Pixel auslesen (und darauf einen in diesem Falle sinnlosen bilinearen Filter anwenden).
Wenn ich jetzt aber die 0,3,11,22 Texel bräuchte, müsste ich IMO viermal anstoßen.
robbitop
2007-04-04, 14:45:57
Ah danke Carsten.
Ist nur die Frage, ob man das nicht besser nicht ueber die TMUs macht.
http://uk.theinquirer.net/?article=38714
R600's secret weapon revealed
A sound card, HDMI compliant
... soll ich mich jetzt freuen ?
Ömmm, tu ich aber nicht ! Ich will doch net auf ner GraKa Sound funktionalität haben (bezahlen) die ich eh niemals benutzen werde :udown: Dazu noch DRM verseucht, nein danke ...
Die Sound funktionen gibt es umsonst, oder kanst du uns sagen wieviel euro mehr der R600 dadurch kostet??
Dein billiges ATI bashing ist zwecklos.
Meine neue GPU wird auch Sound berechnen, das kann eine NIVIDIA nicht, es ist egal ob es sinvoll ist. Wichtig ist : meine Graka hat etwas was deine nicht hat.
gruss
Blutmaul
2007-04-04, 16:50:21
Wenn man die Entwicklung so sieht, geht es dahin, das wir nicht mehr PCs mit Graffikkarten drinnen haben, sondern Grafikkarten mit PCs drumherum.
Anarchy-HWLUXX
2007-04-04, 17:18:34
Die Sound funktionen gibt es umsonst, oder kanst du uns sagen wieviel euro mehr der R600 dadurch kostet??
Dein billiges ATI bashing ist zwecklos.
Meine neue GPU wird auch Sound berechnen, das kann eine NIVIDIA nicht, es ist egal ob es sinvoll ist. Wichtig ist : meine Graka hat etwas was deine nicht hat.
gruss
Willst du mir erzählen das die Entwicklung, die Bauteile, das komplexere PCB sowie die Arbeit an den Treibern für den Krempel nichts kosten ? Träum weiter ...
Weiterhin berechnet DIE GPU NICHT DEN SOUND. Dafür gibt es gesonderte Chips ... wär ja noch besser, der Sound frisst 3D Leistung :lol:
Wenn man die Entwicklung so sieht, geht es dahin, das wir nicht mehr PCs mit Graffikkarten drinnen haben, sondern Grafikkarten mit PCs drumherum.
Passt mal ganz und garnicht, ohne einen gescheiten untersatz bringt dir die schnellste GraKa nix.
GraKas haben ATM immernoch keinen besonderen nutzen ausserhalb von 3D für den enduser (Brute-force Numbercrunching braucht man zuhause wahrlich selten) und es schaut nicht so aus als ob sich das dieses Jahr gravierend ändern wird.
Blutmaul
2007-04-04, 17:39:35
So kurz seh ich da nicht voraus...
deekey777
2007-04-04, 17:48:51
http://uk.theinquirer.net/?article=38714
R600's secret weapon revealed
A sound card, HDMI compliant
... soll ich mich jetzt freuen ?
Ömmm, tu ich aber nicht ! Ich will doch net auf ner GraKa Sound funktionalität haben (bezahlen) die ich eh niemals benutzen werde :udown: Dazu noch DRM verseucht, nein danke ...
Kann es sein, dass du nicht verstanden hast, wozu der Soundchip auf der Grafikkarte sitzt?
Nochmal: Heutige Grafikkarten mit HDMI müssen den Sound von der Soundkarte holen, meist geschieht dies über SPDIF (da wird einfach ein Kabelchen angestöpselt). SPDIF hat gerade für die neuen HD-Tonformate zu wenig Bandbreite, diese reicht entweder für DD 5.1 oder PCM 2.0. Für jemanden, der seinen Rechner als HTPC oder als besseren HD-DVD- bzw. BD-Player nutzt ist das alles andere als optimal, den er will auch True HD oder DD+.
Und jetzt kommt ATi und implementiert einen einfachen Soundcontroller, mit dem der Umweg über die Soundkarte entfällt. Weiterer Pluspunkt (besser gesagt der Pluspunkt), ist, dass die begrenzte Bandbreite des SPDIF kein Thema ist, also kommt man mit dem richtigen Receiver in den Genuß der neuen Tonformate.
Und jetzt schreibst du was von Features, die du nicht brauchst, aber dafür zahlst. Das ist doch Quark: Du regst dich bestimmt auf, wenn du DVI nutzt, aber deine Grafikkarte zusätzlich SUB-D hat? :|
Und wird dieser Soundcontroller definitiv kein XFI-Chip sein. Also brauchst du dir keine Sorgen zu machen, dass du zu viel Geld zahlst.
Und mit DRM hat das auch nichts zu tun.
Anarchy-HWLUXX
2007-04-04, 18:20:05
Kann es sein, dass du nicht verstanden hast, wozu der Soundchip auf der Grafikkarte sitzt?
Nochmal: Heutige Grafikkarten mit HDMI müssen den Sound von der Soundkarte holen, meist geschieht dies über SPDIF (da wird einfach ein Kabelchen angestöpselt). SPDIF hat gerade für die neuen HD-Tonformate zu wenig Bandbreite, diese reicht entweder für DD 5.1 oder PCM 2.0. Für jemanden, der seinen Rechner als HTPC oder als besseren HD-DVD- bzw. BD-Player nutzt ist das alles andere als optimal, den er will auch True HD oder DD+.
Und jetzt kommt ATi und implementiert einen einfachen Soundcontroller, mit dem der Umweg über die Soundkarte entfällt. Weiterer Pluspunkt (besser gesagt der Pluspunkt), ist, dass die begrenzte Bandbreite des SPDIF kein Thema ist, also kommt man mit dem richtigen Receiver in den Genuß der neuen Tonformate.
Und jetzt schreibst du was von Features, die du nicht brauchst, aber dafür zahlst. Das ist doch Quark: Du regst dich bestimmt auf, wenn du DVI nutzt, aber deine Grafikkarte zusätzlich SUB-D hat? :|
Und wird dieser Soundcontroller definitiv kein XFI-Chip sein. Also brauchst du dir keine Sorgen zu machen, dass du zu viel Geld zahlst.
Und mit DRM hat das auch nichts zu tun.
Wenn das HDMI kabel aber an den TV/Plasma gesteckt wird (wohin denn sonst) ... wie soll dann der Sound zur 5.1 anlage kommen ?
Ansonsten haben GraKas meistens zwei DVI drauf inzwischen, ich würd mich also eher aufregen wenn es statt zwei DVI nur DVI+VGA gäbe, hab zwei TFTs :D
deekey777
2007-04-04, 18:23:04
Man kann auch einen HD-Receiver dazwischen schalten, der den Videostrom einfach weiter durchschleift. ;)
Das ist der Vorteil des HDMI: Man braucht nur einen Stecker und nur ein Kabel.
Die Sound funktionen gibt es umsonst, oder kanst du uns sagen wieviel euro mehr der R600 dadurch kostet??
Dein billiges ATI bashing ist zwecklos.
Meine neue GPU wird auch Sound berechnen, das kann eine NIVIDIA nicht, es ist egal ob es sinvoll ist. Wichtig ist : meine Graka hat etwas was deine nicht hat.
gruss
Sie hat einen digitalen Audio-Transmitter eingebaut wie heute jedes billigst-Mainboard. Das ist natürlich ein elementarer Vorteil...
Und es wird auch keinerlei Hardware-Mixing o.ä. durchgeführt. Der Logikaufwand dafür ist wohl <5 Mio. Transistoren.
CompuJoe
2007-04-04, 18:39:43
Man kann auch einen HD-Receiver dazwischen schalten, der den Videostrom einfach weiter durchschleift. ;)
Das ist der Vorteil des HDMI: Man braucht nur einen Stecker und nur ein Kabel.
Sowas z.B.
http://www.pixmania.com/de/de/313753/art/sony/av-receiver-6-1-hmdi-str.html
Anarchy-HWLUXX
2007-04-04, 18:44:53
200+ Euro ?
Öm, was hindert mich nochmal daran den Sound einfach direkt von der Soundkarte zu den Boxen zu schicken ?
deekey777
2007-04-04, 18:59:48
200+ Euro?
Öm, was hindert mich nochmal daran den Sound einfach direkt von der Soundkarte zu den Boxen zu schicken?
Ich verstehe irgendwie den Sinn und Zweck deiner letzten Postings nicht.
Nichts hindert dich, deine Soundkarte und deine Boxen zu nutzen. Du brauchst diese Option (Sound über HDMI) weder zu nutzen, noch wird die Welt untergehen, wenn du es doch tust.
Kinman
2007-04-04, 19:19:56
200+ Euro ?
Öm, was hindert mich nochmal daran den Sound einfach direkt von der Soundkarte zu den Boxen zu schicken ?
HDCP eventuell (kA ob der auch bei Ton greift)
mfg Kinman
w0mbat
2007-04-04, 19:22:18
Angeblich erste vergleichbare 3DMark06 (was auch sonst^^) Benches:
X6800@default, Intel 965er Mobo
8800GTX@630/2060 = 11391 Pkt.
R600@default = 12500 Pkt. (~10% mehr)
http://www.fx57.net/?p=550
deekey777
2007-04-04, 19:32:17
HDCP eventuell (kA ob der auch bei Ton greift)
mfg Kinman
Nein, HDCP hat damit nun wirklich nichts zu tun. :)
Ich kenne bisher keine Beschränkung, die die analoge Ausgabe über die Soundkarte untersagt.
Ein DRM-Kandidat wäre zB SPIDF, da es ungeschützt ist (der Rechteinhaber erzwingt die Deaktivierung des SPIDF, wenn sein "Eigentum" wiedergegeben wird).
Diesen Soundcontroller darf man auf keinen Fall überbewerten: Er dient nur der digitalen Soundweitergabe.
R600 schon längst fertig?
Henri Richard, the sales chief at Advanced Micro Devices, said in an interview that his company could have started to ship the long-anticipated code-named ATI R600 graphics processors (and cards) any time, but the world’s second largest maker of x86 microprocessors decided to wait till the more affordable derivative graphics chips get to the point when AMD can release them commercially and then ship the whole lineup of DirectX 10-compatible products.
“The R600 will be out in the second quarter. The reason we decided to delay the launch was that we wanted to have a complete DX10-enabled solutions top-to-bottom. A lot of people wrote that the reason it is delayed is because of a problem with the silicon, but there is no problem with the silicon. We are demonstrating it. We can ship it today.
http://www.xbitlabs.com/news/video/display/20070403235139.html
deekey777
2007-04-04, 19:41:13
R600 schon längst fertig?
Aber natürlich ist er längst fertig. So seit Ende Januar?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5378733#post5378733
Sagt AMD. Du glaubst ja selber nicht, dass AMD nVIDIA noch weitere 2 Monate freiwillig die Krone überlassen würde.
Diesen Soundcontroller darf man auf keinen Fall überbewerten: Er dient nur der digitalen Soundweitergabe.
D.h. da wird nix berechnet, nur durchgeschleift? Sprich die Graka hat mit dem Sound soviel am Hut wie der PCI Bus? ;)
ShadowXX
2007-04-04, 20:21:07
Diesen Soundcontroller darf man auf keinen Fall überbewerten: Er dient nur der digitalen Soundweitergabe.
Er wird wohl auch nur bei den RV-Modellen an Board sein....
reunion
2007-04-04, 20:28:04
Er wird wohl auch nur bei den RV-Modellen an Board sein....
Sicher nicht. Es gibt schon seit langem Folien, in denen AMD die "multimediafähigkeit" von R600 lobt. Und da wird auch explizit von diesem Soundprozessor gesprochen.
deekey777
2007-04-04, 22:35:20
Er wird wohl auch nur bei den RV-Modellen an Board sein....
Tja, das ist das Problem: Es gab nur die eine Folie, wo die RV-Modelle erwähnt werden.
Hast du eine Folie gesehen, auf der steht, dass die R600-Modelle keinen Soundcontroller haben werden?
Habe ich eine Folie gesehen, auf der steht, dass die R600-Modelle den Soundcontroller haben werden?
Das ist ein Dilemma.
Aaaaabbbbbbbbbbeeeeeeeeeeerrrrrrrrrrrrr:
http://www.tweaktown.com/popImg.php?img=r600inthewild_02l.jpg
Fällt da was auf? Genau: Da ist kein HDMI zu sehen.
dargo
2007-04-04, 22:53:44
Angeblich erste vergleichbare 3DMark06 (was auch sonst^^) Benches:
X6800@default, Intel 965er Mobo
8800GTX@630/2060 = 11391 Pkt.
R600@default = 12500 Pkt. (~10% mehr)
http://www.fx57.net/?p=550
1. Die 12500P sehen mir zu glatt aus. ;)
2. Es wären ~20% mehr, oder seit wann taktet eine standard G8800GTX mit 630/1030Mhz?
AnarchX
2007-04-04, 23:01:28
Die Original-Quelle spricht ja auch von "around 12500 (http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61600)".
Knacki99
2007-04-04, 23:54:01
1. Die 12500P sehen mir zu glatt aus. ;)
2. Es wären ~20% mehr, oder seit wann taktet eine standard G8800GTX mit 630/1030Mhz?
Und von der Asus GeForce 8800GTX Aquatank:
http://www.asus.com/products4.aspx?l1=2&l2=6&l3=442&model=1565&modelmenu=1
Adam D.
2007-04-05, 00:08:00
Sagt AMD. Du glaubst ja selber nicht, dass AMD nVIDIA noch weitere 2 Monate freiwillig die Krone überlassen würde.
Ich hab zwar echt keine Ahnung davon, aber das klingt wirklich wie: "Wir hätten Duke Nukem Forever auch schon 1999 in die Läden bringen können". Eine komplette Produktpalette zu launchen ist zwar schön, aber hätte ATi den R600 vor 2 Monaten auf den Markt bringen können, dann hätten sie das auch getan :rolleyes:
VoodooJack
2007-04-05, 00:12:50
Die türkische Originalquelle schreibt auch was von 575/1800 für die R600. Komische Taktzahl beim Core. Die XT erwarte ich eigentlich bei/ab ca. 650 Mhz. Memory ist klar, das war die DDR3-Variante.
w0mbat
2007-04-05, 00:20:18
FX57 ist ja nicht die Originalquelle. Und 575/1800 ist der Standardtakt der 8800GTX, hat nicht mit dem R600 zu tun.
Hmm, kann es sein, daß der Grund für die Verspätung tatsächlich an den kaputten Treibern liegt und nicht an Problemen mit der Hardware?
Und daß der R600 schon längst fertig ist, halte ich für eine derbe Übertreibung.
Somit wäre DAAMIT die erste börsennotierte Firma, die aufs Geldverdienen verzichtet :ucatch:
dargo
2007-04-05, 00:38:52
Und von der Asus GeForce 8800GTX Aquatank:
http://www.asus.com/products4.aspx?l1=2&l2=6&l3=442&model=1565&modelmenu=1
Ja, Problem ist nur - diese Graka kostet 40% mehr als eine standard GTX. ;)
horn 12
2007-04-05, 00:38:53
jupp, der 05 war afaik eher ATI bedingt, der 06 jedoch NV Liebhaber.
Wir wissen ja noch nicht mal welche Version des R600 getestet wurde, GDDR3 oder GDDR4 Version, .... daher kann man nun getrost mit der Performane um oder viell. sogar leicht über einer 8800 Ultra ausgehen bei dem Spitzenmodell. Mir kann dies nur Recht sein, da dann gar eine X2900 XL 512 MB schon fast an der Performance einer 8800 GTX nagt, und dies zu einem weitaus besseren Preis.....
Ja, bin ein ATI Fanboy und hoffe nä. Woche fällt mal eine große Hürde an Infos zum R600....
laser114
2007-04-05, 00:41:32
Hmm, kann es sein, daß der Grund für die Verspätung tatsächlich an den kaputten Treibern liegt und nicht an Problemen mit der Hardware?
Kann ich mir auch schon eine ganze Weile gut vorstellen...
Modelle scheint es ja schon ewig zu geben ... wenns nach dem Internet geht. Und die Aussagen von AMD passen dazu.
Blacksoul
2007-04-05, 00:41:56
[...] noch wird die Welt untergehen, wenn du es doch tust.
Was macht dich da so sicher? :D
Tja, das ist das Problem: Es gab nur die eine Folie, wo die RV-Modelle erwähnt werden.
Hast du eine Folie gesehen, auf der steht, dass die R600-Modelle keinen Soundcontroller haben werden?
Habe ich eine Folie gesehen, auf der steht, dass die R600-Modelle den Soundcontroller haben werden?
Das ist ein Dilemma.
Aaaaabbbbbbbbbbeeeeeeeeeeerrrrrrrrrrrrr:
http://www.tweaktown.com/popImg.php?img=r600inthewild_02l.jpg
Fällt da was auf? Genau: Da ist kein HDMI zu sehen.
Besteht die Möglichkeit, dass der HDMI zwischen den DVI sitzt?
Wobei das auch wieder doppeltgemoppelt wäre. Evtl. an der Kabelpeilsche zum restlichen VIVO-Kram?
t.b.d
From our doggies hunting for information in the wild. They found out that the upcoming ATi R600 benchmark is higher than 8800GTX watercooled. The comparison is done based on the ASUS EN8800GTX Aquatank we tested before which is clocked at 630/1030. In 3Dmark06, the ASUS card scored 11391.
As for the R600 which is run on a similar platform using a i965P board with X6800, it scored around 12500. The scores of the R600 are preliminary, but it shows us that the R600 is indeed a superior DX10 card that awaits to be unveiled.
Lets wait for 14 May 2007. If nothing does wrong, we shall see them on the shelves by then.
http://my.ocworkbench.com/bbs/showthread.php?p=409508#post409508
seahawk
2007-04-05, 07:15:08
Der Unterschied ist größer als da angegeben.
ich verfolge das hier schon lange, spannendes thema,
bin schon fast süchtig nach diesem tread.
ich bin mal gespannt wie es am ende ausgehen wird,
wie sich die r600 am ende dann gegen eine 8800 gtx oder gar ultra
mit dem angeblichen wundertreiber dann unter den diversen gamebenches
behaupten wird.
vor allem interessiert mich dabei die performance unter vista oder gar dx10.
auch bin ich gespannt auf den vergleich der bildqualität zischen den karten.
nun,
zwischenzeitlich habe ich mich für eine g80 entschieden, einfach weil mir die warterei zu lange dauert.
am ende alles gut??
Daredevil
2007-04-05, 08:04:28
Ach die 3DMark Werte sind doch echt egal.
Sieht man doch an den 8600 Werten, im 3DMark zieht die Karte der 1950pro davon und in Fear geht sie unter, oder au-ja.de hat Mist gebaut was ja auch nicht das erste mal wäre.
Mein Gott das is noch so eine lange Zeit bis die rauskommt, aaaaaaaaargh.
AnarchX
2007-04-05, 13:01:18
R600 sound card's identity exposed
We found the drivers (http://www.theinquirer.net/default.aspx?article=38738)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.