Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - AMDs 55nm GPUs: R680, RV670, RV660, RV635, RV620
Nakai
2007-10-13, 11:13:25
Naja wenn eine Dualkarte erscheint, was soll man dazwischen reinquetschen? Nichts???
mfg Nakai
AnarchX
2007-10-13, 11:17:15
Naja wenn eine Dualkarte erscheint, was soll man dazwischen reinquetschen? Nichts???
Eine kleinere Dual-Karte? ;D
2x 2950GT-GPU + GDDR3 + einfachere Kühlung/PCB(2x128Bit? mit 1GHz GDDR3/GDDR4) = 2950 X2 für 300-350€
Wäre doch durchaus möglich, aber ich glaube eher nicht daran. Vielleicht gibt es ja doch noch den R680 = RV670-512Bit, der als 2950XTX kommt...
robbitop
2007-10-13, 11:21:01
Das ist doch immer so. Was stand zwischen einer 7900GTX und einer 7950GX2? Oder zwischen einer 1900XTX und einer CF 1900XTX?
Nakai
2007-10-13, 11:34:47
Die 7900GX2 war sehr stark untertaktet zur 7900GTX. Weiterhin gibt SLI keine 100% Leistungssteigerung.
Wenn CF ~80% mehr Leistung gibt, dann ist die X2X-Karte immernoch 70% schneller als die 2950XT.
2x 2950GT-GPU + GDDR3 + einfachere Kühlung/PCB(2x128Bit? mit 1GHz GDDR3/GDDR4) = 2950 X2 für 300-350€
Ich hoffe das war ironisch gemeint...:|
Die Kosten wären zu hoch.
mfg Nakai
AnarchX
2007-10-13, 11:42:28
Ich hoffe das war ironisch gemeint...:|
Die Kosten wären zu hoch.
Denke ich eigentlich nicht, erst recht wenn Dual-RV670 wirklich als Einzelpackage daherkommt und ein modifiziertes R600XT-PCB nutzt und nicht mehr auf die PLX-Bridge angewiesen ist.
300-350€ wäre ein sehr angemessener Preis mit wohl einer höheren Marge, als bei den aktuellen 2900er-Karten.
Nakai
2007-10-13, 11:47:23
Denke ich eigentlich nicht, erst recht wenn Dual-RV670 wirklich als Einzelpackage daherkommt und ein modifiziertes R600XT-PCB nutzt und nicht mehr auf die PLX-Bridge angewiesen ist.
Das wäre natürlich sehr geil, aber ich denke, dass es noch nicht soweit ist.
mfg Nakai
reunion
2007-10-13, 12:01:03
750MHz -> 62W
825Mz -> 85W
Ja, eine TDP-Steigerung der GPU von über 35% wegen 10% mehr Takt ist schon ziemlich krass. Da scheint wohl bereits einiges mehr an Vcore nötig zu sein.
laser114
2007-10-13, 12:33:23
Zu einem gewissen Anteil trägt aber hier sicher der Umstand bei, dass AMD gut dimensionierte Kühler sehen möchte.
robbitop
2007-10-13, 13:06:51
Die 7900GX2 war sehr stark untertaktet zur 7900GTX.
Die 8850GX2 als auch die 2950X2 werden auch (aus Thermischen Gründen) nicht mit dem vollen Takt antreten (und sicher auch geringerer VCore).
Weiterhin gibt SLI keine 100% Leistungssteigerung.
Wenn die CPU nicht limitiert, wüßte ich keinen Grund, der dagegensprechen würde.
robbitop
2007-10-13, 13:08:19
Denke ich eigentlich nicht, erst recht wenn Dual-RV670 wirklich als Einzelpackage daherkommt und ein modifiziertes R600XT-PCB nutzt und nicht mehr auf die PLX-Bridge angewiesen ist.
Was hat ein Einzelpackage mit der PEG-Bridge zu tun?
reunion
2007-10-13, 13:14:15
Die 8850GX2 als auch die 2950X2 werden auch (aus Thermischen Gründen) nicht mit dem vollen Takt antreten (und sicher auch geringerer VCore).
Der Unterschied wird bei RV670 aber nur äußerst gering sein, da die X2X den Speichertakt der XT (1200 Mhz) und den Chiptakt der PRO (750MHZ) bekommt. Die XT mit 825/1200 hat nur die 10% mehr Chiptakt als Vorteil.
AnarchX
2007-10-13, 13:14:36
Was hat ein Einzelpackage mit der PEG-Bridge zu tun?
Vielleicht eben ein On-Die-PCie-Switch, an welchem der 2. Die über eine 4/8GB/s Verbindung auf dem Package angebunden wird.
Wäre wohl langfristig deutlich sinnvoller als dieser $100-PLX-Chip.
robbitop
2007-10-13, 13:56:05
Der Unterschied wird bei RV670 aber nur äußerst gering sein, da die X2X den Speichertakt der XT (1200 Mhz) und den Chiptakt der PRO (750MHZ) bekommt. Die XT mit 825/1200 hat nur die 10% mehr Chiptakt als Vorteil.
Weisst du das schon so genau? (gibt´s da Dokumente zu den finalen Taktraten?)
@PEG-Switch
ATI braucht ja bloss mal selbst einen zu entwickeln, dann ist der auch billiger.
Nakai
2007-10-13, 14:11:25
Weisst du das schon so genau? (gibt´s da Dokumente zu den finalen Taktraten?)
Ja, aber wie es w0mbat gesagt hat, werden die Taktraten vll 25 MHz angehoben.
Wenn die CPU nicht limitiert, wüßte ich keinen Grund, der dagegensprechen würde.
Selbst wenn die CPU nicht limitieren würde, wäre eine Steigerung von 100% nicht möglich. Das beste Ergebnis was mir bekannt ist, ist Quake 3 mit etwa 90% Steigerung.
100% wird wegen internen Latenzen und nicht perfekter Lastverteilung nicht möglich sein.
Die 8850GX2 als auch die 2950X2 werden auch (aus Thermischen Gründen) nicht mit dem vollen Takt antreten (und sicher auch geringerer VCore).
Die 2950X2X hat aber ein anderes Stepping. A12 soweit ich es weiß.
mfg Nakai
robbitop
2007-10-13, 14:34:05
100% wird wegen internen Latenzen und nicht perfekter Lastverteilung nicht möglich sein.
AFR hat keine Lastverteilung und keine Latenzen.
AnarchX
2007-10-13, 14:37:40
AFR hat keine Lastverteilung und keine Latenzen.
Trotzdem gibt ATi und NV nicht aus Spaß bei Dual-GPU 180% gegenüber Single-GPU an.
Nakai
2007-10-13, 14:39:42
Okay AFR nicht, jedoch kann die Verteilung der Bilder pro Sekunde ziemlich schlecht sein.
Bei SFR jedoch gibt es das Problem der Lastenverteilung...
mfg Nakai
reunion
2007-10-13, 15:05:06
Weisst du das schon so genau?
Ich habe dir AFAIK schon vor einer halben Ewigkeiten bei einer ähnlichen Diskussion etwas zu diesem Thema geschickt, aber offensichtlich ließt du deine PMs wirklich nicht.
GeneralHanno
2007-10-13, 15:45:15
RV670 wird ein hardlaunch:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3590&Itemid=1
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3595&Itemid=1
Sk_Antilles
2007-10-13, 16:27:08
RV670 wird ein hardlaunch:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3595&Itemid=1
$199 sind echt günstig finde ich. Und dazu noch in 55nm. Diese wird meine nächste Karte! =)
laser114
2007-10-13, 16:31:03
Jetzt doch wieder nur 199 USD?
Geht ja hin und her...
AnarchX
2007-10-13, 16:36:32
Wohl aber nur 256MB...
Nakai
2007-10-13, 16:40:51
512MB wird nicht soviel mehr kosten.
mfg Nakai
GeneralHanno
2007-10-13, 16:43:16
so wie 256MiB in den letzten jahren eine ausgewogene speichermenge war, wird es in den nächsten jahren 512MiB sein. also die paar € aufpreis sollte man (allein schon wegen des wiederverkaufwertes) investieren.
PCGH_Carsten
2007-10-13, 16:44:22
AFR hat keine Lastverteilung und keine Latenzen.
Ein bißchen was schon - der Treiber muss wissen, an welche Karte er die Daten für das nächste Bild schicken muss, das fertige Bild muss dann wieder über die Verbindung zurück in die primäre Karte und zu guter Letzt darf man für AFR natürlich keine Daten aus dem letzten Frame wiederverwenden - sonst wird's häßlich.
robbitop
2007-10-13, 19:17:15
Ich habe dir AFAIK schon vor einer halben Ewigkeiten bei einer ähnlichen Diskussion etwas zu diesem Thema geschickt, aber offensichtlich ließt du deine PMs wirklich nicht.
Ich habe sie gelesen (und war auch dankbar dafür..leider total verschlafen dir zu antworten) ;)
Ich kann mich aber nicht erinnern Taktraten einer X2950X2 gelesen zu haben.
seahawk
2007-10-13, 19:40:47
Eine X2 muss leise kühlbar sein. Das geht bei einer GX2 ähnlichen Auslegung nur mit Singleslot und dazu darf die Verlsutleistung nicht zu hoch sein.
ChristianTHB
2007-10-13, 20:10:55
RV670 wird ein hardlaunch:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3590&Itemid=1
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3595&Itemid=1
Ja wie jetzt?
Is nur der Fertigungsprozess und die Taktrate gegenüber dem R600 anders? Weil dann besorg ich mir doch noch ne 2900 Pro. So kann ich die wenigstens noch als 2900XT betreiben bzw flashen.
Adam D.
2007-10-13, 20:17:02
Ja wie jetzt?
Is nur der Fertigungsprozess und die Taktrate gegenüber dem R600 anders? Weil dann besorg ich mir doch noch ne 2900 Pro. So kann ich die wenigstens noch als 2900XT betreiben bzw flashen.
:usad: "Nur" der Fertigungsprozess? Nur leiser, nur halbe Verlustleistung, nur Single-Slot-Kühlung? Nur höhere Taktraten? Nur günstiger? Ja, ich würd mir auch 'ne 2900 Pro kaufen :uup:
ChristianTHB
2007-10-13, 20:44:56
:usad: "Nur" der Fertigungsprozess? Nur leiser, nur halbe Verlustleistung, nur Single-Slot-Kühlung? Nur höhere Taktraten? Nur günstiger? Ja, ich würd mir auch 'ne 2900 Pro kaufen :uup:
Irgendwie sieht der Single-Slot Kühler nicht so leise aus und das Speicherinterface wurde ja auch auf 256Bit halbiert, was mit GDDR4 Ram inkl hoher Taktrate wieder kompensiert wird. Okay, Verlustleistung is natürlich geringer, keine Frage...
Also ich bin nur bissl skeptisch ob ATi wirklich das Problem mit AA und AF in den Griff bekommen hat.
Hvoralek
2007-10-13, 23:38:38
Irgendwie sieht der Single-Slot Kühler nicht so leise aus und das Speicherinterface wurde ja auch auf 256Bit halbiert, was mit GDDR4 Ram inkl hoher Taktrate wieder kompensiert wird. Okay, Verlustleistung is natürlich geringer, keine Frage...
Also ich bin nur bissl skeptisch ob ATi wirklich das Problem mit AA und AF in den Griff bekommen hat.Die AA- Leistung könnte wirklich besser geworden sein. Beim AF würde aber nur eine höhere Filterleistung helfen und mehr als 16 TFs würden mich schon sehr erstaunen.
ChristianTHB
2007-10-14, 00:27:47
Also ich werd mir wohl doch mal die 2900 Pro holen, ob die neue 2950 Pro auch so leicht auf 2900 XT Niveau geht bezweifle ich einfach mal. Schon allein wegen dem beschnittenen Speicherinterface...
Und gegenüber meiner 7900 GTO ists ja doch einiges an Mehrleistung, was ich zu erwarten hab. Arg viel mehr wird der RV670 wohl auch nicht bringen und sonst wird die Karte halt wieder vercheckt :D
Nakai
2007-10-14, 11:04:58
Schon allein wegen dem beschnittenen Speicherinterface...
Weil die HD2900XT von ihrem 512Bit SI so profitiert...
mfg Nakai
Ferengie
2007-10-14, 14:13:37
Bekommen dann die neuen Garkas für den Displayport dann einen genuine Adpater, wie die jetzigen für HDMI?
sklave_gottes
2007-10-14, 15:17:12
Weil die HD2900XT von ihrem 512Bit SI so profitiert...
mfg Nakai
Du kannst das vergessen, es hat sich einfach in die köpfe gefressen das 512bit si = besser ist. Egal ob es nützt oder ob es die Karte nur teuer macht.
Ich versuche hier schon lange den unsin auszutreiben das eine Karte mit mehr bit si = besser ist.
Es ist nur ein Faktor der die Speicherbandbreite bestimmt. Und es kommt in ersteer linie drauf an wie viel sinvoll ist. In diesem fall (r600) hat es gezeigt wie du schon sagst das 256bit@1200mhz auch vollkommen gereicht hätten.
Aber wie gesagt das Bringt hier nichts, verstehen wills sowieso keiner...
mfg martin
Winter[Raven]
2007-10-14, 15:36:17
Schon allein wegen dem beschnittenen Speicherinterface...
Lange nicht mehr so gut gelacht boy ;)
ATI ..ahhh ... AMD brauchte eine Zahl mit welcher man sich "aufspielen" konnte bei alle die auf die Schwanzvergleiche vom Datenblatt scharf sind.
Was die 2900XT im Endeffekt kann sehen wir ja heute...
dargo
2007-10-14, 16:18:57
Du kannst das vergessen, es hat sich einfach in die köpfe gefressen das 512bit si = besser ist. Egal ob es nützt oder ob es die Karte nur teuer macht.
Ich versuche hier schon lange den unsin auszutreiben das eine Karte mit mehr bit si = besser ist.
Es ist nur ein Faktor der die Speicherbandbreite bestimmt. Und es kommt in ersteer linie drauf an wie viel sinvoll ist. In diesem fall (r600) hat es gezeigt wie du schon sagst das 256bit@1200mhz auch vollkommen gereicht hätten.
Aber wie gesagt das Bringt hier nichts, verstehen wills sowieso keiner...
mfg martin
Das ist doch das selbe wie bei NTs. Ein 700W NT ist auch viel besser als ein 400W obwohl das System nur 200-250 braucht. ;D
ChristianTHB
2007-10-14, 17:09:04
Ich hab nur Mal das geschrieben, was ich so gelesen hab. Und bei div News-Beiträgen spricht man halt davon, dass der Leistungsvorsprung insbesondere in höheren Auflösungen begrenzt sein dürfte, wegen dem 256Bit Speicherinterface.
Mit 256Bit und den eff 2,4Ghz Speichertakt der neuen 2950 XT würd das ne Speicherbandbreite von 76,8GB/s geben.
Hmm...wär jetzt ja eigentlich nicht soviel weniger wie bei der 8800 GTX (86,4GB/s)
Aber ihr habt schon recht, hab mich wohl ziemlich blenden lassen, von den gehypten 512bit... ;)
dargo
2007-10-14, 17:41:44
Aber ihr habt schon recht, hab mich wohl ziemlich blenden lassen, von den gehypten 512bit... ;)
Das SI ist völlig irrelevant. Was zählt ist die Speicherbandbreite im "gesunden" Verhältnis zur Rohleistung. :)
laser114
2007-10-15, 14:08:21
Fudo meint heute die RV670-Karten werden HD 2950 XTX und XT heißen:
We have a month to go until the Radeon HD 2950XTX and XT launch.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3620&Itemid=1
Adam D.
2007-10-15, 14:14:19
Hmm, sollte das implizieren, dass selbst der kleine RV670 schneller als der R600XT ist? Wäre wünschenswert, aber nicht sehr realistisch.
Ailuros
2007-10-15, 14:20:33
Hmm, sollte das implizieren, dass selbst der kleine RV670 schneller als der R600XT ist? Wäre wünschenswert, aber nicht sehr realistisch.
Kleinster RV670 = 2950PRO, 256MB, $199, 700-750MHz Vergleichsmaterial zur 8800GT/256MB.
Adam D.
2007-10-15, 14:23:57
Kleinster RV670 = 2950PRO, 256MB, $199, 700-750MHz Vergleichsmaterial zur 8800GT/256MB.
Ergo sobald man in der Auflösung oder in den Qualitätseinstellungen hoch geht, dürfte sie an Boden verlieren - und das ordentlich. In den anderen Settings limitiert jede heutzutagige (potente) CPU, wenn man jetzt nicht grad in 2560x1XXX spielt.
Nakai
2007-10-15, 14:31:39
Beim Rv670 hat man das AA-Problem einigermaßen gelöst, dennoch hat er das nachsehen im Bezug zur Texelfüllrate.
Nach meiner Meinung ist AMD dumm immernoch auf nur 16 TMUs zu beharren. Man ist kaum über der Texelfüllrate eines R480...total falsch kalkuliert...
mfg Nakai
Ailuros
2007-10-15, 14:39:31
Beim Rv670 hat man das AA-Problem einigermaßen gelöst, dennoch hat er das nachsehen im Bezug zur Texelfüllrate.
Wie hat man es Deiner Meinung "geloest"? Jedesmal wenn ich die gleiche Frage stelle in diesen Foren bekomme ich keine ernsthafte Anwort. Wenn das stimmt was so herumgeistert, dass sie nur die shader-resolve Leistung etwas erhoeht haben, ist das lediglich ein Pflaster auf ein anderes Pflaster und man sollte dieses eher als SW-Optimierung als alles anderes ansehen.
Ich will ja ernsthaft hoffen dass alle bisherigen Indizien zu 100% falsch liegen, aber das muerbe Gefuehl in der Zwischenzeit bleibt.
Nach meiner Meinung ist AMD dumm immernoch auf nur 16 TMUs zu beharren. Man ist kaum über der Texelfüllrate eines R480...total falsch kalkuliert...
mfg Nakai
Man schmiert eben eine gesunde Portion von Filterungs-Optimierungen in den Treiber und aus damit. Die Z-Fuellrate ist in diesem Fall um einiges kritischer, und selbst wenn AMD die Raten hier verdoppeln wuerde, liegen sie immer noch um 1/4 hinter der Konkurrenz.
w0mbat
2007-10-15, 14:58:26
ATI behauptet die AA-Leistung erhöht zu haben während das SI beschnitten wurde. Ob das bedeutet das der RV670 bei AA weniger einbricht steht auf einem anderen Blatt.
Ailuros
2007-10-15, 15:04:32
ATI behauptet die AA-Leistung erhöht zu haben während das SI beschnitten wurde.
AA waere auf einer R600 auch nicht besonders langsamer, wenn sie einen <512bit Bus haette.
Ob das bedeutet das der RV670 bei AA weniger einbricht steht auf einem anderen Blatt.
Meine Infos sprechen lediglich von Effizienz-steigerungen was shader-resolve betrifft; falls dieses stimmt dann betriffen diese Steigerungen die gesamte R6x0/RV6x0 Reihe.
Nakai
2007-10-15, 15:09:26
Wie hat man es Deiner Meinung "geloest"? Jedesmal wenn ich die gleiche Frage stelle in diesen Foren bekomme ich keine ernsthafte Anwort. Wenn das stimmt was so herumgeistert, dass sie nur die shader-resolve Leistung etwas erhoeht haben, ist das lediglich ein Pflaster auf ein anderes Pflaster und man sollte dieses eher als SW-Optimierung als alles anderes ansehen.
Wieso gelöst?
Ich glaube einfach, dass man sich verdammt kalkuliert hat. Niemand wurde einen Chip ernsthaft mit so einer schwachen AA-Performance abliefern. Man war einfach im Zeitdruck. Es kursierte ja auch das Gerücht rum, dass es ernste ROP-Probleme gab.
Ich denke einfach, dass man die Desigentscheidungen die man getroffen hat, nicht gut gewahlt waren. Hinzu kamen noch Fertigungsprobleme.
Man hat versucht einfach vieles reinzupacken, aber dafür ging die Füllrate flöten.
Der Rv670 wird einfach nur eine Überarbeitung, man will die schlimmsten Fehler ausmerzen. Viel kann man da nicht machen, dass ist klar, aber viele Probleme wird man rausgeräumt haben.
Da ich einfach nicht das Know-How besitze, kann ich auch nicht viel darüber sagen.
mfg Nakai
GeneralHanno
2007-10-15, 15:35:41
ich denke ATi wird die TMUs nicht mehr erhöhen, weil sie einen anderen weg gehen: hin zum HDRR und vollen HDR-texturen (darin liegen ja auch die stärken des R600)
reunion
2007-10-15, 16:15:40
ich denke ATi wird die TMUs nicht mehr erhöhen, weil sie einen anderen weg gehen: hin zum HDRR und vollen HDR-texturen (darin liegen ja auch die stärken des R600)
Das hilft nur nichts, da nV 90% der DEVs kontrolliert. Wenn AMD schlau ist, dann ziehen sie nach was Texel-/Pixelfüllrate betrifft.
Nakai
2007-10-15, 16:17:42
hin zum HDRR und vollen HDR-texturen (darin liegen ja auch die stärken des R600)
Der G80 hat die doppelte Texelfüllrate, ebenso haben diese TMUs nicht mehr die Probleme des NV40 bzw. G70/71.
mfg Nakai
Das hilft nur nichts, da nV 90% der DEVs kontrolliert. Wenn AMD schlau ist, dann ziehen sie nach was Texel-/Pixelfüllrate betrifft.
Äh - ja. Die Nvidianische Dev-Mafia hält so kleine Klitschen wie EA und Ubisoft unter ihrer Fuchtel... Geht's noch?
ich denke ATi wird die TMUs nicht mehr erhöhen, weil sie einen anderen weg gehen: hin zum HDRR und vollen HDR-texturen (darin liegen ja auch die stärken des R600)
HDR-Texturen braucht nur kein Mensch. Lightmaps sind eine Sache von gestern und sonst ist die Nützlichkeit von FP16-Texturen sehr sehr eingeschränkt, vor allem weil es keine Kompression dafür gibt. Nichtmal für D3D10.
Da spielt die Zeit sicher nicht für ATI. 16 TMUs sind einfach viel zu wenig, nur hatten sie wohl keinen Die-Space mehr übrig.
reunion
2007-10-15, 16:43:54
Äh - ja. Die Nvidianische Dev-Mafia hält so kleine Klitschen wie EA und Ubisoft unter ihrer Fuchtel... Geht's noch?
Das war völlig anders gemeint. nV hat nunmal den wesentlich ausgeprägteren Dev-Support. In einer solchen Situation wäre es IMHO nicht schlau, sein eigenes Süppchen zu kochen.
Nakai
2007-10-15, 16:44:28
Toll, aber für was haben sie dann 720 Millionen Transistoren verballert?
Die Shader machen wohl das meiste aus, aber hätten die nicht einfach statt Shaderleistung die Texelleistung erhöhen können?
mfg Nakai
reunion
2007-10-15, 16:49:40
Toll, aber für was haben sie dann 720 Millionen Transistoren verballert?
Die Shader machen wohl das meiste aus, aber hätten die nicht einfach statt Shaderleistung die Texelleistung erhöhen können?
mfg Nakai
Dann hätte man eben 32TMUs, aber vielleicht nur 48 ALUs. Würde auch nicht wirklich was ändern, und vorallem weniger zukunftssicher sein. nV hat einfach durch den sehr hohen ALU-Takt sehr viele Transistoren einsparen können, die man in TMU/ROPs investieren konnte. Hinzu kommt ja noch der ROP-Bug im R600, der eine bessere Leistung verhindert - sonst wäre der Chip gar nicht so schlecht gewesen, wie man an den Ergebnissen ohne AA sieht.
sklave_gottes
2007-10-15, 16:54:39
Toll, aber für was haben sie dann 720 Millionen Transistoren verballert?
Die Shader machen wohl das meiste aus, aber hätten die nicht einfach statt Shaderleistung die Texelleistung erhöhen können?
mfg Nakai
Im rv670 wird doch beides erhöht durch den takt. Ausserdem finde ich viel wichtiger das man das aa problem löst, denn der r580 hat auch nicht gerade viel Texel/pixel leistung ist mit aa aber im verhältnis viel schneller.
laut cb:
1600x1200 1aa/1af g80 gts640 29% schneller wie r580
1600x1200 4aa/16af g80 gts640 17% schneller wie r580
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet
Würde der r600 genau so wenig verlieren im verhältnis zum r580, dann wäre der r600 mit aa/af fast auf augenhöhe mit einer 8800gtx
Die Frage sollte also immer noch lauten wieso verliert der r600 soviel leistung mit aa/af und wie kann man das verbessern!? Ich denke nicht nur durch mehr tmus!
mfg martin
Würde der r600 genau so wenig verlieren im verhältnis zum r580, dann wäre der r600 mit aa/af fast auf augenhöhe mit einer 8800gtx
Mit AF sicher nicht.
robbitop
2007-10-15, 18:06:09
Schon gar nicht mit gleichwertigem AF.
reunion
2007-10-15, 18:24:54
Schon gar nicht mit gleichwertigem AF.
Was ist an der gängigen Praxis G8x Q vs R6xx AI_low auszusetzen? AFAIK behauptete 3dc zu beginn sogar, dass AI_low gleichwertig mit HQ wäre, und später wurde dies auf Q umgeändert.
PCGH_Carsten
2007-10-15, 18:28:19
Toll, aber für was haben sie dann 720 Millionen Transistoren verballert?
Die Shader machen wohl das meiste aus, aber hätten die nicht einfach statt Shaderleistung die Texelleistung erhöhen können?
mfg Nakai
Speichercontroller (Ringbus...) und das massive Registerfile machen edit: vermutlich einen großen Teil der Einzelsummen aus.
sklave_gottes
2007-10-15, 18:29:03
Mit AF sicher nicht.
sieh dir einfach mal das verhältnis an von r580 zu g80
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/22/#abschnitt_performancerating_qualitaet
Ich habe nichts von af geschrieben, nur von aa und af, da ich keine benschs mit nur af verglichen habe. Das der g80 bei af rein teo. weniger verlieren sollte ist mir bewust. Und das gegeteil habe ich auch nirgends behauptet.
Ich sagte nur das der r580 gegnüber dem g80 mit aa und af aufholt!
siehe link.
Nakai
2007-10-15, 18:43:47
Speichercontroller (Ringbus...) und das massive Registerfile machen edit: vermutlich einen großen Teil der Einzelsummen aus.
Nach meiner Meinung hat man da viel investiert, wovon man sowieso nichts profitiert.
Dann hätte man eben 32TMUs, aber vielleicht nur 48 ALUs. Würde auch nicht wirklich was ändern, und vorallem weniger zukunftssicher sein. nV hat einfach durch den sehr hohen ALU-Takt sehr viele Transistoren einsparen können, die man in TMU/ROPs investieren konnte. Hinzu kommt ja noch der ROP-Bug im R600, der eine bessere Leistung verhindert - sonst wäre der Chip gar nicht so schlecht gewesen, wie man an den Ergebnissen ohne AA sieht.
360 GFlops pure MAD-Leistung und 24000MTex/s gegen 480 Gflops und 12000MTex/s. Was wäre dir lieber? Eventuell hätte man die TAUs weglassen, an ein paar Registern sparen können und dadurch das Shaderresolve verbessern hätte können.
Das der R600 eine sehr flexible Architektur hat, sieht man am RV630 und RV610.
Der R600 ist alles, blos das nicht, was er hätte sein sollen. Ergo ein aufgeblasenes Design was nur im professionellem Bereich einigermaßen taugt.
Der Rv670 wird in etwa das werden, was man von einem R600 erwartet hätte. Nur kommt der 6 Monate zu spät...
mfg Nakai
reunion
2007-10-15, 19:07:09
Nach meiner Meinung hat man da viel investiert, wovon man sowieso nichts profitiert.
Gebe ich dir recht. Der Chip wirkt irgendwie so, als ob man die eierlegende Wollmilchsau wollte, und mitten drin die Transistoren ausgegangen sind.
360 GFlops pure MAD-Leistung und 24000MTex/s gegen 480 Gflops und 12000MTex/s. Was wäre dir lieber? Eventuell hätte man die TAUs weglassen, an ein paar Registern sparen können und dadurch das Shaderresolve verbessern hätte können.
Das war natürlich nur eine Zahlenspielerei. Ich habe keine Ahnung, wieviele Transistoren es kosten würde, die TMU-Anzahl zu verdoppeln, und deshalb stellt sich die Frage nicht, was mir lieber wäre.
robbitop
2007-10-15, 19:47:22
Was ist an der gängigen Praxis G8x Q vs R6xx AI_low auszusetzen? AFAIK behauptete 3dc zu beginn sogar, dass AI_low gleichwertig mit HQ wäre, und später wurde dies auf Q umgeändert.
Zum Millionsten Male: Der Artikel entstand unter enormen Zeitdruck.
reunion
2007-10-15, 20:04:53
Zum Millionsten Male: Der Artikel entstand unter enormen Zeitdruck.
Das beantwortet nicht meine Frage. Wenn du schon gleichwertiges AF verlangst, dann wirst du ja auch begründen können, was aktuell an Q vs AI_low auszusetzen ist. Und irgendetwas wird man sich beim Artikel wohl gedacht haben. Aber schon klar, dass es da je nach Szenario zu stark unterschiedlichen Einschätzungen kommen kann.
robbitop
2007-10-15, 20:23:10
Das beantwortet nicht meine Frage. Wenn du schon gleichwertiges AF verlangst, dann wirst du ja auch begründen können, was aktuell an Q vs AI_low auszusetzen ist. Und irgendetwas wird man sich beim Artikel wohl gedacht haben. Aber schon klar, dass es da je nach Szenario zu stark unterschiedlichen Einschätzungen kommen kann.
Hochfrequenztexturen flimmern. Beispiele gibt's genug, aber ich nenne die typischsten nochmal:
-HL2 (bsw Bahnschienen)
-WoW
-Oblivion (wenn man sich die Sandwege, Steinwege genauer anschaut, wenn man auf ihnen läuft)
Also im Prinzip alle HF-Texturen flimmern. Natürlich ist das Meckern auf hohem Niveau. Sie flimmern mir nicht die Augen raus (wie es meine PS2 tut). Aber G80 hat nunmal einen AF-Meilenstein gelegt. R580 flimmert mit AI off übrigens auch nicht mehr (oder fast nie). Was das für Füllrate kostet sieht man dann beim Einbruch (gute Filterung muss Texelfüllrate kosten).
G8x hat mehr als genug Texelfüllrate, also konnte man sich so ein AF leisten.
Das beantwortet nicht meine Frage. Wenn du schon gleichwertiges AF verlangst, dann wirst du ja auch begründen können, was aktuell an Q vs AI_low auszusetzen ist.
Weil es eine Bevorzugung der AMD Karte ist? Aber dem AMD User sind solche Sachen ja weniger wichtig - zur Zeit...
Ich errinniere mich noch an Diskussion zu FP16 und FP24/32. Ich wette, wenn wir heute wieder die selbe Diskussion führen würden, würden die "was ist an a.i standard und quality so schlecht" nicht so reden.
LovesuckZ
reunion
2007-10-15, 20:37:36
Hochfrequenztexturen flimmern. Beispiele gibt's genug, aber ich nenne die typischsten nochmal:
-HL2 (bsw Bahnschienen)
-WoW
-Oblivion (wenn man sich die Sandwege, Steinwege genauer anschaut, wenn man auf ihnen läuft)
Also im Prinzip alle HF-Texturen flimmern. Natürlich ist das Meckern auf hohem Niveau. Sie flimmern mir nicht die Augen raus (wie es meine PS2 tut). Aber G80 hat nunmal einen AF-Meilenstein gelegt. R580 flimmert mit AI off übrigens auch nicht mehr (oder fast nie). Was das für Füllrate kostet sieht man dann beim Einbruch (gute Filterung muss Texelfüllrate kosten).
G8x hat mehr als genug Texelfüllrate, also konnte man sich so ein AF leisten.
Und G8x Quality flimmert nicht? AFAIK wurde von BBSR hier mal gesagt, dass G8x auf Q gut und gerne zu 50% rein bi filtert.
Weil es eine Bevorzugung der AMD Karte ist? Aber dem AMD User sind solche Sachen ja weniger wichtig - zur Zeit...
Ich errinniere mich noch an Diskussion zu FP16 und FP24/32. Ich wette, wenn wir heute wieder die selbe Diskussion führen würden, würden die "was ist an a.i standard und quality so schlecht" nicht so reden.
LovesuckZ
Du bist ein Heuchler, mehr nicht. Das war eine rein sachliche Frage, auf die man auch eine sachliche Antwort erwarten kann.
Nakai
2007-10-15, 21:04:36
Ach...zum Glück bin ich neutral geworden...die Fanboywars, sind mir zu kindisch geworden.
Jetzt wo AMD auf hoffnungslosem Posten zu sein scheint, kommen alle NV-Fanboys aus ihren Löchern. Und die AMD-Jungs versuchen den letzten Funken Ehre mit ihrem Blut zu verteidigen.
Obwohl ich selber niemandem als Fanboy bezeichnen würde, sondern eher als Personen mit gewissen Tendenzen zu bestimmten Produkten.
Das war natürlich nur eine Zahlenspielerei. Ich habe keine Ahnung, wieviele Transistoren es kosten würde, die TMU-Anzahl zu verdoppeln, und deshalb stellt sich die Frage nicht, was mir lieber wäre.
Naja da hast du recht.
Speichercontroller (Ringbus...) und das massive Registerfile machen edit: vermutlich einen großen Teil der Einzelsummen aus.
Irgendwie seh ich darin einfach keine Performancesteigerungen. Sicherlich Register können unter bestimmten Bedingungen was ausmachen, jedoch war der Speichercontroller totaler Unfug.
Zum Glück fällt das Ding weg, mit 256Bit SI kann man noch Transistoren sparen.
An die 670Mill Transis wird wohl der Rv670 haben.
mfg Nakai
James Ryan
2007-10-15, 21:31:09
Was ist an der gängigen Praxis G8x Q vs R6xx AI_low auszusetzen?
Weil beides bescheiden aussieht und kein Mensch der wirklich auf BQ steht AI low oder Q aktiviert?
Außerdem zeigen diese Modi nicht die wirkliche Leistungsfähigkeit, sondern lediglich welcher Dev besser cheatet. :rolleyes:
Besser wäre ein Test von HQ vs. AI off bei G8x vs. R6xx. Aber das darf ja nicht sein, weil man dann sieht wie "leistungsfähig" die R6xx Architektur ist wenn sie auch wirklich gefordert wird!
MfG :cool:
robbitop
2007-10-15, 21:44:06
Und G8x Quality flimmert nicht? AFAIK wurde von BBSR hier mal gesagt, dass G8x auf Q gut und gerne zu 50% rein bi filtert.
G80 Q flimmert IIRC nicht. Ich wüßte auch nicht, was ein bilinearer Texturfilter mit dem Bruch des Shannon/Nyquistkriterium zu tun hätte. (Flimmerursache Nr1)
Das mit dem halb Bilinearen Filter bezweifle ich jetzt erstmal, weil davon nichts auf den AF-Testern zu erkennen ist.
Wer nen G80 hat, sollte HQ einstellen, denn es ist idR nicht teuer.
edit: ich hab mit BBSR gesprochen und er erinnert sich nicht, sowas je gesagt zu haben.
Du bist ein Heuchler, mehr nicht.
Ach Mensch. Sowas hast du doch gar nicht nötig. :(
Es gibt Leute und Verhaltensweisen, die man am besten ignoriert.
reunion
2007-10-15, 22:24:07
G80 Q flimmert IIRC nicht. Ich wüßte auch nicht, was ein bilinearer Texturfilter mit dem Bruch des Shannon/Nyquistkriterium zu tun hätte. (Flimmerursache Nr1)
Das mit dem halb Bilinearen Filter bezweifle ich jetzt erstmal, weil davon nichts auf den AF-Testern zu erkennen ist.
Wer nen G80 hat, sollte HQ einstellen, denn es ist idR nicht teuer.
edit: ich hab mit BBSR gesprochen und er erinnert sich nicht, sowas je gesagt zu haben.
Ja, ich habe ihm wohl unrecht getan (sorry, falls er mit ließt). Zumindest kann ich den Beitrag mittels Suche nicht finden. Aber ist auch egal, muss ich woanders aufgeschnappt haben.
Natürlich bedeutet ein bi-Filter noch kein flimmern, nur würde eine so krasse Optimierung weitere Tricks nahe legen. Aber da dies mit den 50% bi nicht bestätigt ist, hat sich das eh erledigt.
Ach Mensch. Sowas hast du doch gar nicht nötig. :(
Es gibt Leute und Verhaltensweisen, die man am besten ignoriert.
Das sehe ich anders. Wenn mir der Kragen platzt, dann soll das mein gegenüber auch wissen. Die einzige Möglichkeit, eine Versuchung zu überwinden, ist, sich ihr hinzugeben.
seahawk
2007-10-16, 07:17:27
Also der BQ Unterschied zwischen Ai_low und Q ist wohl kaum der Debatte wert. Vernachlässigbar trift es wohl am besten.
MadManniMan
2007-10-16, 08:19:27
Also der BQ Unterschied zwischen Ai_low und Q ist wohl kaum der Debatte wert. Vernachlässigbar trift es wohl am besten.
Es geht doch aber nicht darum, ob eine Vielzahl an Spielern in der Praxis guten Gewissens über derlei Defizite hinwegsehen kann (dann und wann kann auch ich das), sondern um Vergleichbarkeit. Ausgehend davon kann dann gebencht werden - sonst könnte man auch 8*MSAA gegen 4*MSAA benchen, weil es eben für viele absolut vernachlässigbar ist...
seahawk
2007-10-16, 08:34:01
Natürlich, aber es ist das Beste was halbwegs fair ist. A.I off gegen HQ ist auf Grund es Aubaus des Treibers bei ATI keine Lösung, da eben auch anwendungsspezifische Tweaks entfallen.
MadManniMan
2007-10-16, 09:01:35
Natürlich, aber es ist das Beste was halbwegs fair ist. A.I off gegen HQ ist auf Grund es Aubaus des Treibers bei ATI keine Lösung, da eben auch anwendungsspezifische Tweaks entfallen.
Und wessen Problem ist das? Richtig: das der User. Optimale Optik gibts nur mit unnötig verringerter Leistung? Danke, ATi!
Wie so oft: die Presse sollte mit A.I.-off Gebenche protestieren; aber inzwischen sind die Schreiberlinge viel zu sehr zum Business as usual übergegangen.
seahawk
2007-10-16, 09:13:21
Für ein Bench braucht man aber nur vergleichbare Optik.
Winter[Raven]
2007-10-16, 09:21:25
Für ein Bench braucht man aber nur vergleichbare Optik.
Joa, bei dir ist aber wirklich alles relativ, oder?
MadManniMan
2007-10-16, 09:24:35
Für ein Bench braucht man aber nur vergleichbare Optik.
Was ist denn bitte "vergleichbar"?
Soll dann unterm Balken stehen: "Der längere Balken markiert die Frames, die nicht ganz so hübsch sind, wie die vom anderen, aber so groß sind die Unterschiede eh nicht, darum klieren wir das in eine Grafik." ?
seahawk
2007-10-16, 09:42:58
Was ist denn bitte "vergleichbar"?
Soll dann unterm Balken stehen: "Der längere Balken markiert die Frames, die nicht ganz so hübsch sind, wie die vom anderen, aber so groß sind die Unterschiede eh nicht, darum klieren wir das in eine Grafik." ?
Im Endeffekt, ja. Ich fände es fast toll, wenn es neben einer Erklärung im Text einen solchen Hinweis gäbe.
Oder man muss zu einer Endnote kommen, wie es die PCGH schon macht.
10% Stromverbrauch
20% Lautstärke
30% BQ
40% Leistung
Natürlich, aber es ist das Beste was halbwegs fair ist. A.I off gegen HQ ist auf Grund es Aubaus des Treibers bei ATI keine Lösung, da eben auch anwendungsspezifische Tweaks entfallen.
Es ist bestenfalls ein Kompromiss, ja. Der Nachteil eines Kompromisses ist allerdings immer dass eine oder beide Seiten damit nicht richtig einverstanden sind.
Teilnehemer an dieser Diskussion welche sich allerdings seinerzeit einen G7x statt eines R5x0 zulegten, und ergo mit dessen IQ zufrieden waren, disqualifizieren sich uebrigens selbst an einem Gemeckere auf hohem Niveau und du kannst sie getrost ignorieren.
MadManniMan
2007-10-16, 09:57:26
Im Endeffekt, ja. Ich fände es fast toll, wenn es neben einer Erklärung im Text einen solchen Hinweis gäbe.
...im Prinzip ist das ja auch richtig, aber dann bräuchte man vor jedem Anschauenlassen einen 12stufigen Test, in dem der Leser beweist, daß er das kapiert hat - sonst sind eben vereinfachende Grafiken sinnlos. Und das kannst Du in der Praxis einfach nicht umsetzen, deswegen setzt man an der Ursache an: der grundlegenden Vergleichbarkeit.
Und die hört da auf, wo homöopathische Unterschiede überschritten werden.
Und was ist, wenn diese "G7x User" mit HQ gespielt haben? Immerhin ist der Modus besser als a.i standard bzw. low...
LovesuckZ
Und was ist, wenn diese "G7x User" mit HQ gespielt haben? Immerhin ist der Modus besser als a.i standard bzw. low...
LovesuckZ
nope, bestenfalls genauso gut wie a.i. low ohne HQ AF
seahawk
2007-10-16, 11:10:03
...im Prinzip ist das ja auch richtig, aber dann bräuchte man vor jedem Anschauenlassen einen 12stufigen Test, in dem der Leser beweist, daß er das kapiert hat - sonst sind eben vereinfachende Grafiken sinnlos. Und das kannst Du in der Praxis einfach nicht umsetzen, deswegen setzt man an der Ursache an: der grundlegenden Vergleichbarkeit.
Und die hört da auf, wo homöopathische Unterschiede überschritten werden.
Deswegen bin ich auch ein Freund der Gesamtnote am Ende.
Mal ne ganz unsaubere Idee. Man teile die average FPS über alle Benchmarks durch eine BQ Note die von 1-10 vergeben wird. (1 gut 10 schlecht)
Daraus bekäme man ne Performcen/BQ - Note.
Sagen wir man gibt dem G80 ne 2 und der R600 ne 3. (G70 wäre 5)
Dann sagen wir auf Grund der unterschiedlichen Bq Einstellungen erreicht die R600 avg. 50 FPS, der G80 45 FPS.
Die Endnote -> wäre aber 16.7 vs 22.5.
Die gelbe Eule
2007-10-16, 12:28:11
http://resources.vr-zone.com/newzhunter/RV670/GPU_1.jpg
RV670 exposed
Ist ja fast niedlich im Vergleich zum R600.:lol:
Henroldus
2007-10-16, 13:14:37
Ist ja fast niedlich im Vergleich zum R600.:lol:
und auch zum G92 :eek:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5936527&postcount=567
laser114
2007-10-16, 13:27:33
Tja, 194 mm^2 kann man noch relativ konkurrenzfähig produzieren. Da muss man den G92 eigentlich auch teurer anbieten... ;)
seahawk
2007-10-16, 13:39:07
Tja, 194 mm^2 kann man noch relativ konkurrenzfähig produzieren. Da muss man den G92 eigentlich auch teurer anbieten... ;)
Das hängt nicht nur von der Diegröße ab. Wafferpreis, Yield und auch die Nutzbarkeit teildefekter Chips ist wichtig.
Tja, 194 mm^2 kann man noch relativ konkurrenzfähig produzieren. Da muss man den G92 eigentlich auch teurer anbieten... ;)
Das ist Vorteil bei nVidia zur Zeit: Sie können ihre beste Karten für 500€+ verkaufen, AMD muss sich dagegen mit maximal 300€ begnügen. Und bei dem DIE des G92 wird es keine X² Karte bei nVidia geben.
LovesuckZ
Winter[Raven]
2007-10-16, 13:50:37
Das ist Vorteil bei nVidia zur Zeit: Sie können ihre beste Karten für 500€+ verkaufen, AMD muss sich dagegen mit maximal 300€ begnügen. Und bei dem DIE des G92 wird es keine X² Karte bei nVidia geben.
LovesuckZ
Wird bestimmt wieder lustig mit den Powerpointfolien...
1GPU G92 HighEnd ~1 TFLOP schlägt X2 von AMD ... das wird Nvidia sowas von ausschlachten...
;5937545']Wird bestimmt wieder lustig mit den Powerpointfolien...
1GPU G92 HighEnd ~1 TFLOP schlägt X2 von AMD ... das wird Nvidia sowas von ausschlachten...
Wo steht das es den geben wird?
Winter[Raven]
2007-10-16, 14:04:31
Wo steht das es den geben wird?
Nvidia wird mit dem G9x noch paar weitere Chips bringen... Nvidia kann die Performance skalieren wie es ihnen lustig ist.
Sk_Antilles
2007-10-16, 14:15:58
laser114
Tja, 194 mm^2 kann man noch relativ konkurrenzfähig produzieren. Da muss man den G92 eigentlich auch teurer anbieten...
Einleuchtend
Das ist Vorteil bei nVidia zur Zeit: Sie können ihre beste Karten für 500€+ verkaufen, AMD muss sich dagegen mit maximal 300€ begnügen. Und bei dem DIE des G92 wird es keine X² Karte bei nVidia geben.
LovesuckZ
Was ist denn das bitte für eine Logik? :confused:
Was ist denn das bitte für eine Logik? :confused:
Da ist gar keine Logik dahinter.
Was ist denn das bitte für eine Logik? :confused:
Eine objektive?! :rolleyes:
LovesuckZ
LovesuckZ
2007-10-16, 14:21:42
Da ist gar keine Logik dahinter.
Natürlich nicht. Ich wusst auch nicht, wieso ich Preise von 420/520€ für eine 8800 Karte gesehen habe. Wahrscheinlich war es in einer anderen Dimension. Verdammte Zeit-Raum-Problematik...
laser114
2007-10-16, 14:23:18
Das hängt nicht nur von der Diegröße ab. Wafferpreis, Yield und auch die Nutzbarkeit teildefekter Chips ist wichtig.
Schon richtig, aber ungefähr kann man das doch abschätzen. Und zwischen 194 und 289 mm^2 besteht nun mal ein doch nicht erheblicher Unterschied.
Und Änderungen am Fertigungsverfahren sind mir auch nicht bekannt ... oder gab es da mit den Umstellungen auf 55nm welche? Wäre eigentlich unlogisch, ist ja nur ein Half-Node.
;5937545']Wird bestimmt wieder lustig mit den Powerpointfolien...
1GPU G92 HighEnd ~1 TFLOP schlägt X2 von AMD ... das wird Nvidia sowas von ausschlachten...
Ein G92 wird ganz sicher keine R680 schlagen. Der Chip ist als oberes Mainstream gedacht, zwischen 8600GTS und 8800GTS und genau die Leistung wird er auch bringen. NV hat extra die 8800GTS dahingehend upgegradet, damit die GT der GTS nicht zu nahe kommt.
Winter[Raven]
2007-10-16, 14:27:54
@ HOT
ES kommt noch ein High-End Model, wie oft den noch? !!! Schreibe ich Chinesisch ?
LovesuckZ
2007-10-16, 14:30:22
Ein G92 wird ganz sicher keine R680 schlagen. Der Chip ist als oberes Mainstream gedacht, zwischen 8600GTS und 8800GTS und genau die Leistung wird er auch bringen. NV hat extra die 8800GTS dahingehend upgegradet, damit die GT der GTS nicht zu nahe kommt.
Das galt aber nur bis anfang letzter Woche. :rolleyes:
seahawk
2007-10-16, 15:16:46
Ein G92 wird ganz sicher keine R680 schlagen. Der Chip ist als oberes Mainstream gedacht, zwischen 8600GTS und 8800GTS und genau die Leistung wird er auch bringen. NV hat extra die 8800GTS dahingehend upgegradet, damit die GT der GTS nicht zu nahe kommt.
G92 ist ein G80 Shrink.
deekey777
2007-10-16, 15:44:24
http://resources.vr-zone.com/newzhunter/RV670/GPU_1.jpg
RV670 exposed
und auch zum G92 :eek:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5936527&postcount=567
Tja, 194 mm^2 kann man noch relativ konkurrenzfähig produzieren. Da muss man den G92 eigentlich auch teurer anbieten... ;)
Das ist Vorteil bei nVidia zur Zeit: Sie können ihre beste Karten für 500€+ verkaufen, AMD muss sich dagegen mit maximal 300€ begnügen. Und bei dem DIE des G92 wird es keine X² Karte bei nVidia geben.
LovesuckZ
Natürlich nicht. Ich wusst auch nicht, wieso ich Preise von 420/520€ für eine 8800 Karte gesehen habe. Wahrscheinlich war es in einer anderen Dimension. Verdammte Zeit-Raum-Problematik...
Erklär doch mal, was für eine Logik dahinter steht (gemeint ist die markierte Stelle) im Bezug auf den RV670, der wiederum 100 mm² kleiner ist als der G92 (siehe Postings von DGE und Henroldus und besonders von laser114).
Gaestle
2007-10-16, 16:15:05
Ein G92 wird ganz sicher keine R680 schlagen. Der Chip ist als oberes Mainstream gedacht, zwischen 8600GTS und 8800GTS und genau die Leistung wird er auch bringen. NV hat extra die 8800GTS dahingehend upgegradet, damit die GT der GTS nicht zu nahe kommt.
Offenbar gibt es verschiedene G92 Varianten. Das Bild aus dem 8800GT-Thread lässt IMHO (mindestens) auf einen vollen G80 in 65nm schließen. Wenn jetzt noch eine Taktspritze und ein paar Verbesserungen dazu kommen, könnte es vielleicht für R680 (oder wie auch immer genannt) wirklich reichen.
Time will tell.
robbitop
2007-10-16, 16:18:47
Die GT ist sowieso aus "Abfall-Chips", die sonst weggeworfen werden müssten produziert. Das haben beide IHVs recht erfolgreich in der Vergangenheit gemacht. Klar ist ein kleinerer Chip billiger. Ich gehe aber davon aus, dass der 55 nm Prozess zu diesem Zeitpunkt noch keine ähnlichen Yields wie ein erprobter Prozess vorweisen kann. Nicht die DIE Größe zählt, sondern die Gewinnspanne pro Wafer.
AnarchX
2007-10-16, 16:20:43
Da könnte der primäre Grund für 55nm beim RV670 wohl die reduzierte Leistungsaufnahme sein um hier Kühlung und Stromversorgung günstiger gestallten zu können.
Henroldus
2007-10-16, 16:25:01
Da könnte der primäre Grund für 55nm beim RV670 wohl die reduzierte Leistungsaufnahme sein um hier Kühlung und Stromversorgung günstiger gestallten zu können.
wird sich zeigen ob das der bessere Weg ist und die Leistung reicht oder ob die 55nm nicht doch zu einer Taktsteigerung genutzt werden(müssen?).
Nakai
2007-10-16, 17:47:51
Sweet zu den Rv670-Shots.
Der G92 ist dagegen riesig. Ich frage mich, wie AMD das geschafft hat. Der 55Nm-Bereich würde so eine geringe Größe nicht rechtfertigen, anscheinend hat man gewaltig den R600 aufgeräumt.
Nicht die DIE Größe zählt, sondern die Gewinnspanne pro Wafer.
Jedoch sollte der 55Nm-Prozess sehr gut nach AMD laufen.
mfg Nakai
LovesuckZ
2007-10-16, 18:08:04
Erklär doch mal, was für eine Logik dahinter steht (gemeint ist die markierte Stelle) im Bezug auf den RV670, der wiederum 100 mm² kleiner ist als der G92 (siehe Postings von DGE und Henroldus und besonders von laser114).
Was soll ich erklären? Das nVidia deutlich mehr Geld für ihre Karten nehmen? Das sie ihre Chips wesentlich teurer verkaufen können? Muss ich das wirklich erklären?
Eine 8800GT mit fiktiven 7 Clustern und einen Takt von 600/1500MHz wird wesentlich schneller sein als eine 2950pro (750Mhz). AMD kann zwar billiger produzieren, müssen dafür auch wesentlich billigere Preise nehmen.
Nakai
2007-10-16, 18:14:56
Eine 8800GT mit fiktiven 7 Clustern und einen Takt von 600/1500MHz wird wesentlich schneller sein als eine 2950pro (750Mhz). AMD kann zwar billiger produzieren, müssen dafür auch wesentlich billigere Preise nehmen.
Wenn AA und AF verbessert wurde, eher gleichauf. Je nach Testumgebung anders.
Ein R600 ist ohne AA schon fast auf 8800GTX-Niveau, wenn der Einbruch nun deutlich verringert wurde, was wird dann passieren?
mfg Nakai
James Ryan
2007-10-16, 18:17:48
Für ein Bench braucht man aber nur vergleichbare Optik.
Wieviel Wert hat ein Bench wenn er in realitätsfernen Settings abläuft? :rolleyes:
MfG :cool:
LovesuckZ
2007-10-16, 18:22:13
Wenn AA und AF verbessert wurde, eher gleichauf. Je nach Testumgebung anders.
Ein R600 ist ohne AA schon fast auf 8800GTX-Niveau, wenn der Einbruch nun deutlich verringert wurde, was wird dann passieren?
mfg Nakai
Drei Dinge: Der rv670 scheint ein einfacher 1:1 Shrink mit eventuell wegrationalisierten unwichtigen Transistoren zu sein. Wo hier etwas für die AA Leistung verbessert wurden sein sollte, weiß ioch noch nicht.
Die 2950pro hat gegenüber der 8800GT keinen 60% Speicherbandbreitenvorteil mehr. Der Einbruch beim AA könnte unter umständen wesentlich stärker ausfallen als bei der 8800GT.
Und als letztes ist die Rechenleistung der 8800GT nur noch 14% von der der 2950pro entfernt (keine Beachtung der SFUs). Beide werden ohne AA/AF wahrscheinlich in Xbox360 Protierungen auf einem Niveau sein +-10%, aber sobald AA und AF verwendet wird, gehe ich sehr stark von einem deutlichen Vorteil der 8800GT aus.
Nun mal langsam. der RV670 ist ein Refresh, also weit mehr als nur ein Die Shrink oder eine neue Revision, das ist schon ein neuer Chip. Er enthält z.B. auch nurnoch ein 256Bit Speicherinterface. Du machst es dir zu einfach mit deiner Argumentation finde ich.
Nakai
2007-10-16, 18:30:17
Die 2950pro hat gegenüber der 8800GT keinen 60% Speicherbandbreitenvorteil mehr. Der Einbruch beim AA könnte unter umständen wesentlich stärker ausfallen als bei der 8800GT.
76,8GB/s sollten genug sein...
Der rv670 scheint ein einfacher 1:1 Shrink mit eventuell wegrationalisierten unwichtigen Transistoren zu sein. Wo hier etwas für die AA Leistung verbessert wurden sein sollte, weiß ioch noch nicht.
Da wurde aber bei der Die-Size sehr viel wegrationalisiert, IMO hat er Verbesserungen bekommen, wenn es nach den AMD-Folien geht.
Genaueres werden wir beim Release erfahren.
Ich werde mich da auch nicht rumstreiten, da wir nichts genaues haben...
mfg Nakai
LovesuckZ
2007-10-16, 18:32:37
76,8GB/s sollten genug sein...
Nicht beim AA.
Nakai
2007-10-16, 18:35:44
Hast du einen Beweis, der deine Aussage unterstützt?
Die 8800GTX hat ~10% mehr Bandbreite und bricht unter AA nicht ein...
mfg Nakai
€: Der Bandbreitenbedarf bei AA soll beim RV670 gesunken sein, nach Folien.
deekey777
2007-10-16, 18:38:11
Was soll ich erklären? Das nVidia deutlich mehr Geld für ihre Karten nehmen? Das sie ihre Chips wesentlich teurer verkaufen können? Muss ich das wirklich erklären?
Eine 8800GT mit fiktiven 7 Clustern und einen Takt von 600/1500MHz wird wesentlich schneller sein als eine 2950pro (750Mhz). AMD kann zwar billiger produzieren, müssen dafür auch wesentlich billigere Preise nehmen.
Entweder hast du eine Persönlichkeitsspaltung oder Gegenwartsverzerrung.
Du hast doch geschrieben - als Antwort auf laser114s Posting - folgendes:
Das ist Vorteil bei nVidia zur Zeit: Sie können ihre beste Karten für 500€+ verkaufen, AMD muss sich dagegen mit maximal 300€ begnügen. Und bei dem Die des G92 wird es keine X² Karte bei nVidia geben.
LovesuckZ
Im Bezug auf sein Posting: Wo versteckt sich die Logik diesr Aussage?
LovesuckZ
2007-10-16, 18:38:57
Hast du einen Beweis, der deine Aussage unterstützt?
Die 8800GTX hat ~10% mehr Bandbreite und bricht unter AA nicht ein...
mfg Nakai
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung
Ausserdem hat die PRO die selbe Bandbreite wie die 8800GT - 57600gb/s.
Von welcher Folie sprichst du? Die im ersten Posting sagen nichts aus.
Im Bezug auf sein Posting: Wo versteckt sich die Logik diesr Aussage?
Er schrieb, dass nVidia den G92 wesentlich teurer verkaufen müsste. Ich stimme ihn zu und sehe dies zur Zeit als einen Vorteil von nVidia an. Der Name 8800 ermöglicht einen wesentlich höhreren Verkaufspreis als 29xx. Wo die Unlogik dadrin steckt, kannst du mir gerne zeigen.
robbitop
2007-10-16, 18:48:04
Sweet zu den Rv670-Shots.
Der G92 ist dagegen riesig. Ich frage mich, wie AMD das geschafft hat. Der 55Nm-Bereich würde so eine geringe Größe nicht rechtfertigen, anscheinend hat man gewaltig den R600 aufgeräumt.
rund 10 Mio Transistoren auf 700 Mio sind alles andere als gewaltig. Vieleicht hat man auch noch nebenher die Packdichte erhöt. Schon allein, weil das 256 bit SI da ist und weniger Massetransistoren verbaut werden müssten, spart das schon etwas.
Jedoch sollte der 55Nm-Prozess sehr gut nach AMD laufen.
Was soll AMD denn sonst sagen? ;)
Klar wird der RV670 billiger zu produzieren sein als der G92. Der kann jedoch in einem potenziell höherem Preisgewässer schwimmen (bis hin zur GTX mit 400 und mehr EUR).
Nakai
2007-10-16, 18:50:53
Was soll AMD denn sonst sagen?
Nichts!^^
Die hätten ne Verschiebung ansonsten angekündigt.;D
mfg Nakai
Logan
2007-10-16, 21:13:13
Habe den thread leider nicht verfolgen, kann mir einer sagen wann man mit neuen grakas rechnen kann (amd/nv) ?
laser114
2007-10-16, 21:16:37
Habe den thread leider nicht verfolgen, kann mir einer sagen wann man mit neuen grakas rechnen kann (amd/nv) ?
8800 GT: 29. Oktober
RV670-basierend: 15. November
andere G92-Chips: evtl. ab November
Logan
2007-10-16, 21:18:16
8800 GT: 29. Oktober
RV670-basierend: 15. November
andere G92-Chips: evtl. ab November
ok thx :up:
Verstehe leider nicht wie der RV670 bei gleicher/geringerer Rohleistung und Imens weniger Speicherbandbreite auch nur in die nähe einer HD2900XT kommen soll. Das Teil hat weniger Bandbreite als eine 8800GTS und darüber hinaus hat doch die Architektur das Prob mit AA, da geht doch kein 4xMSAA in einem Durchlaub bzw. mit 20% Verlust wie beim G80...
Nun mal langsam. der RV670 ist ein Refresh, also weit mehr als nur ein Die Shrink oder eine neue Revision, das ist schon ein neuer Chip. Er enthält z.B. auch nurnoch ein 256Bit Speicherinterface. Du machst es dir zu einfach mit deiner Argumentation finde ich.
Zum Verständnis für mich: Wo liegen die gravierenden Verbesserungen zwischen R580 und RV570? Letzterer ist ja auch der Performance-Mainstream-Refresh gewesen.
Adam D.
2007-10-16, 22:09:47
Verstehe leider nicht wie der RV670 bei gleicher/geringerer Rohleistung und Imens weniger Speicherbandbreite auch nur in die nähe einer HD2900XT kommen soll. Das Teil hat weniger Bandbreite als eine 8800GTS und darüber hinaus hat doch die Architektur das Prob mit AA, da geht doch kein 4xMSAA in einem Durchlaub bzw. mit 20% Verlust wie beim G80...
Höhere Taktraten, kleine interne Verbesserungen, Sinnlosigkeiten über Bord geworfen (512-bit Speicherinterface), dazu deutlich sparsamer und leiser. Die Leistung wird mit Sicherheit über der des R600 liegen, was am AA gearbeitet wurde, wird sich rausstellen.
Ailuros
2007-10-16, 22:49:57
Wir sind gerade am Anfang der zweiten Runde was G8x bzw. R6xx betrifft. Wehe wenn AMD nicht ihre Lage generell verbessert, denn zumindest mit der 2900XT haben sie garantiert keinen Gewinn kassieren koennen.
Bei jedem IHV ist es eher angebrachter die gesamte Generation und deren Verlauf zu betrachten; zu guter letzt muessen die IHVs irgendwo die Unkosten fuer R&D wieder reinholen und umsonst hat AMD den R600 nun auch nicht entwickelt. Ganz im Gegenteil mit dem ganzen 80nm/ROP bug Bumsfallera wuerde es mich nicht wundern wenn man anfangs an den 2900XT genau am Rand der Unkosten verkauft hat.
Jetzt ist die Zeit etwas vom vorigen "Schaden" wieder reinzuholen. Dass speziell NVIDIA jetzt noch etwas anderes machen muss als sie schon vorhaben, grenzt an die Laecherlichkeit. Wer Zweifel hat, soll sich mal ausnahmsweise mal die Verkaufszahlen, den Umsatz und die jeweiligen finanzielle Resultate genauer ansehen.
Höhere Taktraten
AMD wuerde noch einen weiteren Tritt in den Hintern verdienen wenn sie nicht die Taktrate erhoehen koennten. Nichtdestominder ist die Taktsteigerung bei RV670 geringer als im Vergleich G92-G80 und nein die fette Dame hat noch nicht ausgesungen.
kleine interne Verbesserungen
Der double precision Mist ist nur gut fuer GPGPU Scheiss und liegt im gleichen Marketing-Bullshit Bereich wie auch bei NVIDIA. Das nur zu dem Bloedsinn der in letzter Zeit kursiert.
Sinnlosigkeiten über Bord geworfen (512-bit Speicherinterface), dazu deutlich sparsamer und leiser.
Wer sagt dass das SI eine Sinnlosigkeit ist? Ein heutiger high end chip braucht >256bit ausser er ist ein TBDR. An dem hat ATI nichts falsch gemacht. Nur eben schade dass die ROPs so verdammt abgekackt sind dass man mit die Bandbreite nicht richtig abschiessen kann.
Nur weil die Performance-GPUs sowohl von NV als auch von AMD auf 256bit ankommen, heisst es bei weitem nicht dass es sich um einen Rueckschritt handelt der sich auch auf zukuenftige high end boards uebertragen wird.
sklave_gottes
2007-10-16, 23:05:25
Wer sagt dass das SI eine Sinnlosigkeit ist? Ein heutiger high end chip braucht >256bit ausser er ist ein TBDR. An dem hat ATI nichts falsch gemacht. Nur eben schade dass die ROPs so verdammt abgekackt sind dass man mit die Bandbreite nicht richtig abschiessen kann.
Nur weil die Performance-GPUs sowohl von NV als auch von AMD auf 256bit ankommen, heisst es bei weitem nicht dass es sich um einen Rueckschritt handelt der sich auch auf zukuenftige high end boards uebertragen wird.
Dir ist schon aufgefallen das selbst eine 8800GTX mit mehr gpu takt besser skalliert als mit mehr Speicherbandbreite ? Und das bei den Monster TMUs. Wir sind auch erst bei "nur" 900mhz, bald wird es kein problem sein 1200-1500mhz steine zu kriegen das wäre nochmal eine steigerung von über 50%(>1350). Mal sehen ob der g92 überhaupt soviel die Texel/Pixel Leistung steigert. Vorher macht noch mehr Bandbreite sowieso keinen sin.(siehe HD2900XT, X1950XTX) Ausserdem kann man das SI noch Genauer machen und hat sowieso von chip zu chip eine bessere Speicherverwaltung, normalerweise.
Bei einem rv670 mit 16 TMUs und 825mhz reichen 256bit@1200mhz locker. So hat er ja schon mehr als eine 8800GT die wiederum viel mehr rohleistung hat. Die HD2900XT war dem 512bit SI einfach nicht gewachsen.
mfg martin
sklave_gottes
2007-10-16, 23:10:36
Drei Dinge: Der rv670 scheint ein einfacher 1:1 Shrink mit eventuell wegrationalisierten unwichtigen Transistoren zu sein. Wo hier etwas für die AA Leistung verbessert wurden sein sollte, weiß ioch noch nicht.
Die 2950pro hat gegenüber der 8800GT keinen 60% Speicherbandbreitenvorteil mehr. Der Einbruch beim AA könnte unter umständen wesentlich stärker ausfallen als bei der 8800GT.
Und als letztes ist die Rechenleistung der 8800GT nur noch 14% von der der 2950pro entfernt (keine Beachtung der SFUs). Beide werden ohne AA/AF wahrscheinlich in Xbox360 Protierungen auf einem Niveau sein +-10%, aber sobald AA und AF verwendet wird, gehe ich sehr stark von einem deutlichen Vorteil der 8800GT aus.
Wieso sollte der noch stärker ausfallen wie auf der 8800gt, die hat doch auch nur soviel wie die HD2950pro. Ausserdem gibs ja auch noch die HD2950XT ich behaupte mal das diese aufjedenfall vor einer HD2900XT liegen wird :-). Den der hat wie schon oft geschrieben die Speicherbandbreite überhaupt nichts gebracht, selbst mit 600mhz Speichertakt fast die selbe leistung 1-3% langsamer.
mfg martin
LovesuckZ
2007-10-16, 23:17:01
Speicherbandbreite sspielt dann eine Rolle, wenn diese benötigt wird. Das geschieht in 90% aller Fälle beim Einsatz von AA. Der Einbruch bei Verwendung von AA kann sich wesentlich stärker bemerkbar machen, wenn die Bandbreite ihn nicht mehr so stark auffedern kann.
Steve1
2007-10-16, 23:18:11
Das 512 Bit Speicherinterface der Ati war wohl eher zu Werbezwecken.
mapel110
2007-10-16, 23:27:06
Außerdem ist der Vergleich von 1900er und 2900er wenig aussagekräftig in Bezug auf Bandbreite. R600 Bugs und Performance vom R580 musste bis aufs letzte ausgequetscht werden, weil man spät dran war.
sklave_gottes
2007-10-16, 23:39:33
Außerdem ist der Vergleich von 1900er und 2900er wenig aussagekräftig in Bezug auf Bandbreite. R600 Bugs und Performance vom R580 musste bis aufs letzte ausgequetscht werden, weil man spät dran war.
Wer redet hier von einem vergleich von r580 und r600. Vergleiche doch X1900XTX mit X1950XTX. Was bringt die "Stark" erhöte speicherbandbreite ?
~10% mehr Leistung.
wartet ab nach eurer Logic müste der rv670 dann Ja hinterm r600 liegen was ich ganz klar Bezweifel.
mfg martin
sklave_gottes
2007-10-16, 23:41:13
Speicherbandbreite sspielt dann eine Rolle, wenn diese benötigt wird. Das geschieht in 90% aller Fälle beim Einsatz von AA. Der Einbruch bei Verwendung von AA kann sich wesentlich stärker bemerkbar machen, wenn die Bandbreite ihn nicht mehr so stark auffedern kann.
Was wurde denn bitte beim r600 aufgefedert mit aa ? Ich sehe da nicht von auffedern. Selbst ein r580 verliert viel weniger mit AA.
Naja was passiert bei einer HD2900XT wenn man deren Speicher heruntertaktet auf z.b. 8800GTS Niveau. Weiß nicht ob es dazu Benchmarks gibt aber bei Beyond3D war es glaube ich mal erwähnt, das die AA Performance dann in den Keller rauscht. Sprich auch das breite Interface wird nicht richtig genutzt, oder es ist wiederholt ein Bug im Treiber. Beim R580 gab es ja auch ein Update für den Treiber der Probleme mit der Ausnutzung des SI behob.
Wer redet hier von einem vergleich von r580 und r600. Vergleiche doch X1900XTX mit X1950XTX. Was bringt die "Stark" erhöte speicherbandbreite ?
~10% mehr Leistung.
wartet ab nach eurer Logic müste der rv670 dann Ja hinterm r600 liegen was ich ganz klar Bezweifel.
mfg martin
R580 und R580+ sind dieselben Chips nur in neuer Revision. Wie haben es hier mit einem Refresh zu tun, also wie der Sprung von R520 auf R580. Dewegen finde ich dieses ganze Die-Shrink Gefasel auch völlig daneben. Das ist ein Refresh, das heißt, man hat Schwächen aus der Architktur ausgemerzt. Ist beim G80 und G92 ja auch so. Nur dass es beim R600 mehr zu reparieren gibt ;).
seahawk
2007-10-17, 15:24:50
Kein echter Refresh, man beachte den RV670 Codenamen. Value meint, dass hier eben auch die Wirtschaftlichkeit und Leistungsaufnahme des Chips wichtig waren, man wird daher möglicherweise weniger Aufwand in die Verbesserung der Geschwindigkeit gesteckt haben. Und gerade wenn, RV670 mit einem halbierten Speicherinterface und nur wenig mehr Takt (als Revival) auch nur an die X2900XT rankommt, dann muss man den R600 in eine Ahnenreihe mit dem R200 stellen. Gleichzeitig muss was an der Arichtektur und in den Desginentscheidungen grundsätzlich falsch sein, wenn man einene Chip baut der in seiner Architketur auch mit 50% weniger Bandbreite besser performen kann.
Zu hohe Erwartungen, gerade mit AA+AF, würde ich bei RV670 nicht pflegen.
Was hat der Codename damit zu tun? Der RV670 ist nicht das HighEnd Modell, das ist der einzige Grund für das V. Es kommt ja noch der R680 DualCore, der hat dann auch das R ohne V. ATI nennt alles, was nicht zur Leistungsspitze gehört RV.
Ein ganz gutes Beispiel ist der R520. Das ist so, als würde man zum RV570 wechseln und dabei noch einiges reparieren, was kaputt ist. Du willst doch wohl nicht behaupten, dass der RV570 ein abgespeckter R520 ist oder?
Ich denke, dass die das AA/AF Verhalten wieder normalisieren wird mit dem RV670 und sich wieder in R580 Verhältnissen bewegt.
sklave_gottes
2007-10-17, 16:13:57
Kein echter Refresh, man beachte den RV670 Codenamen. Value meint, dass hier eben auch die Wirtschaftlichkeit und Leistungsaufnahme des Chips wichtig waren, man wird daher möglicherweise weniger Aufwand in die Verbesserung der Geschwindigkeit gesteckt haben. Und gerade wenn, RV670 mit einem halbierten Speicherinterface und nur wenig mehr Takt (als Revival) auch nur an die X2900XT rankommt, dann muss man den R600 in eine Ahnenreihe mit dem R200 stellen. Gleichzeitig muss was an der Arichtektur und in den Desginentscheidungen grundsätzlich falsch sein, wenn man einene Chip baut der in seiner Architketur auch mit 50% weniger Bandbreite besser performen kann.
Zu hohe Erwartungen, gerade mit AA+AF, würde ich bei RV670 nicht pflegen.
Diese schlussvolgerung ist sehr gefährlich, denn hätte die 8800gtx die doppelte speicherbandbreite würde ihr das auch nicht doppelte performans bringen, auch nicht mit aa. Ein refresh mit viel weniger banbreite und mehr GPU takt könnte so auch leicht dran vorbei ziehen. Was zählt ist wieviel Speicherbandbreite ist sinvoll?! Und davon hatte der r600 einfach zu viel, wen wunderts bei 16 TMUs.
Die Top version vom rv670 wird nicht 50% weniger Speicherbandbreite haben, sondern "nur" 27,5% weniger Speicherbandbreite.
Naja was passiert bei einer HD2900XT wenn man deren Speicher heruntertaktet auf z.b. 8800GTS Niveau. Weiß nicht ob es dazu Benchmarks gibt aber bei Beyond3D war es glaube ich mal erwähnt, das die AA Performance dann in den Keller rauscht. Sprich auch das breite Interface wird nicht richtig genutzt, oder es ist wiederholt ein Bug im Treiber. Beim R580 gab es ja auch ein Update für den Treiber der Probleme mit der Ausnutzung des SI behob.
@Gast
Ich habe mal so ein Benschmark gesehen der hier vom Forum aus verlinkt wurde ich glaube das war von AnarchX oder deekey777
Der r600 verlor bis 600mhz Speichertakt nur 1-5%
mfg martin
X-ray3
2007-10-17, 16:15:37
Hab gerade in einem anderen Forum gelesen, das auf der GeCube-Page eine HD3800 gelistet ist. Dieses will ich euch natürlich nicht vorenthalten.
http://img3.imagebanana.com/img/g8t05y4q/hd3800.JPG
w0mbat
2007-10-17, 16:19:31
Es gibt seit einigen tagen Gerüchte das die HD2950-Serie zur HD3000-Serie wird. ATI schwenkt da sehr schnell um, die X2800er wurden auch innerhalb von zwei Tagen zu HD2900er.
Es gab noch kurz vor dem R600-Launch Präsentation in denen von der X2800-Serie gesprochen wurde. Aber Namen sind nur Schall und Rauch, also ist´s mir reichlich egal ob ich nun eine HD2950er oder eine HD3000er bekomme, die 50 machen den Braten auch nicht fett :)
Kann aber trotzdem zeigen, dass man sich deutlich von der alten Graka Generation durch Verbesserungen absetzten kann und will und es sich nicht einfach nur um ein einfaches Refresh handelt.
w0mbat
2007-10-17, 16:33:34
Oder man will das relativ schlechte Image der HD2900 XT ablegen und DX10.1 + PCIe 2.0 verdeutlichen.
reunion
2007-10-17, 16:40:18
Der Link ist jedenfalls nach wie vor online.
http://www.gecube.com/products-02.php?prod_cat_pid=213&prod_cat_id=214
Jo das wird auch viel mit Marketing zu tun haben.
seahawk
2007-10-17, 16:58:48
Diese schlussvolgerung ist sehr gefährlich, denn hätte die 8800gtx die doppelte speicherbandbreite würde ihr das auch nicht doppelte performans bringen, auch nicht mit aa. Ein refresh mit viel weniger banbreite und mehr GPU takt könnte so auch leicht dran vorbei ziehen. Was zählt ist wieviel Speicherbandbreite ist sinvoll?! Und davon hatte der r600 einfach zu viel, wen wunderts bei 16 TMUs.
Die Top version vom rv670 wird nicht 50% weniger Speicherbandbreite haben, sondern "nur" 27,5% weniger Speicherbandbreite.
Ich sagte als Revival. Und da ist der Vorteil in der Specihergeschwindigkeit gerade mal 75mhz. Also fehlen annährend 50% Bandbreite. Gladiator könnte über der R600 liegen.
Trptzdem würde ich mal davon ausgehen, dass ATI dm R600 nicht völlig ohne Sinn soviel Bandbreite gab, dies muss ein frühzeitige Designentscheidung gewesen sein. RV670 entspringt nun der selben grundlegenen Chipfamilie, wenn auch mit mehr pder weniger wirksamen Änderungen, und soll mit deutlich weniger Bandbreite besser performen (AA/AF an)?
Dies ist entweder unrealistisch oder der R600 ist ein ziemlich bescheidener Chip. Aber die anderen Probleme des R600 bleiben ja auch. Z-Nachteile, schwächer Texturleistung etc. Man müßte also beides gefixt haben, einen Videoprozesser integriert, DX10.1 eingebaut und gleichzeitig die Probleme des R600 grundlegend und tiefgreifend gefixt haben, und das alles in dem kelien Chip. Ne das glaube ich nicht mehr.
Ich sagte als Revival. Und da ist der Vorteil in der Specihergeschwindigkeit gerade mal 75mhz. Also fehlen annährend 50% Bandbreite. Gladiator könnte über der R600 liegen.
Das muss nichts heissen. Wenn der neue Chip mit weniger Bandbreite besser klarkommt, ist das kein Problem.
Trptzdem würde ich mal davon ausgehen, dass ATI dm R600 nicht völlig ohne Sinn soviel Bandbreite gab, dies muss ein frühzeitige Designentscheidung gewesen sein. RV670 entspringt nun der selben grundlegenen Chipfamilie, wenn auch mit mehr pder weniger wirksamen Änderungen, und soll mit deutlich weniger Bandbreite besser performen (AA/AF an)?
Der R600, reichtig. Das muss nicht für den RV670 gelten. Er mag zwar zur gleichen Familie gehören, dennoch kann es sein, dass diesbezüglich Flaschenhälse beseitigt wurden.
Dies ist entweder unrealistisch oder der R600 ist ein ziemlich bescheidener Chip. Aber die anderen Probleme des R600 bleiben ja auch. Z-Nachteile, schwächer Texturleistung etc. Man müßte also beides gefixt haben, einen Videoprozesser integriert, DX10.1 eingebaut und gleichzeitig die Probleme des R600 grundlegend und tiefgreifend gefixt haben, und das alles in dem kelien Chip. Ne das glaube ich nicht mehr.
Na, so schlecht ist der R600 nicht. Er ist in einigen Benchmarks ziemlich gut, je mehr Shaderleistung desto besser. Er ist ja nur dann nicht so toll, wenn AA hinzukommt. Das muss für den RV670 nicht gelten. Der R600 hätte kein 512Bit Interface benötigt, das war einfach eine Fehlentscheidung beim ursprünglichem Design. Das passiert, das haben wir an der Geforce5800 gesehen. Refreshes sind dazu da, um die Fehlentscheidungen auszubügeln und das Desingn glattzuziehen. Siehe R580, NV35 usw.
sklave_gottes
2007-10-17, 17:11:26
Ich sagte als Revival. Und da ist der Vorteil in der Specihergeschwindigkeit gerade mal 75mhz. Also fehlen annährend 50% Bandbreite. Gladiator könnte über der R600 liegen.
Trptzdem würde ich mal davon ausgehen, dass ATI dm R600 nicht völlig ohne Sinn soviel Bandbreite gab, dies muss ein frühzeitige Designentscheidung gewesen sein. RV670 entspringt nun der selben grundlegenen Chipfamilie, wenn auch mit mehr pder weniger wirksamen Änderungen, und soll mit deutlich weniger Bandbreite besser performen (AA/AF an)?
Dies ist entweder unrealistisch oder der R600 ist ein ziemlich bescheidener Chip. Aber die anderen Probleme des R600 bleiben ja auch. Z-Nachteile, schwächer Texturleistung etc. Man müßte also beides gefixt haben, einen Videoprozesser integriert, DX10.1 eingebaut und gleichzeitig die Probleme des R600 grundlegend und tiefgreifend gefixt haben, und das alles in dem kelien Chip. Ne das glaube ich nicht mehr.
Ich Glaube doch auch nicht an einem Überflieger, doch sollten die Specs vom
Gladiator ausreichen um am r600 vorbei zu ziehen. Texel und Pixel Leistung wurde minimal durch den Takt erhöht, es bleibt zu hoffen das der noch bissel höher wird als die nur Spekulierten 85mhz. Ich denke aber das sich da leider auch nicht viel mehr ändern wird zu 825mhz, leider.
Für aa/af brauch man nicht nur Speicherbandbreite sondern vorallem auch Texelleistung. Die hat Rev. sowie Glad. minimal höher. Ausserdem hoffe ich doch das ATI noch was verändert haben am starken aa einbruch, den der ist unter aller sau. Ich denke das sie davon schon eher wusten und nicht erst zum lunsch vom r600, die Hoffnung stirbt zuletzt. Mit allem zusammen wird er dann vieleicht doch noch konkurenzfähig im vergleich zur 8800gt, was zuhoffen ist, für uns alle!
seahawk
2007-10-17, 17:26:30
Ich wollte ja nicht NV30 sagen, aber der Verglecih zu NV35 ist im Grundastz nicht verkehrt. Der war besser als Nv30, aber eben der Konkurrenz weiterhin unterlegen. Und ehrlich gesagt sehe ich kaum einen Weg wie RV670 G92 ernsthaft gefährden soll. Mit Glück braucht NV die neue GTS gegen Gladiator, wahrscheinlch tut es die GT. Ihc will euch nicht euere Hoffnugn nehmen, aber zu hohe Erwartunge dürfte nenttäuscht werden. (besonders wenn es um eine gravierende Verscheibung zwischen NV/ATI geht)
Adam D.
2007-10-17, 18:21:12
Ich bin besonders im Hinblick auf Crysis/UT3 auf die neuen ATi-Karten gespannt. Kann man dem Test von Anandtech glauben, dann zieht die HD2900XT in UT3 extrem. Leider ist der Test ohne AA/AF und somit nur etwas aussagekräftig. Aber auch mit dem üblichen Einbruch würde man sich vor 8800GTS platzieren, wohl teilweise deutlich. Vielleicht schlummern ja doch noch kleine Überraschungen im Chip ... Vielleicht aber auch nicht :usad:
LovesuckZ
2007-10-17, 18:30:06
Wie kommst du darauf, dass die Karte mit AA und AF sich vor der GTS plazieren könnte?
Ich bin besonders im Hinblick auf Crysis/UT3 auf die neuen ATi-Karten gespannt. Kann man dem Test von Anandtech glauben, dann zieht die HD2900XT in UT3 extrem. Leider ist der Test ohne AA/AF und somit nur etwas aussagekräftig. Aber auch mit dem üblichen Einbruch würde man sich vor 8800GTS platzieren, wohl teilweise deutlich. Vielleicht schlummern ja doch noch kleine Überraschungen im Chip ... Vielleicht aber auch nicht :usad:
Das ist besonders verwunderlich. Urpsrünglich sollte der 8800 die UT3-Engine wesentlich besser liegen (wegen höherer Anforderung an Texturleistung).
LovesuckZ
2007-10-17, 18:36:11
Das ist besonders verwunderlich. Urpsrünglich sollte der 8800 die UT3-Engine wesentlich besser liegen (wegen höherer Anforderung an Texturleistung).
Das soll nur unter D3D10 der Fall sein. Alle anderen U3 Engines haben alle einen hohen Anspruch an die Rechenleistung unter DX9.
Adam D.
2007-10-17, 18:44:52
Wie kommst du darauf, dass die Karte mit AA und AF sich vor der GTS plazieren könnte?
Naja, die HD2900XT liegt teilweise doch deutlich vor der 8800GTS. Und die 8800GTS bricht ja unter AA auch ein. Da müsste die HD2900XT schon extrem an Leistung verlieren, damit sich die 8800GTS wieder behaupten kann - was natürlich defintiv möglich ist, möchte ich gar nicht widersprechen.
reunion
2007-10-17, 19:20:15
RV670 is Radeon HD 3800 Series (http://www.vr-zone.com/articles/RV670_is_Radeon_HD_3800_Series/5358.html)
VR-Zone has learned that the official marketing name for RV670 will be Radeon HD 3800 series.
[...]
As such, AMD has decided to drop PRO, XT, GT, XTX from their future HD 3000 series graphics series and the last 2 digits of the series will determine the performance of the card. RV670PRO will be known as Radeon HD 3850 while RV670XT will be know as Radeon HD 3870 when they are launched on Nov 15th.
Damit sollten wohl auch die letzten Zweifler einsehen, dass die Karte schneller wird als ein R600. RV635/620 wird dann wohl HD 3600/3400.
Adam D.
2007-10-17, 19:27:27
3870 ... Ach du Kacke :ulol:
w0mbat
2007-10-17, 19:30:28
Un dann ist auch noch viel Platz für einen R670/R680 mit HD3890/HD3900.
seahawk
2007-10-17, 19:32:11
RV670 is Radeon HD 3800 Series (http://www.vr-zone.com/articles/RV670_is_Radeon_HD_3800_Series/5358.html)
Damit sollten wohl auch die letzten Zweifler einsehen, dass die Karte schneller wird als ein R600. RV635/620 wird dann wohl HD 3600/3400.
Eher ne Anpassung an das kommende Namensschema bei CPUs - oder ? Ansonsten wäre ne 2600 ja auch schneller als ne 1900XTX
reunion
2007-10-17, 19:34:10
Un dann ist auch noch viel Platz für einen R670/R680 mit HD3890/HD3900.
Eben. Und macht auch irgendwie Sinn. Ein R670 wird sicher 2x R600 Leistung erreichen, zusätzlich hat er ein geringfügig höheres Tech-Level. HD2950 würde dem nicht gerecht werden. Warum sollte man den Chip also keine neue Serie geben? R420 bekam ja auch eine neue Serie. Und R700 dürfte auch nicht mehr als DX10.1 beherrschen. Zudem hat die HD2000-Serie wohl nicht gerade den besten Ruf.
Eher ne Anpassung an das kommende Namensschema bei CPUs - oder ? Ansonsten wäre ne 2600 ja auch schneller als ne 1900XTX
Tue doch nicht so als ob du völlig daneben stehen würdest. Dass das Lowend einer neuen Serie nicht das High-End der letzen schlägt, war schon immer so. Und wo du hier eine Anpassung an das Namensschema bei CPUs siehst, weißt wohl nur du alleine.
Nakai
2007-10-17, 19:42:44
Ein R670 wird sicher 2x R600 Leistung erreichen, zusätzlich hat er ein geringfügig höheres Tech-Level.
Ein RV670 sicherlich nicht...
mfg Nakai
James Ryan
2007-10-17, 19:43:51
Ein RV670 sicherlich nicht...
mfg Nakai
Er schrieb ja auch extra "R670" aka 2xRV670. ;)
MfG :cool:
reunion
2007-10-17, 19:45:00
Ein RV670 sicherlich nicht...
mfg Nakai
Du hast schon gesehen, dass ich R670 (=2xRV670) geschrieben habe? Vielleicht heißt ja der Single-Chip anders, als zB HD37XX.
Nakai
2007-10-17, 19:51:04
Nee, hab ich nicht gesehen.^^:redface:
Vielleicht heißt ja der Single-Chip anders, als zB HD37XX.
Ich meinerseitz finde die Bezeichnung komisch.
Nach VR-Zone wird das ein Chaos schlechthin werden. Ich erwarte nicht so ein Durcheinander.
mfg Nakai
robbitop
2007-10-17, 19:57:00
Für einen Refresh ziehen sie gleich eine neue erste Zahl? Früher fand ich das System von ATI mal richtig gut.
seahawk
2007-10-17, 19:57:53
Tue doch nicht so als ob du völlig daneben stehen würdest. Dass das Lowend einer neuen Serie nicht das High-End der letzen schlägt, war schon immer so. Und wo du hier eine Anpassung an das Namensschema bei CPUs siehst, weißt wohl nur du alleine.
Phenom kriegt auch virstellige Nummern, die eine Anzahl der Kerne und Leistung angeben. 1450,2350 etc.
Es ist denkbar, dass ATI/Amd so auch bei GPU verfahren.
Dann hat man
1XXX als Low-End
2XXX Midrange
3XXX Perfromance
4XXX High-End
Nakai
2007-10-17, 20:00:43
Früher fand ich das System von ATI mal richtig gut.
Nur handelt es sich nun nicht mehr um ATI...
AMD und ATI alleine waren gut, aber AMD und ATI zusammen sind einfach komisch...^^
mfg Nakai
Wenn der/die Bug(s) des R600 bzgl. AA gefixed wurde (der Einbruch ist ja nun wirklich nicht normal und kann niemals so geplant gewesen sein) würde die Karte ja wirklich abgehen wie Schmidt's Katze, auch mit 256 Bit SI, dann wäre auch die 3 gerechtfertigt.
Man kann nur für AMD hoffen, daß es so ist.
reunion
2007-10-17, 20:08:27
Für einen Refresh ziehen sie gleich eine neue erste Zahl? Früher fand ich das System von ATI mal richtig gut.
Wie liegt das Problem? NV15, NV25, G70, R420, etc. Es gibt genug Beispiele in der Vergangenheit, wo dies ebenso war. Die Leistung dürfte einen R600 dank Dual-Die deutlich in die Schranken weisen. HD2950 würde dem IMHO nicht gerecht werden. Zudem hat der Chip mit DX10.1 zumindest ein etwas höheres Tech-Level (das nV mit G92 wohl nicht bieten wird). Ein R700 wird auch nicht mehr haben, da D3D11 erst mit Vienna 2009 kommt.
AnarchX
2007-10-17, 20:13:01
Eine 8800GT mit der GPU-Leistung einer 8800GTX und nun ein R600-Refresh/Shrink als HD3000-Serie....:crazy:
reunion
2007-10-17, 20:14:39
Phenom kriegt auch virstellige Nummern, die eine Anzahl der Kerne und Leistung angeben. 1450,2350 etc.
Es ist denkbar, dass ATI/Amd so auch bei GPU verfahren.
Dann hat man
1XXX als Low-End
2XXX Midrange
3XXX Perfromance
4XXX High-End
Und was machst du dann bei der nächsten Generation?
Eine 8800GT mit der GPU-Leistung einer 8800GTX und nun ein R600-Refresh/Shrink als HD3000-Serie....:crazy:
Das mit der 8800GT glaube ich erst wenn sie vorgestellt wurde. Womöglich heißt das Ding dann auch 9800GT.
Für einen Refresh ziehen sie gleich eine neue erste Zahl? Früher fand ich das System von ATI mal richtig gut.
Das die dämlichen Kürzel verschwinden finde ich hingegen richtig gut :).
Und was machst du dann bei der nächsten Generation?
Irgendwas anstatt "HD" :).
reunion
2007-10-17, 20:18:16
Das die dämlichen Kürzel verschwinden finde ich hingegen richtig gut :).
Sehe ich auch so. Mittlerweile kennt sich ja keiner mehr aus, welches Kürzel bei welchem Hersteller was bedeutet; und jede Generation ändern sich das bzw. kommen neue dazu. So kann man die Karten wenigstens klar einordnen.
seahawk
2007-10-17, 20:24:52
Und was machst du dann bei der nächsten Generation?
Was anderes als Radeon HD XXXX wird algelöst von Radeon XD XXXX z.B. oder man gibt Radeon mal auf, so wien man Athlon sterben lassen wird .
AnarchX
2007-10-17, 20:43:11
Das mit der 8800GT glaube ich erst wenn sie vorgestellt wurde. Womöglich heißt das Ding dann auch 9800GT.
Wahrscheinlich, rein aus marketingtechnischen Gründen wäre es sinvoll: 8800GT vs HD3870, was hört sich hier wohl stärker an...
Einzig bedenken habe ich dann beim R7xx, was soll der dann werden, wenn schon RV670 als HD3800-Serie vermarktet wird. HD3900?
Oder weil dies ihm nicht wirklich gerecht wird, gleich HD4800-Series?
Naja, Namen sind Schall und Rauch, ob nun HD3800 oder "World best graphics-card", dass alles wird dann dem RV670 nicht helfen in der "Schlacht" und es kommt schliesslich wieder auf die Hardware an.
reunion
2007-10-17, 20:50:02
Wahrscheinlich, rein aus marketingtechnischen Gründen wäre es sinvoll: 8800GT vs HD3870, was hört sich hier wohl stärker an...
Einzig bedenken habe ich dann beim R7xx, was soll der dann werden, wenn schon RV670 als HD3800-Serie vermarktet wird. HD3900?
Oder weil dies ihm nicht wirklich gerecht wird, gleich HD4800-Series?
Naja, Namen sind Schall und Rauch, ob nun HD3800 oder "World best graphics-card", dass alles wird dann dem RV670 nicht helfen in der "Schlacht" und es kommt schliesslich wieder auf die Hardware an.
R700 wird das gleiche Tech-Level wie RV670 haben, also wäre HD3900 durchaus plausibel. Allerdings dürfte es sich hierbei doch um einen neuen Chip handeln, sodass HD4800 wohl wesentlich realistischer wäre. Das nährt übrigens auch wieder die Gerüchte um R680, da man jetzt auch marketingtechnisch wieder genug Luft nach oben hat. Aber natürlich hast du recht, dass Namen letztlich nur Schall und Rauch sind. Andererseits hat AMD wohl gute Gründe, das Ding so zu nennen.
Hvoralek
2007-10-17, 21:31:20
Es ist denkbar, dass ATI/Amd so auch bei GPU verfahren.
Dann hat man
1XXX als Low-End
2XXX Midrange
3XXX Perfromance
4XXX High-EndWas machst Du dann mit den bestehenden HD 2xxx- Karten?
http://www.gecube.com/products-02.php?prod_cat_pid=213&prod_cat_id=214
Ein Zipfel vom Schleier... :smile:
Kam aber schon oben zur Sprache:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5941584&postcount=892
Ailuros
2007-10-17, 22:46:05
Dir ist schon aufgefallen das selbst eine 8800GTX mit mehr gpu takt besser skalliert als mit mehr Speicherbandbreite ?
Seit dem 13.11.2006 ja. Aber wenn man ueber 1.1GHz mit dem Speicher steigt, skaliert die Bandbreite um einiges besser als bis zu diesem Punkt.
Bei einem rv670 mit 16 TMUs und 825mhz reichen 256bit@1200mhz locker. So hat er ja schon mehr als eine 8800GT die wiederum viel mehr rohleistung hat.
Die HD2900XT war dem 512bit SI einfach nicht gewachsen.
mfg martin
Bloedsinn. R6x0 kann seine volle Bandbreite nicht voll ausnutzen weil die ROPs k.o. sind. Waere dieses nicht der Fall und die Dinger waeren heil und koennten auch single cycle 4xMSAA vornehmen mit der gleichen Anzahl an Z-samples wie G80, wuerde R600 der vorigen den Hintern versohlen und dass mein Herr dann wegen dem breiteren Bus bzw. hoeherer Bandbreite (aber auch dann nur mit einem 1GB Framebuffer).
Ich war so "frech" und behauptete als erster hier zwischen den Zeilen dass auf R600 der 512bit bus hauptsaechlich "dekorativ" ist, aber auch nur weil mir einige kritische internas damals bewusst waren.
Man kann nie genug Bandbreite auf einer GPU haben; im Gegenteil sollte man dann aber auch die Anzahl der hardware bugs so niedrig wie moeglich halten.
J0ph33
2007-10-17, 23:11:22
oh mann, jetzt sind sie bei AMD vollkommen durchgedreht...aber rein namentechnisch sind die 6 Monate verspätung wieder ausgebügelt :uclap:
sklave_gottes
2007-10-18, 00:36:44
Seit dem 13.11.2006 ja. Aber wenn man ueber 1.1GHz mit dem Speicher steigt, skaliert die Bandbreite um einiges besser als bis zu diesem Punkt.
Das spricht gegen jegliche Physik. Um so mehr man zuviel hat umso weniger bringt das mehr. Ganz einfach.
Bloedsinn. R6x0 kann seine volle Bandbreite nicht voll ausnutzen weil die ROPs k.o. sind. Waere dieses nicht der Fall und die Dinger waeren heil und koennten auch single cycle 4xMSAA vornehmen mit der gleichen Anzahl an Z-samples wie G80, wuerde R600 der vorigen den Hintern versohlen und dass mein Herr dann wegen dem breiteren Bus bzw. hoeherer Bandbreite (aber auch dann nur mit einem 1GB Framebuffer).
Das kann und werde ich dir nicht glauben sorry. Erstmal abwarten wie sich der rv670 verhält.
Das ist auch nicht mehr als eine spec. deiner seits.
Ich war so "frech" und behauptete als erster hier zwischen den Zeilen dass auf R600 der 512bit bus hauptsaechlich "dekorativ" ist, aber auch nur weil mir einige kritische internas damals bewusst waren.
Wieso waren denn soviele entäuscht vom r600 ? Weil viele den umstand von 512bit überschätzen. Der r600 hatte 512bit eher aus Markiting gründe, leider.
Ich sehe das also ähnlich.
Man kann nie genug Bandbreite auf einer GPU haben; im Gegenteil sollte man dann aber auch die Anzahl der hardware bugs so niedrig wie moeglich halten.
Natürlich ist auch ein r600 oder g80 mit 512bit schneller als mit weniger. Das ist bei jedem Chip so. Nur sollte man immer den Kosten/Nutzen Faktor berücksichtigen. Denn wenn ein grosser Bus viele Kosten mit sich trägt, und nur ein Paar Prozent mehr leistung bringt hilft das weder der Firma noch dem Kunden. Der die Karte ja auch für einen vernünftiger Preis kaufen will.
Schade wie es aussieht brachte der 512bit wahn sogar nachteile für denRV670, denn der wird was den Speicherbus angeht ein grösserer Rückschritt als viele vermuten :
r600 512bit 8 fach unterteilter Ringbus
r580/520 256bit 8 fach unterteilter Ringbus
r420/480 256bit 4 fach unterteilter Crossbar
r350/360 256bit 4 fach unterteilter Crossbar
RV670 256bit 4 fach unterteilter Ringbus ??? <--- Das wäre ja ein grosser Rückschritt
Ich hoffe das der Ringbus wenigstens 8 fach unterteilt ist wie beim r520/r580 sowie RV570 was ich aber eher nicht glaube, leider
mfg martin
Ailuros
2007-10-18, 06:02:32
Das spricht gegen jegliche Physik. Um so mehr man zuviel hat umso weniger bringt das mehr. Ganz einfach.
Eben nicht im gegebenen Fall denn G80 hat Z-Fuellrate zum verplempern. Bis zu ~1.1GHz heisst 15% mehr Takt + Speicher irgendwo zwischen 11-15%, wobei die Relation stets in etwa 2:1 liegt wenn man nur den Takt im Vergleich zum Speicher anhebt. Bei >1.1GHz steigt der Leistungzuwachs durch den Speicher leicht an; aber auch nur stets in sehr hohen Aufloesungen mit 4xAA.
G80 haette locker 1.1GHz Speicher haben koennen als Beispiel; nur haette sich der Preis unnoetig erhoeht und man haette dann eben in =/>2048+4xAA ca. 6-8% mehr Leistung. Da man sich aber bewusst war dass AMD sowieso selbst mit der heutigen GTX nicht wirklich anlegen kann, hielt man den Speicher so moderat wie moeglich.
Das kann und werde ich dir nicht glauben sorry. Erstmal abwarten wie sich der rv670 verhält.
Das ist auch nicht mehr als eine spec. deiner seits.
Was soll RV670 noch grosses zeigen, wenn ich keine fundamentale Aenderungen erwarte was die ROPs betrifft? Mit einem 256bit Bus ist selbst bei 825MHz die Z-Fuellrate immer noch genug fuer die Bandbreite.
Wieso waren denn soviele entäuscht vom r600 ? Weil viele den umstand von 512bit überschätzen. Der r600 hatte 512bit eher aus Markiting gründe, leider.
Ich sehe das also ähnlich.
ATI war nicht so bloed und hat einen teuren Bus eingebaut um nur mit dem Mist werben zu koennen. Was schief gelaufen ist steht im vorigen Post.
Natürlich ist auch ein r600 oder g80 mit 512bit schneller als mit weniger. Das ist bei jedem Chip so. Nur sollte man immer den Kosten/Nutzen Faktor berücksichtigen. Denn wenn ein grosser Bus viele Kosten mit sich trägt, und nur ein Paar Prozent mehr leistung bringt hilft das weder der Firma noch dem Kunden. Der die Karte ja auch für einen vernünftiger Preis kaufen will.
Schlag auf Hardware.fr und dem ersten 2900XT review nochmal die gemessenen Z-Fuellraten zwischen R580/G80 und R600 nach und erzaehl mir dann genau was bei dem Bild und der Bandbreite einer jeweiligen GPU nicht genau stimmt.
Schade wie es aussieht brachte der 512bit wahn sogar nachteile für denRV670, denn der wird was den Speicherbus angeht ein grösserer Rückschritt als viele vermuten :
r600 512bit 8 fach unterteilter Ringbus
r580/520 256bit 8 fach unterteilter Ringbus
r420/480 256bit 4 fach unterteilter Crossbar
r350/360 256bit 4 fach unterteilter Crossbar
RV670 256bit 4 fach unterteilter Ringbus ??? <--- Das wäre ja ein grosser Rückschritt
Ich hoffe das der Ringbus wenigstens 8 fach unterteilt ist wie beim r520/r580 sowie RV570 was ich aber eher nicht glaube, leider
mfg martin
Das Ring-Dingsbums ist ohnehin schon ein Rueckschritt *hust*. Die Unterteilung ist eine nebensaechliche Feinheit die sich normalerweise leicht kontrollieren laesst; kein besonderes Problem IMHLO.
Was hat denn das Ring-Dingsbums seit seiner Vorstellung besonderes gebracht, wenn man bedenkt dass NV immer noch mit 6*64 bzw. G92/4*64 umgeht?
seahawk
2007-10-18, 06:50:21
Was soll RV670 noch grosses zeigen, wenn ich keine fundamentale Aenderungen erwarte was die ROPs betrifft? Mit einem 256bit Bus ist selbst bei 825MHz die Z-Fuellrate immer noch genug fuer die Bandbreite.?
Nur ohne fundamentale Änderungen an den ROPs bleiben die Nachteil gegeb NV8X/G9X erhalten, was wiederrum bedeutet, dass man vom RV670 eben kein überproportionalen Lesitungssteigerung erwarten kann.
Winter[Raven]
2007-10-18, 07:52:25
Nur ohne fundamentale Änderungen an den ROPs bleiben die Nachteil gegeb NV8X/G9X erhalten, was wiederrum bedeutet, dass man vom RV670 eben kein überproportionalen Lesitungssteigerung erwarten kann.
Also hast du deine Frage auch shcon selbst beantwortet ;).
seahawk
2007-10-18, 08:00:46
;5943499']Also hast du deine Frage auch shcon selbst beantwortet ;).
Frage ? Welche Frage ?
Winter[Raven]
2007-10-18, 08:06:35
Frage ? Welche Frage ?
Ups.... sorry.
Jedenfalls hast du gut zusammengefasst ^^.
Warum driftet das denn jetzt so ausneinander? Ich versteh das nicht. Erst ein geshrinkter Kern, der mit dem Namen der alten Generation verkauft wird, dann ein Shrink, der gleich eine ganz neue Generation zugeschrieben bekommt. Also irgendwie :usad:
seahawk
2007-10-18, 08:29:04
Marketing - mehr nicht.
Marketing - mehr nicht.
Ja, das Marketing bei den neuen ATis versteh ich ja - zuminest aus dieser beschränkten Sicht. Denn den Namen hat der RV670 sicherlicht nicht "verdient". Dahingegen hat der D8P nicht den Titel 8800GT "verdient". Und HD3870XT versteht sowieso kein Mensch mehr, wie kann man ein Namensschema bloß so elend ausschlachten? Das klingt doch einfach nur doof. Klar bietet es mehr Platz nach oben, es klingt einfach dumm.
Ja, das Marketing bei den neuen ATis versteh ich ja - zuminest aus dieser beschränkten Sicht. Denn den Namen hat der RV670 sicherlicht nicht "verdient". Dahingegen hat der D8P nicht den Titel 8800GT "verdient". Und HD3870XT versteht sowieso kein Mensch mehr, wie kann man ein Namensschema bloß so elend ausschlachten? Das klingt doch einfach nur doof. Klar bietet es mehr Platz nach oben, es klingt einfach dumm.
Die ganzen doofen Kürzel am Ende fallen weg, einfach HD3870. Und ob, bzw. inwieweit die Karte diese Bezeichnung verdient hat, sollte man doch erstmal abwarten.
reunion
Marketing - mehr nicht.
2xR600XT Leistung (als Dual-Karte), plus DX10.1, PCIe2.0, UVD, etc. - ich finde das rechtfertigt durchaus eine neue Serie. Zumindest würde HD2950 diesen Änderungen bei weitem nicht gerecht werden.
reunion
AnarchX
2007-10-18, 09:27:00
Wobei imo sinnvoller wäre:
R670/680 -> HD3800
RV670 -> HD3600
RV630 -> HD3400
RV610 -> HD3200
(überall noch Platz für R7xx-SKUs)
RV670 als HD3800 schon zu postieren ist schon etwas seltsam.
Wenn die RV670XT HD3870 ist, dann ist R670 nur HD3890?
Da würde der Sprung von XT auf X2X doch mehr aussagen, imo.
Wobei imo sinnvoller wäre:
R670/680 -> HD3800
RV670 -> HD3600
RV630 -> HD3400
RV610 -> HD3200
(überall noch Platz für R7xx-SKUs)
RV670 als HD3800 schon zu postieren ist schon etwas seltsam.
Wenn die RV670XT HD3870 ist, dann ist R670 nur HD3890?
Da würde der Sprung von XT auf X2X doch mehr aussagen, imo.
Da hast du sicher recht. Mal abwarten wie es dann letztendlich aussieht.
reunion
Wobei imo sinnvoller wäre:
R670/680 -> HD3800
RV670 -> HD3600
RV630 -> HD3400
RV610 -> HD3200
(überall noch Platz für R7xx-SKUs)
RV670 als HD3800 schon zu postieren ist schon etwas seltsam.
Wenn die RV670XT HD3870 ist, dann ist R670 nur HD3890?
Da würde der Sprung von XT auf X2X doch mehr aussagen, imo.
Sinn machen würde RV670 = HD3600 schon, aber dann wird jeder denken, dass es bis zum R670 als 3800 von AMD keine aktuelle und leistungsfähige Hardware gibt - nur eine neue 3xxx Mittelklasse-Serie und ansonsten veraltete 2xxx Karten.
reunion
2007-10-18, 19:31:14
Just for your information. The rest of the HD3K-series will be launched in Januari (eg RV620, RV635 and supposedly also R680 which is already supported in the drivers).
http://www.rage3d.com/board/showpost.php?p=1335187696&postcount=336
Adam D.
2007-10-18, 20:11:08
Ist also doch noch 'n Stück. Aber hauptsache sie kommen. Bin immer noch gespannt, ob wir wirklich 2xR600-Performance erwarten können. Ich trau der Sache nicht :uponder: Da müssen sich die RV670 erstmal beweisen ;)
Ailuros
2007-10-19, 07:34:35
Nur ohne fundamentale Änderungen an den ROPs bleiben die Nachteil gegeb NV8X/G9X erhalten, was wiederrum bedeutet, dass man vom RV670 eben kein überproportionalen Lesitungssteigerung erwarten kann.
Das dumme ist eben dass ROPs generell nicht besonders kompliziert sind zu entwickeln IMO; nur kann man leider nicht irgendwelche neu entwickeln und diese in eine fertige Architektur einfach reinstopfen.
AnarchX
2007-10-19, 08:18:23
HD 3870 :320sp、825/2400MHz(GDDR4)、512MB、256-bit
HD 3750 :320sp、750/1800MHz(GDDR3)、256/512MB、256-bit
HD 3730 :?sp、600/?MHz(GDDR3)、?MB、256-bit?
- HD 2950 XT → HD 3870
- HD 2950 Pro → HD 3750
- HD 2950 GT → HD 3730
- HD 2600 XT → HD 3570
- HD 2600 Pro → HD 3550
- HD 2400 XT → HD 3370
- HD 2400 Pro → HD 3350
http://nueda.main.jp/blog/archives/003014.html
Ailuros
2007-10-19, 08:33:46
Haarspalterei zum quote: 1.2GHz (2.4 GDDR4) ergo 76.8 GB/s
DrumDub
2007-10-19, 09:51:11
mhh... denmach war das 512-bit breite si einfach überflüssig für die schwachen rops. das hat ati aber wirklich ziemlich daneben gehauen mit dem r600.
mhh... denmach war das 512-bit breite si einfach überflüssig für die schwachen rops. das hat ati aber wirklich ziemlich daneben gehauen mit dem r600.
Man wusste ja vorher nicht, dass die ROPs kaputt sind.
reunion
mhh... denmach war das 512-bit breite si einfach überflüssig für die schwachen rops. das hat ati aber wirklich ziemlich daneben gehauen mit dem r600.
Abwarten. Solange niemand Bandbreitenskalierungstest mit AA durchführt, sollten wir vorsichtig sein und das 512bit Speicherinterface zum Teufel zu wünschen.
LovesuckZ
robbitop
2007-10-19, 10:17:41
So oder so ist die Z-Testrate ziemlich mau für ein 512 bit SI. Und natürlich die Füllrate. Für mich sieht es aus, als wäre den Leuten beim Designvorgang die Transistoren im Budget ausgegangen und man musste an einigen Stellen sparen. Soetwas deutete Eric indirekt mal an.
AnarchX
2007-10-19, 10:19:27
Man wusste ja vorher nicht, dass die ROPs kaputt sind.
Und wohl auch lange nicht, dass G80 kein Cine-FX-Chip ist, gegen welchen ein R600 mit minimal besser funktionierenden ROPs sicherlich nicht schlecht dagestanden hätte.
Und wohl auch lange nicht, dass G80 kein Cine-FX-Chip ist, gegen welchen ein R600 mit minimal besser funktionierenden ROPs sicherlich nicht schlecht dagestanden hätte.
Wären die ROPs nicht kaputt, dann würde R600 IMHO auch gegen G80 nicht so schlecht dastehen. Außerdem gäbe es dann wohl auch eine XTX mit >800Mhz und einem GB Framebuffer. So konnte man nur Schadensbegrenzung betreiben und den Preis sowie alles auf das man noch Einfluss hat (Frambuffer, Taktraten) entsprechend anpassend.
reunion
DrumDub
2007-10-19, 10:31:48
Man wusste ja vorher nicht, dass die ROPs kaputt sind.
reunion schon klar, aber es sind ja nicht nur die rops, sondern auch die anzahl der tmus, die einfach viel zu niedrig ist. der einzige vorteil der tmus des r600 ist die filterung von fp-texturen ohne loops, was aber bei heutigen spielen völlig irrelevant ist.
robbitop
2007-10-19, 10:38:18
G80 hat so viele TMUs, dass die loops kaum kosten.
DrumDub
2007-10-19, 10:57:18
G80 hat so viele TMUs, dass die loops kaum kosten. ich weiß, dann deshalb fällt der g80 bei der filterung von fp-texturen nicht hinter den r600 zurück.
deekey777
2007-10-19, 12:08:56
G80 hat so viele TMUs, dass die loops kaum kosten.
Trotzdem kann der R600 fp16-Zeug pro Takt bearbeiten.
Und jetzt die Frage: Was ist mit CFAA bzw. Shader-Resolve?
robbitop
2007-10-19, 12:14:21
FP16 Texturen sind eh nicht so wichtig.
Was soll mit CFAA sein? Shaderresolve passierte auf dem R600 offenbar nur aus einem Defekt heraus. (laut dem Statement von Rys)
AiL klingt auch nicht so, als wäre das im RV670 drastisch anders. Er sprach von einer Optimierung des Shaderresolves.
deekey777
2007-10-19, 12:20:57
FP16 Texturen sind eh nicht so wichtig.
Was soll mit CFAA sein? Shaderresolve passierte auf dem R600 offenbar nur aus einem Defekt heraus. (laut dem Statement von Rys)
AiL klingt auch nicht so, als wäre das im RV670 drastisch anders. Er sprach von einer Optimierung des Shaderresolves.
Erinnerst du dich an die Antwort auf deine Frage von nAo im sireric-Thread?
robbitop
2007-10-19, 12:26:17
Nein. Ich traue Rys aber mehr als anderen. (Wissen, Quellen, Unabhängigkeit)
AnarchX
2007-10-19, 14:24:04
http://img178.imageshack.us/img178/1473/rv620dpie0.jpg
http://img178.imageshack.us/img178/1415/rv620id1.jpg
http://news.expreview.com/2007-10-19/1192786125d6080.html
Jake Dunn
2007-10-19, 14:31:47
ATI hat noch ordentlich was vor :eek::eek::eek:
http://www.pcgameshardware.de/?article_id=617895
Zitat:
Besonders interessant: es wird auch ein R750 erwähnt und laut den dort gefundenen Angaben dürfte AMD Multi-GPU-Technik verstärkt einsetzen. Im Folgenden die im Forum genannte Auflistung:
- R750XT: 8 Kerne, 64 ROPs 256 Unified Shader, 1024 Bit, 20 MiB eRAM, GDDR5 0.5ns 1GB/2GB
- R750GT:6 Kerne, 48 ROPs 192 Unified Shader, 768 Bit, 20 MiB eRAM, GDDR5 0.5ns 768 MiB / 1,5 GiB
- R700XT: 4 Kerne,32 ROPs 128 Inified Shader, 512 Bit,10 MiB eRAM, GDDR4 0.7ns 512 MiB / 1 GiB
- R700GT:2 Kerne, 16 ROPs, 64Unified Shader, 256 Bit,10 MiB eRAM, GDDR4 0.7ns 256 MiB / 512 MiB
- R700LE:1 Kern, 8 ROPs 32 Unified Shader, 128 Bit , GDDR3 1.2ns 256 MiB / 512 MiB
AnarchX
2007-10-19, 14:34:11
8 Kerne(Chips?) und eDRAM, PCGH schreibt auch jeden Mist ab... X-D
Das ist übrigens der Thread:
http://www.chiphell.com/viewthread.php?tid=10869&extra=page%3D1
... und eher etwas in Richtung "Wie stellt ihr euch den R700 vor...".
Ich bin mittlerweile allergisch gegen jegliche GPU-Specs im Customer-Bereich, in denen eDRAM vorkommt. Es wird nicht passieren, auch wenn es noch immer welche gibt, da darin ein Allheilmittel sehen.
Zu RV620: Wie erwartet eine nette GPU für den Officegebrauch, mit aktuellsten Features und vermutlich sehr niedrigem Stromverbrauch und Kosten.
reunion
Jake Dunn
2007-10-19, 14:42:01
8 Kerne(Chips?) und eDRAM, PCGH schreibt auch jeden Mist ab... X-D
Das ist übrigens der Thread:
http://www.chiphell.com/viewthread.php?tid=10869&extra=page%3D1
... und eher etwas in Richtung "Wie stellt ihr euch den R700 vor...".
Ja, ist schon sehr übertrieben :wink:
Aber der R700 mit 32 ROPs, 128 Unified Shadern, 512 Bit Speicherbus und ein bis zwei GiByte GDDR4-Speicher ist schon interessant.:D
AnarchX
2007-10-19, 14:45:19
Aber der R700 mit 32 ROPs, 128 Unified Shadern, 512 Bit Speicherbus und ein bis zwei GiByte GDDR4-Speicher ist schon interessant.:D
Das bietet doch schon der R670.;)
deekey777
2007-10-19, 14:48:41
Nein. Ich traue Rys aber mehr als anderen. (Wissen, Quellen, Unabhängigkeit)
http://forum.beyond3d.com/showpost.php?p=1020463&postcount=99
AA resolve shoud be very fast on R600 given its 512 bits bus and its 64 processors.
At the same time I wonder how subsamples are fetched/decompressed and passed to the shaders core, if your AA resolve shader is just using TMUs to fetch those data I can see why it could be held back by the ALUs/TMUs ratio (in AA resolve shader you need a ALUs/TMUs ratio close to 1)
Oder bin ich im falschen Film? Wenn Shader-Resolve auf einem FP16-Target geschieht und dabei die TMUs involviert sind, bringt es doch, wenn diese bei fp16-Zeug nur einen Takt brauchen?
AnarchX
2007-10-19, 14:59:56
http://img524.imageshack.us/img524/9291/02r680yd4.jpg
Etwas veraltet, wohl das worauf die erste News bei VR-Zone basierte.
http://img524.imageshack.us/img524/8048/04r680na7.jpg
Beweist aber einmal mehr die Existenz des R680.
reunion
Cpl. Dwayne Hicks
2007-10-19, 16:25:00
FP16 Texturen sind eh nicht so wichtig.
Was soll mit CFAA sein? Shaderresolve passierte auf dem R600 offenbar nur aus einem Defekt heraus. (laut dem Statement von Rys)
AiL klingt auch nicht so, als wäre das im RV670 drastisch anders. Er sprach von einer Optimierung des Shaderresolves.
Hi!
Warum sind FP16 texturen nicht so wichtig? :)
Und was genau ist eigentlich an den R600 Rops "kaputt"?
Beweist aber einmal mehr die Existenz des R680.
reunion
Vor allem beweist es, dass der RV670 nicht mehr dieses Jahr erscheint.
reunion
2007-10-19, 16:39:34
Vor allem beweist es, dass der RV670 nicht mehr dieses Jahr erscheint.
Nein. Die Roadmap ist alt, RV670 wurde längst vorverlegt. Wurde erst kürzlich bei der Verkündung der Quartalszahlen bestätigt. Man hat wohl selbst nicht mit einem so problemlosen 55nm Prozess gerechnet.
aehmkei
2007-10-19, 17:09:03
Richtig, der Chip soll überraschenderweise mit dem ersten Silikon gleich fehlerfrei funktioniert haben, was wiederum auch ein par Wochen eingespart hat...
ChristianTHB
2007-10-19, 23:14:31
Man hat wohl selbst nicht mit einem so problemlosen 55nm Prozess gerechnet.
Ev ein mögliches Indiz für ev gute oc Eigenschaften? :)
Ailuros
2007-10-20, 05:30:02
http://forum.beyond3d.com/showpost.php?p=1020463&postcount=99
Oder bin ich im falschen Film? Wenn Shader-Resolve auf einem FP16-Target geschieht und dabei die TMUs involviert sind, bringt es doch, wenn diese bei fp16-Zeug nur einen Takt brauchen?
Hat Eric nao's Frage offiziell beantwortet?
Ailuros
2007-10-20, 05:34:02
So oder so ist die Z-Testrate ziemlich mau für ein 512 bit SI. Und natürlich die Füllrate. Für mich sieht es aus, als wäre den Leuten beim Designvorgang die Transistoren im Budget ausgegangen und man musste an einigen Stellen sparen. Soetwas deutete Eric indirekt mal an.
Ich weiss zwar nicht was genau los ist mit den Dingern, aber es wuerde mich nicht wundern wenn sie die Dinger kastrieren mussten damit sie ueberhaupt laufen.
Ailuros
2007-10-20, 05:35:21
Ich bin mittlerweile allergisch gegen jegliche GPU-Specs im Customer-Bereich, in denen eDRAM vorkommt. Es wird nicht passieren, auch wenn es noch immer welche gibt, da darin ein Allheilmittel sehen.
reunion
Ein bisschen Unterhaltung schadet nie LOL :D
AnarchX
2007-10-20, 08:14:24
RV670 Gladiator bzw. HD3870:
http://img150.imageshack.us/img150/5408/cardao2.th.jpg (http://img150.imageshack.us/my.php?image=cardao2.jpg)
Adam D.
2007-10-20, 10:38:34
Die Sache mit dem Dual-Slot-Lüfter ist schon ein netter Vorteil. Da sieht man schon, dass der RV670 anders positioniert werden will :uponder:
Die Sache mit dem Dual-Slot-Lüfter ist schon ein netter Vorteil. Da sieht man schon, dass der RV670 anders positioniert werden will :uponder:
Bei einem TDP von bis zu 135W bei der stärksten Variante macht auch nur ein
Dual-Slot-Lüfter Sinn. Hoffentlich ist das Ding auch leise und hat eine vernünftige Lüftersteuerung. ATI hat da in der Vergangenheit immer mal wieder ins Fettnäpfchen getretten.
Adam D.
2007-10-20, 10:53:36
Bei einem TDP von bis zu 135W bei der stärksten Variante macht auch nur ein
Dual-Slot-Lüfter Sinn. Hoffentlich ist das Ding auch leise und hat eine vernünftige Lüftersteuerung. ATI hat da in der Vergangenheit immer mal wieder ins Fettnäpfchen getretten.
Jo, kein Einwand. Aber Nvidia scheint bei seinem 110W-G92GT auf Single-Slot zu setzen. IMO ein Schwachpunkt, den ATi mit einer leisen und effektiven Kühlung direkt angreifen kann.
horn 12
2007-10-20, 11:02:25
Hoffen wir mal dass der Lüfter LEISE ist, obwohl mir dies nicht so scheint.
Sieht nicht ganz danach aus, aber der Schein kann trügen.
Die Performance wird in etwa gleich/ bissi höher als R600 mit AA liegen, und der Stomverbrauch weitaus geringer, aber das war es dann schon, denn was ich sagen möch
Besitzer einer 2900 PRO/ XT sollten da wohl nicht zugreifen, da ist es eindeutig besser auf den R700 zu warten welcher ALLE Kinderkrankheiten des R600 ausgeräumt haben soll, vor allem DIE mit den nur 16 ROP´s.
Ansonsten sehr gute Karte, für jene die warten KONNTEN!
Ich bleibe meiner HD 2900XT sicherlich treu.
Winter[Raven]
2007-10-20, 11:06:11
Jo, kein Einwand. Aber Nvidia scheint bei seinem 110W-G92GT auf Single-Slot zu setzen. IMO ein Schwachpunkt, den ATi mit einer leisen und effektiven Kühlung direkt angreifen kann.
Hast du die beiden Karten? Du weißt weder wie laut die neue Radeon wird noch wie laut die neue Geforce ausfallen wird... nur weil es ein Dualslot ist, heißt es nicht es wäre leise... ich sag nur X800, X850, 1950 and on and on...
Adam D.
2007-10-20, 11:15:14
;5950136']Hast du die beiden Karten? Du weißt weder wie laut die neue Radeon wird noch wie laut die neue Geforce ausfallen wird... nur weil es ein Dualslot ist, heißt es nicht es wäre leise... ich sag nur X800, X850, 1950 and on and on...
Wir hatten Werte von 34dB bei der 8800GT - das ging schon mal leiser. Ich weiß ebenso, dass ATi mit ihrer Stock-Kühlung noch nie wirklich der große Wurf gelungen ist, aber ein 55nm-RV670 mit 135W TDP dürfte mit einer Dual-Slot-Kühlung relativ ruhig gekühlt werden. Dazu bietet er die Möglichkeit zu höherem Übertakten. Aber naja, muss sich alles erst noch rausstellen.
Logan
2007-10-20, 11:25:17
So habe da nochmal eine frage, wollte ja demnächst aufrüsten und hatte mir überlegt mir eine 8800 gts 640 zukaufen, aber wenn ich nun sehen das demnächst schon wieder eine neue generation sowohl von amd als von nvidia vor der tür steht , wollte ich wissen ob es sich lohnt noch zu warten. Also mehr als 300 € (höchstens 350€ ) wollte ich nicht ausgeben. Welche karten wären da interessant für mich ? Oder lohnt es sich nicht zu warten, und ich sollte zur gts greifen ?
Winter[Raven]
2007-10-20, 11:33:03
Wir hatten Werte von 34dB bei der 8800GT
Die Angabe bezog sich denke ich mal auf die maximale Leistung... ich glaube kaum Nvidia geht einen Schritt zurück ;)
Adam D.
2007-10-20, 11:33:47
8800GT: Release 29. Oktober, laut aktuellen Informationen leistungstechnisch zwischen GTS und GTX. Kostenfaktor: ~230€. Single-Slot-Kühlung, 110W TDP.
HD3850/3870: Release 15. November, der Name impliziert, dass man wohl mit min. R600-Performance rechnen kann, eher mehr. Gladiator mit 135W TDP, Dual-Slot-Kühlung und D3D10.1-Support. Kostenfaktor: 200-300€. Wirkliche Perfoirmance-Ergebnisse gibt's bis jetzt nicht zu sehen.
Aber sich jetzt eine GTS zu kaufen, halte ich für total unsinnig.
Die Angabe bezog sich denke ich mal auf die maximale Leistung... ich glaube kaum Nvidia geht einen Schritt zurück ;)
Du, weiß man's? Kann doch sein, dass Nvidia auf Teufel komm raus 'nen Single-Slot wollte. 3 Heatpipes sind auch net wenig. Mit der 7900GT ging man ja auch 'nen Schritt zurück ;) Aber jo, inzwischen sollte das eigentlich nicht mehr passieren.
Bei einem TDP von bis zu 135W bei der stärksten Variante macht auch nur ein
Dual-Slot-Lüfter Sinn. Hoffentlich ist das Ding auch leise und hat eine vernünftige Lüftersteuerung. ATI hat da in der Vergangenheit immer mal wieder ins Fettnäpfchen getretten.
Der Lüfter sieht dem der X1950 XTX recht ähnlich - auch deren TDP war in derselben Region. Lautstärke könnte man sich ja nun denken...
Oder eben schönreden.
deekey777
2007-10-20, 12:10:50
;5950136']Hast du die beiden Karten? Du weißt weder wie laut die neue Radeon wird noch wie laut die neue Geforce ausfallen wird... nur weil es ein Dualslot ist, heißt es nicht es wäre leise... ich sag nur X800, X850, 1950 and on and on...
Die X800 war nie eine Dual-Slot-Grafikkarte, sondern Single-Slot und dazu sehr leise. Die X1950XTX war relativ leise.
dargo
2007-10-20, 12:12:10
RV670 Gladiator bzw. HD3870:
http://img150.imageshack.us/img150/5408/cardao2.th.jpg (http://img150.imageshack.us/my.php?image=cardao2.jpg)
Oh man, schon wieder dieser R600-Krachmacher drauf? Lernen die nie aus Fehlern? :|
reunion
2007-10-20, 12:15:32
Oh man, schon wieder dieser R600-Krachmacher drauf? Lernen die nie aus Fehlern? :|
Dein Gedächtnis trügt dich junger Padawan. Ein R600 hatte einen völlig anderen Lüfter:
http://img144.imageshack.us/img144/8444/introb40b4fra8.jpg (http://imageshack.us)
Der Lüfter sieht dem der X1950 XTX recht ähnlich - auch deren TDP war in derselben Region. Lautstärke könnte man sich ja nun denken...
Oder eben schönreden.
Eine X1950XTX verbraucht unter realen Bedingungen >120W, xbitlabs misste ~125W. Deren TDP liegt mit Sicherheit höher als die 135W des RV670 Gladiator.
deekey777
2007-10-20, 12:18:43
Oh man, schon wieder dieser R600-Krachmacher drauf? Lernen die nie aus Fehlern? :|
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1950_xtx_x1950_crossfire/
MartinRiggs
2007-10-20, 12:35:28
naja, mein Kumpel hat die x1950xtx, die dreht unter last schon häufiger hoch und das geht einem voll auf den sack.
Aber mir sind die kühllösungen eh egal, ich bau eigentlich jede graka um:biggrin:
Eine X1950XTX verbraucht unter realen Bedingungen >120W, xbitlabs misste ~125W. Deren TDP liegt mit Sicherheit höher als die 135W des RV670 Gladiator.
Korrektur: Laut deiner - bislang nicht durch Nachweise gestützten - Meinung. Auf keinen Fall bietet das irgendeine "Sicherheit", wie du versuchts zu implizieren. :)
Die X1950XTX war relativ leise.
Relativ zu was? FX5800U? X1900XTX? HD2900 XT?
Nein, dekey777 - mit >3 Sone war sie definitiv nicht "leise".
laser114
2007-10-20, 12:40:33
Korrektur: Laut deiner - bislang nicht durch Nachweise gestützten - Meinung. Auf keinen Fall bietet das irgendeine "Sicherheit", wie du versuchts zu implizieren. :)
Wie wärs wenn du eine Quelle bringst, anstatt eben so aus der Luft die Aussage anzugreifen?
Laut CB (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/25) verbraucht das Testsystem mit einer X1950 XTX statt einer 2400 XT 111 Watt mehr. Auch wenn davon sicherlich Kleinigkeiten aufs Netzteil gehen, so braucht die 2400 XT auch etwas Strom und die TDP dürfte auch noch mal etwas höher liegen, schließlich braucht es da auch Sicherheiten.
Wie wärs wenn du eine Quelle bringst, anstatt eben so aus der Luft die Aussage anzugreifen?
Warum? Ich habe eine grobe Schätzung abgegeben ("TDP war in derselben Region") - die konkrete Behauptung hat reunion aufgestellt - ohne Nachweis.
Lediglich, dass die gemessenen Werte für die X1950 XTX unterhalb von 135 Watt liegen. Die TDP kann maximal - als Nachweis führe ich den PCIe-6-Pin-Anschluss und die PCI-Express-Spezifikation an - bei 150 Watt liegen, könnte aber eben auch bei 124,7 Watt +x mit x<25,3 Watt sein.
Das weiß niemand außer AMD genau und von daher würde ich gern bei Behauptungen "mit Sicherheit" auch etwas anderes als eine Annahme für die Sicherheit sehen. ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.