Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV660, RV635, RV620 - Teil 3 (s. #1!)
laser114
2008-01-24, 22:28:49
Halt typisches China-Markt-Produkt. ;)
AnarchX
2008-01-24, 22:40:37
Für 90€ wäre sie auch ziemlich interessant für uns, da die Leistung doch ziemlich überzeugend scheint:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F265%2F265454.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8
Aber warum nicht: billiges 128Bit-PCB und ein <200mm² Die.
LovesuckZ
2008-01-24, 22:54:24
Oh, die 8600GTS kann in einigen Test sehr gut mit den beiden AMD Karten mithalten...
StefanV
2008-01-25, 03:53:48
Oh, die 8600GTS kann in einigen Test sehr gut mit den beiden AMD Karten mithalten...
nur ist die 8600GTS absolut NICHT kaufbar, da es fürs gleiche Geld schon HD3850er gibt bzw für einen geringen Aufpreis a la FX5700 ULTRA und FX5900XT, damals...
Oh, die 8600GTS kann in einigen Test sehr gut mit den beiden AMD Karten mithalten...
In anderen liegt sie Welten zurück.
GeneralHanno
2008-01-25, 17:23:33
Radeon HD 3650 has 378 million transistors
Radeon HD 3450 has 181 million transistors
quelle: fudzi
laser114
2008-01-25, 17:57:23
Quelle: AMD ;)
http://ati.amd.com/products/radeonhd3400/specs.html
http://ati.amd.com/products/radeonhd3600/specs.html
AnarchX
2008-01-26, 10:28:17
3870X2 @ PCpop (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F266%2F266637.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8)
...vs. 3870 CF/ Single und Ultra.
StevenB
2008-01-26, 11:04:38
Sieht ganz nach einem kleine Leak aus:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pczilla.net%2Fpost%2F89.html&langpair=zh%7Cen&hl=de&ie=UTF-8
Sehe ich das richtig? Das Boards die PCIe 2.0 haben, dort die Karten schneller laufen? Wenn ja wie erkenne ich welches Board PCIe 2.0 hat? Die Aktuelle Intel reihe? (ala P35? )
nein nur X38 hat PCIe 2.0
Ferengie
2008-01-26, 11:33:38
Für 2 Chips not bad:
http://img5.pcpop.com/ProductImages/Original/0/551/000551310.jpg
laser114
2008-01-26, 11:43:19
Für mich die interessanteste Info aus dem Test (die Benchmarks entsprechend in etwa dem erwarteten - abgesehen von Crysis, wo CF kaum skaliert) - und in der Tat nicht schlecht, ja.
reunion
2008-01-27, 10:52:27
Auch interessant das nur die zweite GPU eine Kupferblock bekommt. So löst man also das Problem mit der warmen Luft: http://www.pcpop.com/doc/0/266/266637_6.shtml
Mal wieder ein Test des AMD 780D Chipsatzes:
http://translate.google.com/translate?u=http%3A%2F%2Fdiy.yesky.com%2Fmainboard%2F135%2F7784135.shtml&langpair=zh%7Cen&hl=pt-PT&ie=UTF-8
Summary: schneller als eine 8400GS, etwas langsamer als eine HD2400Pro.
Leider keine USB Tests.
krassse sache, die haben da echt nen kompletten "rv610" verbaut
sogar mit eigenen vram, wenn natürlich sehr knapp bemessen und bei einem speicherchip auch knappe bandbreite
aber immerhin besser als gar nichts
leaked driver of 23jan
http://files.filefront.com/Sample+R680+xp+vista+8+45aexe/;9552005;/fileinfo.html
Draecus
2008-02-11, 12:51:09
Mal wieder ein Test des AMD 780D Chipsatzes:
http://translate.google.com/translate?u=http%3A%2F%2Fdiy.yesky.com%2Fmainboard%2F135%2F7784135.shtml&langpair=zh%7Cen&hl=pt-PT&ie=UTF-8
Summary: schneller als eine 8400GS, etwas langsamer als eine HD2400Pro.
Leider keine USB Tests.
Hallo, ich versteh das nicht ganz.
Was ist hier schneller als eine 8400GS und langsamer als eine HD2400Pro :uconf:
Meinst du den Onboard Grafikchipsatz ?
puntarenas
2008-02-11, 12:55:39
Herzlich Willkommen im Forum, Draecus! :)
Meinst du den Onboard Grafikchipsatz ?
Richtig, den meint er. Der Kontext läßt auch keinen anderen Schluß zu, du kannst deiner Einschätzung vertrauen ;)
Hallo, ich versteh das nicht ganz.
Was ist hier schneller als eine 8400GS und langsamer als eine HD2400Pro :uconf:
Meinst du den Onboard Grafikchipsatz ?
Was hätte ich eigentlich sonst meinen können? Für mich war der Satz leicht verständlich.
Es kommt übrigens noch besser!
der AMD 780G Chipsatz hat in diesem Test anscheinend nicht nur die neue beschnittene 8400GS geschlagen sondern die alte wesentlich bessere 8400GS. WOW!!
Das kann man IMHO hier bei den 3DMarks sehr schön sehen:
http://209.85.135.104/translate_c?hl=pt-PT&langpair=zh%7Cen&u=http://diy.yesky.com/mainboard/135/7784135_13.shtml ( Vergleich von 2400Pro, 780G und 8400GS @ 1280 x 800 )
+
http://en.expreview.com/?p=77&page=13 ( Vergleich der alten 8400GS mit der neuen 8400GS @ 1280 x 1024)
Bei 1280 x 800 entsprechen die 3DMarks im ersten Link nahezu den 3DMarks @ 1280 x 1024 der alten 8400GS aus dem 2. Link. Der Vergleich ist zwar aufgrund der nicht ganz gleichen Auflösung nicht 100%ig sollte aber schon so stimmen.
Ganz schön kess für einen embedded Grafik-Controller. :)
Manfred
laser114
2008-02-11, 14:32:27
Einen wesentlichen Anteil sollte der Extra-RAM haben, dass ist ja praktisch eine dezidierte Karte direkt auf dem Mainboard.
laser114
2008-02-12, 20:17:16
http://www.madboxpc.com/foro/index.php?showtopic=70763
Cat 8.2 Inf-Datei mit folgenden bisher nicht bezeichneten Einträgen:
ATI Mobility Radeon HD 3430
ATI Radeon 3100 Graphics (RS780)
ATI Radeon E2400 (?)
ATI Radeon HD 3200 Graphics (RS780)
ATI Radeon HD 3300 Graphics (RS780)
ATI Radeon HD 3430 (noch tiefer gehts nimmer?)
Gemini ATI Mobility Radeon HD 2600 XT (:|)
Und wo bleibt RV670 mobil?
GeneralHanno
2008-02-12, 20:26:14
eventuell wartet ATi noch auf das A12 silizium ...
Tarkin
2008-02-15, 10:07:29
http://www.vr-zone.com/articles/ASUS_EAH3650_TOP_Review/5548-8.html
Review der ASUS EAH3650 TOP
"After some adjustments, we were able to get the card up to 972MHz / 1071MHz (GPU/ Mem) just with the stock cooler. That's approximately 172MHz up from the already overclocked GPU and memory!"
http://geizhals.at/eu/a309258.html
Exzellentes P/L Verhältnis!
GeneralHanno
2008-02-27, 10:57:30
*push up*
ist eigentlich IRGEND etwas zum thema rev. A12 mitlerweile bekannt?
AnarchX
2008-02-27, 11:01:11
Entweder sie kommt am Ende des Quartals mit der Mobility 3870:
http://i.i.com.com/cnwk.1d/i/bto/20080213/amd-q208-roadmap-small.jpg
... oder man hat sie sich gespart, da RV7xx eh bald ansteht.
da RV7xx eh bald ansteht.
Wer behauptet das eigentlich? Und was ist "bald"?
GeneralHanno
2008-02-27, 11:02:51
das waren auch meine gedanken zu dem thema ;)
aber was davon eher eintritt ist nicht näher bekannt - schade ;)
mit etwas glück schon Q2 !
AnarchX
2008-02-27, 11:04:56
Wer behauptet das eigentlich? Und was ist "bald"?
Nunja, Treiber werden offensichtlich schon für das gesamte RV7xx Line-Up programmiert:
http://www.phoronix.com/scan.php?page=news_item&px=NjMzNQ
Wenn alles glatt läuft, dürfte wohl Q2 noch möglich sein. Die High-SKU auf Dual-GPU-Basis wohl eher erst Q3.
GeneralHanno
2008-02-27, 11:08:34
exakt. also performence später Q2 und der rest Q3 (mainstream + dual)
mehr steht im R700 thread drin, wenns dich interessiert ;)
Um Treiber zu programmieren braucht man nicht einmal lauffähige Chips, das ist also kein Hinweis auf das Erscheinungsdatum eines Chips. Wann gab es nochmal die ersten R600 Treiber? Frühjahr 2006?
w0mbat
2008-02-27, 12:09:47
Sapphire bekommt angeblich ein paar Rev. A12 kA ob da was dran ist.
deekey777
2008-02-27, 14:19:01
Sapphire scheint die Standard-3870 mit ihrer eigenen Version mit dem 7900GTX-like Kühler zu ersetzen.
w0mbat
2008-02-27, 14:20:35
Naja, die neue Rev. der X2 kommt ja bald, dann werden wir sehen ob oder wie weit die A12er schon sind.
GeneralHanno
2008-02-27, 14:25:24
neue revision = PCIe2 brücken chip ?
w0mbat
2008-02-27, 14:31:41
+ vielleicht A12 = niedrigeres TDP oder höhere Taktraten + vielleicht GDDR4 als Standard + vielleicht andere Anordnung GPUs<>PLX = kürzeres PCB + ...
AnarchX
2008-02-27, 14:32:56
Also eine HD3890X2, um der 9800GX2 wenigstens etwas entgegen zu setzen? :D
w0mbat
2008-02-27, 14:33:35
Hm, möglich aber ehrlich gesagt kA :D
Ob HD3870X2 Rev2, HD3890X2 oder HD3970X2 ist doch eh egal.
GeneralHanno
2008-02-28, 13:41:08
A12 lebt:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5957&Itemid=1
Und soll in Q2 kommen, mit neuem PLX in PCIe 2.0:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5980&Itemid=1
...sowie ab der Cebit mit DDR4 :
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5979&Itemid=1
w0mbat
2008-03-04, 14:33:56
Cebit 2008: Radeon HD3870 X2 mit GDDR4-Speicher und kurzem PCB (http://www.pcgameshardware.de/aid,634668/News/Cebit_2008_Radeon_HD3870_X2_mit_GDDR4-Speicher_und_kurzem_PCB/)
:D
AnarchX
2008-03-04, 14:39:45
Aber kein PCIe2.0. ;)
w0mbat
2008-03-04, 14:40:40
Wo kann man das denn sehen? Und wenn nicht wirds bestimmt noch kommen :)
AnarchX
2008-03-04, 14:43:17
Wo kann man das denn sehen? Und wenn nicht wids bestimmt noch kommen :)
Switch ist immernoch ein PEX8547.
deekey777
2008-03-04, 15:45:09
Cebit 2008: Radeon HD3870 X2 mit GDDR4-Speicher und kurzem PCB (http://www.pcgameshardware.de/aid,634668/News/Cebit_2008_Radeon_HD3870_X2_mit_GDDR4-Speicher_und_kurzem_PCB/)
:D
Ist das nicht das PCB einer GeCube? Mit GDDR4 wohl gemerkt.
GeneralHanno
2008-03-04, 16:43:41
vll kommt PCIe2 ja auch erst mit dem R700 (2x RV770)
;)
A12 kommt im April:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6015&Itemid=1
es wird 5 R(V)7xx chip geben:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6017&Itemid=1
AnarchX
2008-03-05, 15:39:31
Dementi zum A12-Stepping (http://www.ht4u.net/news/1460_cebit_amd_dementiert_spekulationen_ueber_schnellere_radeon_hd_3870_version)
Dementi zum A12-Stepping (http://www.ht4u.net/news/1460_cebit_amd_dementiert_spekulationen_ueber_schnellere_radeon_hd_3870_version)
Macht auch wenig Sinn wenn noch im Q2 RV770 kommt.
AnarchX
2008-03-05, 15:53:15
Macht auch wenig Sinn wenn noch im Q2 RV770 kommt.
In der Tat, fragt sich nur wo dann die Mobility 3870 bleibt? Oder wurde diese gecancelt und setzt dann auf den RV740 mit besserer Pro-Watt-Leistung?
GeneralHanno
2008-03-05, 15:57:56
wenn ich das richtig lese, wurde nur ein A12 mit höheren taktraten dementiert, oder ;)
w0mbat
2008-03-05, 15:58:25
Also es gab AMD-Intern gerede über eine angebliche Rev A12, das ist sicher und war bestimmt auch keine absichtliche Täuschung. Könnte aber wegen des schnell fortschreitenden RV770 auf Eis gelegt worden sein.
Das kommt aus verschiedenen Quellen. Und Gerüchte über die A12er gab es schon vor dem HD3800-Launch.
Macht auch wenig Sinn wenn noch im Q2 RV770 kommt.
Q3 ist da wahrscheinlicher als Q2.
AnarchX
2008-03-12, 10:52:16
AMD prepares 3850X2 for Computex 2008 (http://my.ocworkbench.com/bbs/showthread.php?p=428371#post428371)
:|
Wer braucht den noch soetwas im Juni?
Wohlmöglich 2x256MB?
GeneralHanno
2008-03-12, 11:11:08
hast du dich schonmal gefragt, warum media markt PCs mit 2 8600GS im SLI verkauft ;)
AnarchX
2008-03-12, 11:18:17
hast du dich schonmal gefragt, warum media markt PCs mit 2 8600GS im SLI verkauft ;)
Naja, eher vergleichbar wäre, wenn NV eine 9600GX2 vorstellen würde.
SLI ist nunmal eine Option bei (fast) allen PCIe-GeForce, aber hier wird ja der Kunde bzw. OEM dazu gezwungen.
Und eine 3850X2 mit wohl nur 2x256MiB kann man wohl im MM auch nicht verkaufen, da der Kunde dann sich doch eher für das 86GS SLI mit 2x1GiB interessiert...;D
GeneralHanno
2008-03-12, 11:30:54
vll sucht ati einen lückenfüller für den preisbereich von 250€ ...
3870 - 160€
3870X2 - 340€
aber zur computex ne x2,wenn gleich danach der rv770 in genau den gleichen preisbereich verstößt,halte ich für sehr unwahrscheinlich
dildo4u
2008-03-13, 22:02:46
Kein Plan ob das hier passt welche Grafikkartengeneration nutzt die Puma Plattform R7XX oder ist das noch ein R6XX Chipsatz?
Video
World Exclusive* unreleased AMD Puma-based MSI notebook -v- Intel Penryn G35 - AMD Puma 3x quicker than Intel integrated?
http://www.hexus.tv/show/2008/03/EXCLUSIVE_CONTENT_AMD_Puma_3x_quicker_than_Intel_integrated/
w0mbat
2008-03-13, 22:06:03
Puma = 780G + Griffin (?)
Psychopat
2008-03-14, 00:48:40
Eine 3850 X2 wäre doch ein schöner Weg die ganzen restlichen R670 zu verkaufen, wenn der RV770 da ist. Nachdem sie jetzt soviel Arbeit in den Crossfiretreiber stecken, kann man sicher mit ner billigen X2 um 260-280 Euro mehr Geld machen als mit einzelnen langsamen 3850ern. Balkenlänge ist halt toll...
sklave_gottes
2008-03-14, 21:22:49
Eine 3850 X2 wäre doch ein schöner Weg die ganzen restlichen R670 zu verkaufen, wenn der RV770 da ist. Nachdem sie jetzt soviel Arbeit in den Crossfiretreiber stecken, kann man sicher mit ner billigen X2 um 260-280 Euro mehr Geld machen als mit einzelnen langsamen 3850ern. Balkenlänge ist halt toll...
Ich glaube nicht das sie die HD38.. reihe so schnell einstellen werden. Dafür gibt es keinen grund. 55nm und 10.1 sind halt dinge die auch nach und wärend rv770 noch voll auf der höhe der zeit sind.
Nakai
2008-03-14, 21:25:02
Kein Plan ob das hier passt welche Grafikkartengeneration nutzt die Puma Plattform R7XX oder ist das noch ein R6XX Chipsatz?
Video
World Exclusive* unreleased AMD Puma-based MSI notebook -v- Intel Penryn G35 - AMD Puma 3x quicker than Intel integrated?
Nett^^...:D
mfg Nakai
55nm und 10.1 sind halt dinge die auch nach und wärend rv770 noch voll auf der höhe der zeit sind.
Sehe ich auch so, da kann ATI ruhig abwarten dis die Konkurenz ausgeschlafen hat ;)
sklave_gottes
2008-03-14, 22:23:02
Sehe ich auch so, da kann ATI ruhig abwarten dis die Konkurenz ausgeschlafen hat ;)
Dann sag mir mal einen grund wieso man rv670 einstellen sollte ?
LovesuckZ
2008-03-15, 16:14:39
Warten wir ab, was in Zukunft passiert.
Ich kann mir nicht vorstellen, dass ein rv730 schneller als ein rv670 werden würde. Und da der Preis der 3850 aufgrund nVidia's Druck bald unter die 100€ Marke rutschen wird, sieht es für zukünftige "Midcard" - Design mehr als schlecht aus.
Sorkalm
2008-03-15, 16:18:06
Ne, der RV740 wird das aber wohl werden. Der hat ja wohl auch ein 256-Bit-Interface, das macht man nur wenn auch die GPU-Leistung stimmt. ;)
LovesuckZ
2008-03-15, 16:24:28
Ne, der RV740 wird das aber wohl werden. Der hat ja wohl auch ein 256-Bit-Interface, das macht man nur wenn auch die GPU-Leistung stimmt. ;)
Man hat immer noch den rv670 und keinen kleineren Fertigungsprozeß. Das wird vergleichbar mit der Situation in April/Juni sein, wo der rv570 so stark war, dass die Midcard-Design als "überflüssig" abgestempelt wurden sind.
AnarchX
2008-03-20, 10:59:53
Nun soll wohl doch noch der RV670@128Bit aka HD3690 in China, als HD3830 auch im Rest der Welt im April für $119-129 vorgestellt werden:
http://www.hkepc.com/?id=906&fs=nchp
Nun soll wohl doch noch der RV670@128Bit aka HD3690 in China, als HD3830 auch im Rest der Welt im April für $119-129 vorgestellt werden:
http://www.hkepc.com/?id=906&fs=nchp
RV670 abverkauf?
w0mbat
2008-03-20, 13:16:42
Sieht so aus :)
w0mbat
2008-03-25, 13:51:41
HD3850 X3 (http://www.pcgameshardware.de/aid,637244/News/AMD_Erste_Bilder_einer_Radeon_HD3850_X3_aufgetaucht/)
= 3x mobile RV670
http://www.abload.de/img/hd3850x36ad.jpg
http://www.abload.de/img/hd3850x3_281h.jpg
http://www.abload.de/img/hd3850x3_3ccn.jpg
Snoopy1978
2008-03-25, 16:09:07
Mmh,immerhin hatten die Jungs von Ati ja gesagt das sie die Zukunft des High-End über mehrere Chips oder Kerne sicherstellen wollen.Ich hatte mir da aber eher die letztere Variante als Lösung vorgestellt.Wenn sich das als wahr heraustellt dann sind dem Multi-GPU Wahnsinn Tür und Tor geöffnet.
Sorkalm
2008-03-25, 16:27:56
Das ist erstmal eine Eigenentwicklung von Asus. Mal schauen was der R800 in die Richtung bringen "Multi" bringen wird, solange werden wir uns wohl erstmal mit normalen Crossfire/SLI zufrieden geben müssen.
GeneralHanno
2008-03-28, 12:19:09
fuzzi meint, dass A12 bald rausgeht.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6514&Itemid=1
puntarenas
2008-03-28, 12:27:52
fuzzi meint, dass A12 bald rausgeht.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6514&Itemid=1
Ich bin gespannt, in welche Preisregionen RV670 noch vordringen kann, wie hoch darf man sich denn seinen Anteil an den Gesamtkosten einer Grafikkarte vorstellen?
Man hat immer noch den rv670 und keinen kleineren Fertigungsprozeß. Das wird vergleichbar mit der Situation in April/Juni sein, wo der rv570 so stark war, dass die Midcard-Design als "überflüssig" abgestempelt wurden sind.
Glaube ich nicht, denn diesmal gibt es kein neues Tech-Level das massiv Transistoren verschlingt. RV670 ist voll auf der Höhe der Zeit. Ein paar Optimierungen und ein RV740 sollte bei einer ähnlichen Die-Size oder minimal kleineren Die-Size durchaus konkurrenzfähig sein.
GeneralHanno
2008-03-28, 12:35:33
die kosten eines grafikchips teilen sich in 2 große posten:
die fixkosten und die laufenden kosten.
fixkosten beinhalten vor allem R&D (also die entwicklung) und die ersten samples, vorserienmodelle, erstellung der fertigungsbiliotheken usw
die laufenden kosten (AMD lässt ja bei einem fremden unternehmen fertigen) sind halt pro wafer.
die kosten pro chip sind also recht schwer auszurechnen. zunächst sind die preise immer sehr hoch, weil man die extrem hohen fixkosten, die im vorfeld entstanden sind reinholen muss.
nach einigen monaten sind diese getilgt, dann zählen nur noch die laufenden kosten. hierbei ist die ausbeute (also wie viele chips sind je wafer defekt/heile) sehr wichtig.
ich behaupte mal (wenn die fixkosten getilgt sind) und die ausbeute gut, dann liegen die kosten für den RV670 (55nm, 200mm) bei etwa 50$
ich behaupte mal (wenn die fixkosten getilgt sind) und die ausbeute gut, dann liegen die kosten für den RV670 (55nm, 200mm) bei etwa 50$
Für AMD? Niemals.
GeneralHanno
2008-03-28, 12:41:51
stimmt. man muss natürlich unterscheiden zwischen den kosten für TSMC und AMD ;)
TSMC hat natürlich auch sehr hohe fixkosten (erforschung des 55nm prozesses und einrichtung der fertigungsstraße).
wie viel zahlt denn deiner meinung nach AMD pro RV670 chip an TSMC?
Gast2
2008-03-28, 12:48:24
Vielleicht 20$, mehr sollten es nicht sein.
GeneralHanno
2008-03-28, 12:53:05
ob nun 20 oder 50$, auf jeden fall liegen die kosten deutlich unter der UVP von 150-200$
die platine kostet auch nicht die welt (wenn man von den entwicklungskosten absieht!) und speicher ist auch relativ günstig zur zeit ...
€dit: nur so zur größenordnung: ich habe mal gelesen, dass die 8800GTX etwa einen materialwert (also nur addierte laufende kosten) von etwa 100$-130$ habe. somit dürfte eine 3870 eigentlich bei der hälfte liegen ...
Wenn ein 80mm² RV610 mit eher gemässigten Taktraten schon $20 kostet, wird wohl RV670 kaum auf diesem Niveau liegen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=365179
;)
Wird wohl eher $40-50 sein.
AnarchX
puntarenas
2008-03-28, 12:58:29
ob nun 20 oder 50$, auf jeden fall liegen die kosten deutlich unter der UVP von 150-200$
Das ist schon klar und absolute Zahlen finde ich nicht so interessant, ich wollte eigentlich nur eine ungefähre Abschätzung, inwieweit eine verbesserte Ausbeute sich auf den Endpreis auswirken kann. Ich interpretiere das Gesagte nun so, dass die GPU mehr kostet als der Rest zusammen (PCB, Speicher, Basteln)?
LOL, eine NV Folie mit Preisen von ATI, naja, wer daran glaubt.....
GeneralHanno
2008-03-28, 13:11:37
naja auf einen 300mm wafer passen über 300 RV670 !
die kosten pro wafer sind konstant und nicht ganz billig (weis jmd. was so ein wafer kosten mag? sicherlich einige tausend $$$ ...)
und ob ich nun 50% nutzen kann oder 75% ist schon ein unterschied.
aber wenn AMD 40$-60$ zahlt, dann würde eine bessere ausbeute maximal 20$ (eher 10$) kostenersparnis bringen ...
die GPU ist generell das teuerste (sowohl fertigung, als entwicklung). platine am günstigsten. und speicher hängt vom typ ab, aber aktueller speicher ist sehr günstig (je speicherbaustein 0,50$-3$)
puntarenas
2008-03-28, 13:13:16
die GPU ist generell das teuerste (sowohl fertigung, als entwicklung). platine am günstigsten. und speicher hängt vom typ ab, aber aktueller speicher ist sehr günstig (je speicherbaustein 0,50$-3$)
Thx :)
LovesuckZ
2008-03-28, 15:53:21
Glaube ich nicht, denn diesmal gibt es kein neues Tech-Level das massiv Transistoren verschlingt. RV670 ist voll auf der Höhe der Zeit. Ein paar Optimierungen und ein RV740 sollte bei einer ähnlichen Die-Size oder minimal kleineren Die-Size durchaus konkurrenzfähig sein.
Wie soll das gehen, wenn man auf den selben Fertigungsprozeß bleibt?
Der rv670 ist doch hochoptimiert. Leistungstechnisch wird da weder nVidia noch AMD mit einem 192mm² Die herankommen.
Wie soll das gehen, wenn man auf den selben Fertigungsprozeß bleibt?
Der rv670 ist doch hochoptimiert. Leistungstechnisch wird da weder nVidia noch AMD mit einem 192mm² Die herankommen.
Warum soll das nicht gehen? Es werden ja keine neuen Features benötigt. Man würde wohl kaum RV670 ersetzen wenn es nicht möglich wäre ein effizienteres Design auf die Beine zu stellen. Ein RV740 mit 240SPs und 24TMUs sollte bei ähnlicher oder vielleicht sogar leicht geringerer Die-Size in den meisten Fällen im Vorteil sein, gerade wenn man es schafft die ALUs noch etwas höher zu takten.
LovesuckZ
2008-03-28, 16:09:26
Warum soll das nicht gehen? Es werden ja keine neuen Features benötigt. Man würde wohl kaum RV670 ersetzen wenn es nicht möglich wäre ein effizienteres Design auf die Beine zu stellen. Ein RV740 mit 240SPs und 24TMUs sollte bei ähnlicher oder vielleicht sogar leicht geringerer Die-Size in den meisten Fällen im Vorteil sein, gerade wenn man es schafft die ALUs noch etwas höher zu takten.
Wie hoch sollte man die ALUs takten? Man müsste für gleiche Rechenleistung mindesten 1000Mhz erreichen. Und dann hat man das Problem, dass durch schnellerschaltende Recheneinheiten auch der Verbrauch steigt.
Und die Textureinheiten kostet anscheinend wesentlich mehr Transistoren als Recheneinheiten.
GeneralHanno
2008-03-28, 17:32:49
auch wenn die RV7xx diskussionen eigentlich zukünftigHIER HIN (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=407254) gehören ...
ich glaube kaum, dass die R7xx generation schon eine eigene shaderdemain haben wird. dazu wäre ein radikaler architekturwechsel wie beim G80 von nöten. daher erwarte ich keine eigene shaderdomain vor R800 ...
AnarchX
2008-03-28, 17:41:48
ich glaube kaum, dass die R7xx generation schon eine eigene shaderdemain haben wird. dazu wäre ein radikaler architekturwechsel wie beim G80 von nöten. daher erwarte ich keine eigene shaderdomain vor R800 ...
Naja, man muss ja nicht in G80-Maßstäben denken. 875MHz TMUs und dann eine ALU-Domain mit 1-1.1GHz wären ja nicht verkehrt und ähnliches war für NV bei G70 möglich und auch S3 als kleiner Hersteller, konnte eine Shaderdomain in DF einbauen.
reunion
2008-03-28, 17:49:18
Naja, man muss ja nicht in G80-Maßstäben denken. 875MHz TMUs und dann eine ALU-Domain mit 1-1.1GHz wären ja nicht verkehrt und ähnliches war für NV bei G70 möglich und auch S3 als kleiner Hersteller, konnte eine Shaderdomain in DF einbauen.
Zudem verfügt laut AMD bereits RV670 über leicht höher getaktete Shader, würde mich wundern wenn wir bei RV770 hier keine Fortschritte sehen würden.
LovesuckZ
2008-03-28, 18:16:32
Naja, man muss ja nicht in G80-Maßstäben denken. 875MHz TMUs und dann eine ALU-Domain mit 1-1.1GHz wären ja nicht verkehrt und ähnliches war für NV bei G70 möglich und auch S3 als kleiner Hersteller, konnte eine Shaderdomain in DF einbauen.
Weder der G70 noch der S3 hat 64 Recheneinheiten.
Tarkin
2008-03-28, 20:09:16
ASUS HD 3850 X2
http://resources.vr-zone.com//newspics/Mar08/28/EAH3850X2_2.jpg
http://www.vr-zone.com/articles/ASUS_HD_3850_X2_Card_Specs_%26_Pics/5677.html
ASUS is preparing their self-designed HD 3850 X2 card for mass production next week so we can expect the cards to hit the retail market by mid April. The pricing is expected to be around US$350. ASUS EAH3850 X2 card has two HD 3850 GPUs with 1GD DDR3 memories onboard. The card is clocked at 668MHz core and 1658MHz memories. The card has 2 DVI-out and 1 TV-out. Other software features include ASUS Splendid, Gamer OSD, Video Security Online and Smart Doctor.
James Ryan
2008-03-29, 10:12:39
Zudem verfügt laut AMD bereits RV670 über leicht höher getaktete Shader, würde mich wundern wenn wir bei RV770 hier keine Fortschritte sehen würden.
:confused:
Davon höre ich ja zum ersten Mal! Hast du dafür eventuell eine Quelle?
Kann man den höheren Shadertakt eventuell irgendwie auslesen?
MfG :cool:
Sorkalm
2008-04-05, 15:57:46
http://www.pcgameshardware.de/aid,638751/News/Intel_und_AMD_zeigen_Centrino_2_mit_Crossfire/
M88 = ATI Mobility Radeon HD 3870 X2
horn 12
2008-04-06, 09:06:43
Nun gut, der langsame Abverkauf der RV670 Chips hat somit wohl begonnen. Wird wohl af Mitte/Ende Mai mit dem RV770 hinauslaufen. ATI hat ja so immer einen halbes Jahres Rythmus inne, --> November 2007 - Mai 2008.
Damit müsste dies ganz gut hinkommen.
Anstelle die Taktrate hochzuschrauben sollten sie lieber am Design Änderungen vornehmen, die mehr Effizienzte Nutzung aus den Pipes wurstet.
Wie kann AMD eigentlich die AA Performance erhöhen? Reicht es, "mehr" Shaderpower Effizienzt auf die Straße zu bringen oder sind mehr Einheiten bzw. andere Einheiten nötig? Das Shaderresolve ist mir leider noch nicht ganz klar.
Captain Future
2008-04-06, 09:19:29
Warum soll das nicht gehen? Es werden ja keine neuen Features benötigt. Man würde wohl kaum RV670 ersetzen wenn es nicht möglich wäre ein effizienteres Design auf die Beine zu stellen. Ein RV740 mit 240SPs und 24TMUs sollte bei ähnlicher oder vielleicht sogar leicht geringerer Die-Size in den meisten Fällen im Vorteil sein, gerade wenn man es schafft die ALUs noch etwas höher zu takten.
Glaubst du, eine der vermutlich nicht gerade kleinen single-cycle 64 Bit FP filternden TMUs kostet wirklich weniger als zwei Shader-ALUs?
reunion
2008-04-06, 10:27:08
:confused:
Davon höre ich ja zum ersten Mal! Hast du dafür eventuell eine Quelle?
Kann man den höheren Shadertakt eventuell irgendwie auslesen?
MfG :cool:
Darüber hinaus hat man sich dem „MSAA-Shader-Resolve-Problem“ (das Shader-Resolve wird normalerweise von den ROPs durchgeführt. Beim R600 übernehmen dies die ALUs; ob dies Absicht oder ein Defekt an den ROPs ist, ist weiterhin unbekannt) angenommen und dessen Effizienz erhöht. Erreicht wird dies laut David Nalasco durch eine höhere Taktrate des „Shader-Cores“. Genauere Details konnten wir bis jetzt leider noch nicht in Erfahrung bringen. Ob die Shadereinheiten tatsächlich mit einer höheren Frequenz als die restlichen GPU-Komponenten arbeiten, können wir derzeit nur vermuten. Darüber hinaus hat ATi auf dem RV670 nach eigenen Angaben die Performance bei Geometry-Shader-Berechnungen steigern können, was in Direct3D-10-Anwendungen (falls diese Gebrauch vom Geometry-Shader machen) einen Geschwindigkeitsschub bringen soll.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/3/#abschnitt_technik_im_detail_part_1
Captain Future
2008-04-06, 10:53:42
Na, ist doch logisch: 775>743.
Nakai
2008-04-06, 11:46:06
Na, ist doch logisch: 775>743.
Komisch, dass der Rv670 bei einigen Spielen mehr Performance als die Leistung durch die Takterhöhung gegenüber den R600 vermuten lässt.
Der Rv670 ist performanter als der R600.
mfg Nakai
Captain Future
2008-04-06, 12:35:11
Komisch, dass der Rv670 bei einigen Spielen mehr Performance als die Leistung durch die Takterhöhung gegenüber den R600 vermuten lässt.
Der Rv670 ist performanter als der R600.
mfg Nakai
Zeig mal
Tante edith sagt:
Aber bitte nicht nur einen cherry-picked wert und bitte auch mit gleichem Treiber. Bei CB habe ich zum Beispiel die neuesten Benches der Hd2900 mit Cat 7.10 gefunden - wohl kaum noch ein maßstab.:(
reunion
2008-04-06, 12:39:02
Na, ist doch logisch: 775>743.
David Nalasco spricht explizit von höheren Taktraten des Shader-Cores. Würde er damit nur die bekannte Taktsteigerung des ganzen Chips meinen, wäre es wohl kaum sinnig das zu erwähnen und als Grund für die bessere Shader-Resolve-Leistung anzugeben. Aber Interpretationsspielraum ist zugegebenermaßen vorhanden.
Captain Future
2008-04-06, 12:48:48
David Nalasco spricht explizit von höheren Taktraten des Shader-Cores. Würde er damit nur die bekannte Taktsteigerung des ganzen Chips meinen, wäre es wohl kaum sinnig das zu erwähnen und als Grund für die bessere Shader-Resolve-Leistung anzugeben. Aber Interpretationsspielraum ist zugegebenermaßen vorhanden.
[ ] Ich habe verstanden, wie Marketing funktioniert.
Er spricht eben nicht explizit von höheren Taktraten nur des SCs. So ist seine Aussage ja auch vollkommen richtig: AA wird im Shader aufgelöst, RV670 hat höher taktende Shader-Cores als R600 ergo ist Shader-Resolve auf dem RV670 schneller.
Nakai
2008-04-06, 12:51:50
Zeig mal
Die Performancezuwächse belaufen sich auf etwa 10%.
Der höhere Takt gibt nur rtwa 4% zusätzliche Performance.
Sieht man schon schön, wie der R600 bei genau gleichen Rohleistungen gegenüber den Rv670 etwas schlechter ist.
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_19.html#sect1
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_20.html#sect0
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_21.html#sect0
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_26.html#sect0
Der R600 hat Vorteile bei höherer Auflösung, was wohl durch das 512Bit SI zu erklären ist. Und ja, es gibt Fälle wo der R600 vor dem Rv670 liegt.
Bei den meisten Fällen ist der RV670 vorne, manchmal, je nach Einstellung, sogar mit einem beachtlichen Unterschied.
mfg Nakai
LovesuckZ
2008-04-06, 12:53:31
Computerbase hat zwei unterschiedliche Treiberversionen verwendet.
Captain Future
2008-04-06, 12:58:19
Mein Edit und dein Posting haben sich wohl überschnitten - sorry. Wie LS unten sagt: mit verschiedenen Treibern etwas sinnlos, wie schon bei 9600 GT vs. 8800 GT zu sehen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/7/#abschnitt_testsystem
Treiberversionen
Nvidia ForceWare 158.24 (G7x)
Nvidia ForceWare 163.75 (G8x)
Nvidia ForceWare 169.01 (8800 GT)
ATi Catalyst 7.5 (R(V)5x0)
ATi Catalyst 7.9 (2600 XT X2 (3))
ATi Catalyst 7.10 (R6x0)
ATi Catalyst 8-43-1-071028a (HD 3870)
Die Performancezuwächse belaufen sich auf etwa 10%.
Der höhere Takt gibt nur rtwa 4% zusätzliche Performance.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/8/#abschnitt_chipeffizienz_part_1
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/9/#abschnitt_chipeffizienz_part_2
Sieht man schon schön, wie der R600 bei genau gleichen Rohleistungen gegenüber den Rv670 etwas schlechter ist.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/12/#abschnitt_anno_1701
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_19.html#sect1
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_20.html#sect0
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_21.html#sect0
http://www.xbitlabs.com/articles/video/display/radeon-hd3870-hd3850_26.html#sect0
Der R600 hat Vorteile bei höherer Auflösung, was wohl durch das 512Bit SI zu erklären ist. Und ja, es gibt Fälle wo der R600 vor dem Rv670 liegt.
Bei den meisten Fällen ist der RV670 vorne, manchmal, je nach Einstellung, sogar mit einem beachtlichen Unterschied.
mfg Nakai
Bei xbitlabs sieht's für mich auch eher nach ausreissern durch neue Treiberpfade aus, als nach konsistenter VErbesserung durch die Bank:
http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/fearpm_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/hl2et_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/crysis10_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/stalker_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/lp10_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/trl_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/cohop10_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/6dm1_4x.gif (ok, nur 3DMark)
Nakai
2008-04-06, 13:13:58
Bei xbitlabs sieht's für mich auch eher nach ausreissern durch neue Treiberpfade aus, als nach konsistenter VErbesserung durch die Bank.
Ich will nicht sagen, dass der Rv670 wirklich total überarbeitet wurde. Man hat den Chip verbessert und versucht in kostengünstiger herzustellen.
Was auch gut gelungen ist.
Man hat ein 256Bit SI reingedrückt und dabei kaum Performanceschwächen eingebüßt. Die Performance wurde bei einigen Spielen verbessert.
Und der RV670 ist nicht überall schneller.
Ich hab die CB-Benches entfernt, irgendwie kann man kaum noch auf CB verweisen. Deren Benches werden langsam ziemlich unnütz.
mfg Nakai
Ich hab die CB-Benches entfernt, irgendwie kann man kaum noch auf CB verweisen. Deren Benches werden langsam ziemlich unnütz.
Andersrum, die Benches waren ziemlich unnütz. Mit der neuen Testplattform wurden bei 9800GTX-Review ja mal wieder alle Werte mit identischen Treibern auf einer identischen Plattform ermittelt. Ich befürchte nur, bei kommenden Reviews wird dann wieder das Treiber- und Plattformdurcheinander Einzug halten und für die Diskussion hier ist das aktuelle 9800GTX-Review untauglich, weil keine 2900XT mitgebencht wurde.
reunion
2008-04-06, 14:57:48
[ ] Ich habe verstanden, wie Marketing funktioniert.
Er spricht eben nicht explizit von höheren Taktraten nur des SCs. So ist seine Aussage ja auch vollkommen richtig: AA wird im Shader aufgelöst, RV670 hat höher taktende Shader-Cores als R600 ergo ist Shader-Resolve auf dem RV670 schneller.
Oh ein Insider, ich bin beeindruckt. :rolleyes:
_DrillSarge]I[
2008-04-06, 15:10:44
http://www.nordichardware.com/Reviews/?page=10&skrivelse=530 (falls, schon gepostet, sorry)
??? 512bit si @rv670?
Sorkalm
2008-04-06, 15:13:55
Das ist Bullshit. ;)
RV670 hat definitiv keine 512 Bit.
_DrillSarge]I[
2008-04-06, 15:14:46
eben drum :confused:
wie kommen die auf 512bit "memory bus" ?
Sorkalm
2008-04-06, 15:17:07
Vermutlich das hier falsch verstanden:
"Fully distributed design with 512-bit internal ring bus for memory reads and writes"
http://ati.amd.com/products/radeonhd3800/specs.html
Dabei steht direkt drüber:
256-bit GDDR3/GDDR4 memory interface
AnarchX
2008-04-14, 09:28:08
3850X2 im Test @ it168 (http://translate.google.com/translate?u=http%3A%2F%2Fpublish.it168.com%2F2008%2F0413%2F20080413004301.shtml&langpair=zh%7Cen&hl=de&ie=UTF-8)
w0mbat
2008-04-16, 12:55:43
RV670 to become Radeon 3830 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=6857&Itemid=1)
Also wird der 128bit RV670 wohl HD3830 genannt. Der Codename tauchte schonmal vor einiger Zeit in einer AMD-Folie auf, wurde damals aber als voller RV670 mit sehr niedrigen Taktraten und OEM only angegeben. So kanns gehen :)
AnarchX
2008-04-16, 14:29:23
http://img186.imageshack.us/img186/7429/p1oe3bj5.jpg (http://imageshack.us)
http://img258.imageshack.us/img258/1894/p2ko8rq0.jpg (http://imageshack.us)
http://gathering.tweakers.net/forum/list_messages/1282830/15
;)
w0mbat
2008-04-17, 13:57:59
Lesenswert: http://www.rage3d.com/articles/assassinscreed/
2B-Maverick
2008-04-17, 16:18:06
Lesenswert: http://www.rage3d.com/articles/assassinscreed/
Danke! 20% Geschwindigkeitszunahme mit 4xAA alleine durch einen 10.1er Pfad sind nicht übel. Hätte ich so nicht erwartet.
Welcher 10.1 Pfad, AC hat doch gar keinen.
LOL:
After testing, we've found that renaming AssassinsCreed_Dx10.exe to COJ_DX10.exe produces the best results for the DX10 pathway, whilst for the DX9 one you should rename AssassinsCreed_Dx9.exe to fear.exe
best results = max fps, min quality ?
w0mbat
2008-04-17, 16:43:48
@Gast: Hast den Artikel wohl nicht gelesen -.- AC ist das erste Spiel das einen DX10.1/SM4.1 Pfad hat, wurde sogar offiziell bestätigt.
"Ubisoft are at the forefront of technology adoption, as showcased with the fantastic Assassin’s Creed title. In this instance our developer relations team worked directly with the developer and found an area of code that could be executed more optimally under DX10.1 operation, thus benefiting the ATI Radeon HD 3000 Series."
Ich finde es auch sehr krass das die HD3000er fast 20% mit aktiven AA unter DX10.1 gewinnen.
GeneralHanno
2008-04-17, 16:46:07
Lesenswert: http://www.rage3d.com/articles/assassinscreed/
das läd ja geradezu zu verschwörungstheorien ein :biggrin: wer will mitmachen? nvidia schmiert ubi-soft, damit sie nicht die vorteile von DX10.1 öffentlich präsentieren :D
€dit: naja an die große glocke hängt ubi-soft ihren Dx10.1 renderpfad aber nicht - bisher!
Ich finde es auch sehr krass das die HD3000er fast 20% mit aktiven AA unter DX10.1 gewinnen.
Oder kamen die 20% vielleicht doch nur durch Umbenennen der .exe und damit verbundener fehlerhafter Darstellung. Fragen über Fragen... :D
w0mbat
2008-04-17, 16:53:00
ATI hat ja bestätigt das sie mit den AC-Entwickler zusammengearbeitet haben und das ein DX10.1 Code implementiert wurde der unter Vista SP1 auf HD3000er Karten läuft.
2B-Maverick
2008-04-17, 16:56:56
Welcher 10.1 Pfad, AC hat doch gar keinen.
LOL:
After testing, we've found that renaming AssassinsCreed_Dx10.exe to COJ_DX10.exe produces the best results for the DX10 pathway, whilst for the DX9 one you should rename AssassinsCreed_Dx9.exe to fear.exe
best results = max fps, min quality ?
mal net so laut lachen lieber.....
Das exe-renaming sorgt nur für andere Crossfire Modi. Das hat nix mit 10.1 oder nicht zu tun!
@Gast: Hast den Artikel wohl nicht gelesen -.- AC ist das erste Spiel das einen DX10.1/SM4.1 Pfad hat, wurde sogar offiziell bestätigt.
.
Wo wurde das offiziell bestätigt? Die Quelle musst du schon angeben, sonst glaubt dir hier keiner.
mal net so laut lachen lieber.....
Das exe-renaming sorgt nur für andere Crossfire Modi. Das hat nix mit 10.1 oder nicht zu tun!
Da es keine anderen Crossfire Modi gibt, lache ich jetzt umso lauter.
2B-Maverick
2008-04-17, 17:03:36
Da es keine anderen Crossfire Modi gibt, lache ich jetzt umso lauter.
Du willst anscheinend echt nix kapieren. Der ATI Treiber hat intern Anpassungen bzgl. Crossfire an verschiedene Titel. Bei NVidia kann man per nhancer diese Anpassungen selber vornehmen, bei ATI nur per Exe-Renaming.
Und: wenn man schon lästert sollte man auch den Mumm haben sich anzumelden.
CU
Markus
w0mbat
2008-04-17, 18:44:47
Wo wurde das offiziell bestätigt? Die Quelle musst du schon angeben, sonst glaubt dir hier keiner.
Das Zitat, das ich oben zitiert habe ist von AMD.
Also definitiv keine seriöse Quelle, danke für die Bestätigung.
w0mbat
2008-04-18, 12:04:44
Assassin´s Creed hat einen DX10.1 Pfad, da gibt es nichts dran zu rütteln.
Schlussendlich haben wir uns selber an ATi gewandt. Und tatsächlich, Assassin's Creed nutzt auf einer Radeon-HD-3000-Karte die Direct3D-10.1-Fähigkeiten des 3D-Beschleunigers. So kann die Grafikkarte direkt auf den „Tiefen Buffer“ (Depth Buffer, auch bekannt als Z-Buffer für Sichtbarkeitsprüfungen) zugreifen und die Rechenergebnisse in den Shadereinheiten bearbeiten. Im Direct3D-10-Modus werden die benötigten Tiefenwerte zunächst in einen „Color Buffer“ geschrieben und erst dann von den ALUs ausgelesen, da diese unter Direct3D 10 nicht direkt auf den Depth Buffer zugreifen können.
Warum UbiSoft das derzeit verheimlicht, bleibt aber unklar. Rein vom Standpunkt der Werbung gesehen, wäre Direct3D 10.1 sicherlich ein interessantes Feature.
http://www.computerbase.de/news/software/spiele/actionspiele/2008/april/ati_assassins_creed_d3d_101/
Das Game wird dadurch auch nicht besser. Also Wayne...
w0mbat
2008-04-18, 12:15:21
Aber schöner & schneller. Also nix mit Wayne lieber Herr Gast.
GeneralHanno
2008-04-18, 16:48:46
wenn DX10.1 die MSAA performence um 20% steigern kann, dann finde ich das schon beachtlich!
AnarchX
2008-04-18, 16:51:51
wenn DX10.1 die MSAA performence um 20% steigern kann, dann finde ich das schon beachtlich!
Naja, aber eben wohl auch nur unter D3D10.x, wo die bisherigen MSAA-Implementation eher etwas problematisch waren.
Wobei NV ja auch mit einen der letzten Treiber unter der UE3 massiv zugelegt haben soll, ohne D3D10.1. ;)
PCGH_Carsten
2008-04-18, 18:41:20
Das Game wird dadurch auch nicht besser. Also Wayne...
Das Game nicht, aber das ist halt Geschmackssache - es gibt ja genug Leute, die AC ziemlich geil finden. Und für die ist das nunmal eine prima Sache, wenn sie es jetzt schöner UND schneller zugleich bekommen.
AnarchX
2008-08-15, 12:29:02
Wer sich schon immer gefragt hat, was sich hinter der HD3730 im Catalyst befindet:
http://img143.imageshack.us/img143/6169/81510123406070280tt9.gif (http://imageshack.us)
http://bbs.chiphell.com/viewthread.php?tid=29972&extra=page%3D1
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.