Archiv verlassen und diese Seite im Standarddesign anzeigen : ComputeShader Raytracing
Da der GTX 680 eine Compute-Schwäche unterstellt wird, nie ordentlich reines DX11 CS getestet wurde und es mir langweilig war:
Ein DX11-Raytracer in 4,75 KB:
16x16 Blockgröße (https://axelgneiting.de/share/csrt16x16.exe)
8x8 Blockgröße (https://axelgneiting.de/share/csrt8x8.exe)
Man verwende FRAPS für die FPS-Anzeige. Meine GTX 680 schafft 237 484 FPS.
(Fall es es überhaupt nichts tut, kann die GPU DX11 nicht oder die neuste DX11-Runtime ist nicht installiert)
dildo4u
2012-04-23, 22:51:23
Scheint dort wirklich nicht so dolle zu sein die 680.
155fps mit meiner 460@700mhz.
(del)
2012-04-23, 22:53:52
212 fps mit einer HD 6870 non o/c.
Scheint dort wirklich nicht so dolle zu sein die 680.
Deshalb testen wir es ja! In ComputeShadern gibt's auch keine wirkliche Treiber-Ausrede.
san.salvador
2012-04-23, 22:59:54
Meine 560Ti @ 900Mhz spuckt hier 230 fps aus.
Brauch ich jetzt keine 680er mehr? :ugly:
Meine 560Ti @ 900Mhz spuckt hier 230 fps aus.
Brauch ich jetzt keine 680er mehr? :ugly:
WTF :freak:
Irgendwas ist da wirklich seltsam mit dem Chip (oder doch dem Treiber).
GTX 680 Phantom (1.084 Baseclock + angezeigter Turbo):
http://666kb.com/i/c37d2cez4afcegsyz.jpg
254 Fps @ 1.176/3.150 MHz
MfG,
Raff
dildo4u
2012-04-23, 23:03:29
Geht bei mir wo sind die 7970 User? :)
Ich vermute mal, dass eine 7970 da Kepler windelweich haut.
Is übrigens 4xSGSSAA (ohne Gamma-Correction, weil ich zu faul war und es ja angeblich eh plöt ist)
Du, Coda, das Ding ist sehr bandbreitenhungrig – das sollte nicht so sein, oder? So ist's kein Wunder, dass die GTX 680 abstinkt. Skaliert nullinger mit dem Kerntakt, aber 1:1 mit dem Speicher.
1.176/3.500 MHz: 285 Fps
http://666kb.com/i/c37d5npftw7ouy0ff.jpg
+11 % Transferrate = +12 % Fps. X-D
MfG,
Raff
xiao didi *
2012-04-23, 23:04:48
Meine 560Ti @ 900Mhz spuckt hier 230 fps aus.
Confirmed.
Du, Coda, das Ding ist sehr bandbreitenhungrig – das sollte nicht so sein, oder?
Eigentlich schreibt es nur einmal pro Pixel in den Framebuffer, ansonsten rechnet's ordentlich an Zeug rum.
Wüsste nicht warum es bandbreitenlimitiert sein soll. Vielleicht zu viele Register und der Chip fängt das swappen an oder son Unfug?
Aber das ist doch schonmal ein interessantes Ergebnis. Bitte auch auf der 7970 testen :tongue:
Habe ich gerade nicht drin, aber auf der Arbeit. ;)
Mach doch mal eine fiesere Version 1.1. :naughty:
MfG,
Raff
AnarchX
2012-04-23, 23:12:27
Du, Coda, das Ding ist sehr bandbreitenhungrig – das sollte nicht so sein, oder? So ist's kein Wunder, dass die GTX 680 abstinkt.
Die deutlich höhere Bandbreite gegenüber einer GTX 560 Ti wird aber trotzdem nicht ausgespielt.
Okay, es hat wohl tatsächlich einen Register-Überlauf gegeben. Ich hab die Blockgröße reduziert und jetzt läuft es deutlich schneller (484 FPS). Hab's nochmal hochgeladen, sorry.
Kann gut sein, dass das Register-File bei GK104 ziemlich klein ist.
iltis2k
2012-04-23, 23:21:18
203FPS mit einer 560Ti @ 860MHz & 2050MHz und dem 301.24 Treiber. Mein 2500K @ 4GHz falls das eine Rolle spielt.
€: mit der neuen Version sinds bei mir 209FPS
Mit der neuen Version? Dann ist es ziemlich sicher, dass Mini-Kepler ein Register-Problem hat.
Weil dann wäre auf GF104 die 16x16 Blockgröße schneller als 8x8. Vielleicht sollte ich doch nochmal beide Versionen hochladen.
dildo4u
2012-04-23, 23:23:53
Bei mir ändert sich auch nix mit der neuen Version.
xiao didi *
2012-04-23, 23:25:03
Hab's nochmal hochgeladen, sorry.
Immernoch 230FPS mit einer 900Mhz (Speicher 2,6Ghz) 560Ti.
mit der neuen Version sinds bei mir 209FPS
Mit 860Mhz komm ich auf 220FPS.
(del)
2012-04-23, 23:25:18
Hm von 212 auf 238 mit der neuen Version.
iltis2k
2012-04-23, 23:25:39
Nach einer Zeit pendelt es sich mit meiner 560Ti sogar wieder bei 204 ein, also so wie vorher.
iltis2k
2012-04-23, 23:26:25
Immernoch 230FPS mit einer 900Mhz 560Ti.
Mit 860Mhz komm ich auf 220FPS.
Welchen Treiber benutzt du?
Bei mir ändert sich auch nix mit der neuen Version.
Okay. Hab trotzdem beide mal hochgeladen zum vergleichen.
Ich warte immer noch auf GCN-Resultate ;)
Okay, es hat wohl tatsächlich einen Register-Überlauf gegeben. Ich hab die Blockgröße reduziert und jetzt läuft es deutlich schneller (484 FPS). Hab's nochmal hochgeladen, sorry.
Kann gut sein, dass das Register-File bei GK104 ziemlich klein ist.
Jetzt ist's besser. Hängt nun ganz klar an der GPU. Auch erkennbar daran, dass mir die Kiste mit 1.320 MHz direkt um die Ohren geflogen ist. Und zwar richtig (Hard Reset nötig). :D
1.176/3.150 MHz: ~535 Fps
1.241/3.004 MHz: ~560 Fps
MfG,
Raff
iltis2k
2012-04-23, 23:30:12
Hab grad wohl zu schnell das neue runtergeladen. Mit der 16x16 Version komme ich sogar nur auf 201FPS, also langsamer als die 8x8 Version.
€: kann gerne auch noch mit Taktraten herum spielen falls gewünscht.
xiao didi *
2012-04-23, 23:30:33
Welchen Treiber benutzt du?
Sorry, hätte ich dazu sagen sollen: 295.73 WHQL.
(Hard Reset nötig). :D
Haha!
Hab grad wohl zu schnell das neue runtergeladen. Mit der 16x16 Version komme ich sogar nur auf 201FPS, also langsamer als die 8x8 Version.
Ja, wenn ausreichend Register vorhanden sind, ist auch zu erwarten, dass 8x8 langsamer ist.
Hat NVIDIA wohl bei GK104 einiges eingespart.
Interessant wären jetzt halt GCN (7970, 7870 & 7770) und vielleicht sogar Ivy Bridge ;)
Ich könnte noch nen E-450 Zacate anbieten, aber da komm ich wahrscheinlich nichtmal auf 20 FPS :D
Mich würde noch ein GF110 interessieren. Das Teil müsste doch ganz gut regeln.
MfG,
Raff
Warum ist eigentlich keiner über ~5KB verwundert? Alles Banausen, das war die eigentliche Übung :tongue:
Blaire
2012-04-23, 23:35:52
4-Way GTX680 16x16 :wink: (einfaches AFR-Profil)
http://www.abload.de/img/4way680qsuta.jpg
iltis2k
2012-04-23, 23:38:08
Warum ist eigentlich keiner über ~5KB verwundert? Alles Banausen, das war die eigentliche Übung :tongue:
Das wollte ich sogar als erstes schreiben, aber wollte beim Thema bleiben. Sonst reagierst du doch auch empfindlich darauf, wenn vom eigentlichem Thema abgewichen wird. Aber trotzdem RESPEKT! Hast du eigentlich schon mal ein 64k demo gemacht? Das Zeug dazu hast du ja.
4-Way GTX680 16x16 :wink: (einfaches AFR-Profil)
http://www.abload.de/img/4way680qsuta.jpg
Warum ist AFR da langsamer als ohne? Sollte eigentlich linear skalieren.
Blaire
2012-04-23, 23:45:57
Warum ist AFR da langsamer als ohne? Sollte eigentlich linear skalieren.
Mit neuen Profil skaliert es, wenn auch nicht optimal. Was könnte da noch limitieren? CPU?
http://www.abload.de/thumb/4way2ivo53.jpg (http://www.abload.de/image.php?img=4way2ivo53.jpg)
Naa, CPU idlet da nur rum.
Die Werte hab ich ja auch mit einer GPU. Irgendwas stimmt da nich ;)
WTF, kann mal jemand den Thread-Titel fixen. ComputeShader soll das heißen :(
Lightning
2012-04-23, 23:53:42
GTX 460 @ 850/1000 MHz:
193 fps (16x16), 198 fps (8x8)
..und mir fällt auf, nur 5 kB! :O :D
Nightspider
2012-04-23, 23:56:48
Kann mal jemand ne HD4000 testen. ^^
Blaire
2012-04-23, 23:57:01
Naa, CPU idlet da nur rum.
Die Werte hab ich ja auch mit einer GPU. Irgendwas stimmt da nich ;)
16x16 war das, bei 8x8 sinds ~560fps ( ich teste mal noch ein paar weitere SLI Values...)
Kann mal jemand ne HD4000 testen. ^^
Und ihr DX11 dranlöten?
Lightning
2012-04-23, 23:58:39
Kann mal jemand ne HD4000 testen. ^^
Kaum (kein DX11).
edit: okay..
iltis2k
2012-04-23, 23:58:41
Kann mal jemand ne HD4000 testen. ^^
Ist damit jetzt AMD oder Intel gemeint? Ich schätze mal Intel, ich finde diese Namensgebung einfach nur verwirrend.
Nightspider
2012-04-23, 23:59:24
Ich schätze mal Intel
So ist es. ;)
iltis2k
2012-04-24, 00:06:07
So ist es. ;)
Teste doch mal deine HD3000, habe selber leider nur ein P67 Board (konnte nicht warten).
Nightspider
2012-04-24, 00:07:02
HD3000 hat kein DX11 und damit keine ComputeShader. ;)
iltis2k
2012-04-24, 00:07:37
HD3000 hat kein DX11 und damit keine ComputeShader. ;)
Mist, stimmt ja :biggrin:.
san.salvador
2012-04-24, 00:31:56
560Ti @ 900/2100
8x8: ~238 fps
16x16: ~232 fps
Radeonfreak
2012-04-24, 00:50:34
beides @ 235 Fps
Die Slides hier geben mir auch recht: https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=4&ved=0CDcQFjAD&url=http%3A%2F%2Fcis565-spring-2012.github.com%2Flectures%2F04-18-Modern-GPUs.pptx&ei=ReaVT_GGBcOhOq2a4fEN&usg=AFQjCNHsp_YTNBGsw_zbhRsQAy23SsRZ9g&sig2=0O-zrmrHT86viN9afyJsrg&cad=rja
Zu wenig Register für die ALU-Anzahl per SMX. Mal sehen was GK110 da so macht.
Frank1974
2012-04-24, 06:23:51
GTX480@default
8x8: - 234 fps
16x16: - 232 fps
mfg
Frank
Spasstiger
2012-04-24, 09:43:00
Radeon HD 6630M
480 SPs @ 485 MHz = 466 GFlops
1024 MiB DDR3 @ 800 MHz @ 128-Bit-SI = 25,6 GB/s
Mobility Catalyst 11.12:
csrt8x8: 54 fps (Fenstermodus), 56 fps (Vollbild)
csrt16x16: 45 fps (Fenstermodus), 47 fps (Vollbild)
Hab ein paar fps mehr erwartet speziell im Vergleich mit der übertakteten GTX 460, die ja nur über die 2,5-fache theoretische Rechenleistung verfügt, aber die 4-fache Framerate abliefert.
Scheint wohl im Fall der HD 6630M an der Speicherbandbreite zu hängen.
aufkrawall
2012-04-24, 09:57:25
GTX 570 OC: 275fps
Steigt bei euch die GPU-Auslastung auch nicht über 97%?
Scheint wohl im Fall der HD 6630M an der Speicherbandbreite zu hängen.
Wie gesagt, sollte da gar nichts an der Speicherbandbreite hängen. Schon gar nicht mit der 8x8-Version.
Man From Atlantis
2012-04-24, 12:11:59
GTX460 @675/3600MHz
8x8 161.7 FPS (http://www.abload.de/img/csrt8x8_2012_04_24_12ktdrz.png)
16x16 157.7 FPS (http://www.abload.de/img/csrt16x16_2012_04_24_7jfhg.png)
GTX460 @1000/4600MHz
8x8 235.7 FPS (http://www.abload.de/img/csrt8x8_2012_04_24_136pipv.png)
16x16 231.7 FPS (http://www.abload.de/img/csrt16x16_2012_04_24_i1fc2.png)
:freak:
misterh
2012-04-24, 14:05:34
5770 850/1200
8x8 : 158 FPS
16x16 : 128 FPS
5770 950/1200
8x8 : 178 FPS
16x16 : 145 FPS
5770 850/1400
8x8 : 159 FPS
16x16 : 129 FPS
5770 950/1400
8x8 : 179 FPS
16x16 : 145 FPS
muelli
2012-04-24, 14:17:42
Hier mit einer Radeon 6850M bei 675MHz Kern- und 800MHz Speichertakt (DDR3):
8x8: 117-119 Bilder/Sekunde und bei
16x16: 84-86 Bilder/Sekunde.
Gruß
derguru
2012-04-24, 14:44:47
7970@1125/1600
8x8 : ~586 fps
16x16 : ~510 fps
7970@1300/1600
8x8 : ~667 fps
16x16 : ~584 fps
Spasstiger
2012-04-24, 14:46:00
Skaliert bei AMD ja doch fast 1:1 mit den GFLops, meine HD 6630M eingeschlossen. Dann sind die AMD-Resultate, zumindest auf VLIW5-Basis generell nicht so prickelnd. Zwar schon dort, wo man sie anhand der Markplatzierung erwartet, aber nicht dort, wo man sie anhand der Rechenleistung erwartet (im Vergleich mit NV).
GCN schneidet recheneffizienter ab als VLIW5, die HD 7970 ist bei gleichem Takt gleichauf mit der GTX 680. Cayman (VLIW4) wäre noch interessant.
=Floi=
2012-04-24, 15:00:06
Meine 560Ti @ 900Mhz spuckt hier 230 fps aus.
hier ebenfalls
8X8 230fps
16x16 227fps
Tesseract
2012-04-24, 16:12:57
~278fps @ 580
unterschied zwischen 8x8 und 16x16 ist im schnitt so 2-3 fps.
btw: kommt man mit so hohen fps nicht langsam in den bereich, wo der bufferswap das ergebnis verfälscht?
lemming71
2012-04-24, 21:27:46
So, jetzt muss ich aber mal etwas verwirrt fragen. Unten stehende Konfiguration mit einer GTX570 bringt bei mir in beiden Benches gerade einmal 125fps. ABER: Wenn ich auf die Auslastung schaue, so wird die GPU gerade mal zu 61% ausgelastet. Es ist also Luft nach oben, und zwar ordentlich. Warum wirds nicht ausgenutzt??? 296.10 der verwendete Treiber. Orbmuks GPU Observer MiniApp am Desktop spricht von 61% GPU, 0% VPU Load. Fraps gibt selbst nur 61% an.
Werden da die Compute Shader irgendwie nicht oder falsch aktiviert??!?!
aufkrawall
2012-04-24, 21:29:32
Benutzt du einen fps-Limiter oder den D3DOverrider?
lemming71
2012-04-24, 21:32:53
Benutzt du einen fps-Limiter oder den D3DOverrider?
Problem gelöst, siehe ein Thread weiter unten...
lemming71
2012-04-24, 21:53:03
So, nocheinmal: Also es ist doch ein Tool. Allerdings habe ich nicht vermuten können, das mir da der MSI Afterburner dazwischenfunkt.
Schalte ich diesen ab, geht er auf 99%, mit dem MSI Afterburner kommt er nur nur auf etwa 88%. Sobald ich dann aber den OScreen Server des MSI Afterburners dazwischenschalte um die OSD Infos in den D3D Anwendungen zu erhalten, sind es nur noch 61% GPU Last. Mit den enstprechenden Einbrüchen in den FPS... Sobald ich den Overlay abschalte, sind es wieder 99%. Also liegt es am Overlay des OSD Tools vom Afterburner... WTF...
Dann habe ich mal andere Benches getestet, diese laufen ohne messbare Einbrüche. Letztlich habe ich herausgefunden, dass man in den Einstellungen des MSI Afterburner OnScreen Display Servers grundsätzlich Vector3D für die Anzeige verwenden muss. Nutzt man Vector2D kommt es bei diesen beiden Benchmarks zu extremen fps Einbrüchen. Strange, ist aber so.
Ok, also demnach habe ich mit 296.10 auf GTX570
mit 772/1544/1944
8x8: 244fps
16x16: 244 fps
mit 840/1680/1944
8x8: 270fps
16x16: 270fps
Also wohl im Bereich des Normalen denke ich.
HarryHirsch
2012-04-27, 13:19:42
3960x@ 4500mhz, 7970 cf @ 1250/1600
16x16, ~1100fps
http://www.abload.de/thumb/csrt16x16_2012_04_27_ytifw.jpg (http://www.abload.de/image.php?img=csrt16x16_2012_04_27_ytifw.jpg)
Blediator16
2012-04-27, 15:03:04
16x16 und 8x8 6950 stock und 2500k stock
beides 235fps
ATI 5870@Stock
8x8: 308fps
16x16: 251fps
HarryHirsch
2012-04-27, 20:42:42
4-Way GTX680 16x16 :wink: (einfaches AFR-Profil)
http://www.abload.de/img/4way680qsuta.jpg
hast du schon mal vollbild probiert?
Blaire
2012-04-27, 21:19:32
hast du schon mal vollbild probiert?
Jo die FPS sind jedoch identisch und die GPU-Usage noch geringer, wie Coda bereits vermutet hat, wirds wohl ein Treiber-Problem sein.
7970 @1000/1425 (Std):
8x8: 515
16x16: 450
7970 @1100/1500 (Spiele-Einstellung @stock-Voltage):
8x8: 565
16x16: 490
Oh, und weil ich spasseshalber mal den Taskmanager laufen lassen wollte: Drücke ich ctrl+alt+del während der Benchmark läuft, hängt der PC mit schwarzem Bildschirm, dito wenn ich etwas starte, das einen UAC-Prompt öffnet.
Blediator16
2012-04-28, 01:19:01
ATI 5870@Stock
8x8: 308fps
16x16: 251fps
Ich dachte die 6950 und 5870 wären nicht weit von einander entfernt oder ist die 6950 nur in Tesslation besser? Im 8x8 ist sie locker 30% schneller:confused:
Merlin-.-
2012-04-28, 12:45:40
Einmal die 6950@stock-Werte bestätigt und einmal mit 950/1375 OC (+19%/+10%), resultierend in 17% Leistungsgewinn.
Rumbah
2012-04-28, 13:21:21
Mit einer 6870 mit normaler Taktung:
8x8: 240 fps
16x16: 220 fps
Berserkervmax
2012-04-28, 14:34:06
I7 2600K @ 4600Mhz
570 GTX OC @ 930Mhz Ram 2200
um die 285FPS 8x8
um die 280 FPS 16x16
Kaum Unterschied zwischen 8x8 oder 16x16
Mit normaler Taktung (786Mhz) um die 240 FPS
Der Ram Takt scheint keine auswirkungen zu haben !
DerRob
2012-04-28, 14:39:05
GTX 470 @ 608/1674 MHz (default)
8x8 = 181 fps, 16x16 = 179 fps
GTX 470 @ 608/1800 MHz
8x8 = 181 fps, 16x16 = 179 fps
GTX 470 @ 700/1674 MHz
8x8 = 207 fps, 16x16 = 205 fps
GTX 470 @ 700/1800 MHz
8x8 = 207 fps, 16x16 = 205 fps
Maik Rutsche
2012-04-28, 15:18:56
XFX HD 6770 stock (850/1200) @ 99% Aktivität
8x8 => 158fps
16x16 => 128fps
waringer
2012-04-28, 16:42:17
GTX580 Default Takt (772/1544/2005)
Treiber 301.24
8x8 @266
16x16x @264
HarryHirsch
2012-04-28, 17:21:53
Jo die FPS sind jedoch identisch und die GPU-Usage noch geringer, wie Coda bereits vermutet hat, wirds wohl ein Treiber-Problem sein.
er hat aber doch geschrieben:
Deshalb testen wir es ja! In ComputeShadern gibt's auch keine wirkliche Treiber-Ausrede.
?!
wird es noch eine dp version geben?
weil:
Da wird der Benchmark wohl nur mit einfacher Genauigkeit Arbeiten, bei der relevanten doppelten Genauigkeit würde die GTX680 wieder deutlich abfallen.
Da jetzt eine ComputeShader "stärke" der GTX680 hinein zu interpretieren und von der 7970 deutlich mehr zu erwarten, halte ich für sehr gewagt aus dem oben genannten Grund.
würde mich mal interessieren ob das wirklich so ist.
Blaire
2012-04-28, 17:42:15
Es ging um SLI... ist im Endeffekt auch Wayne.
sputnik1969
2012-04-28, 20:52:08
würde mich mal interessieren ob das wirklich so ist.
Darauf würde ich sogar meinen Hintern verwetten, dass die GTX680 weit abgeschlagen ist und eher nur knapp über dem Niveau einer 7870 läge (wenn überhaupt).
Aber das ist meiner Ansicht nach im Prinzip nur theoretischer Natur, denn wer benötigt im privaten Umfeld WIRKLICH 64 Bit Genauigkeit? Die ist eigentlich nur für wissenschaftliche Zwecke nötig, für jede Form von (nicht-wissenschaftlicher) Grafikberechnung reicht 32 Bit Genauigkeit aus. Ich wette das man den Unterschied nur in Extremfällen wirklich sehen kann.
http://s1.directupload.net/images/120428/4uijvima.png (http://www.directupload.net)
Oliver_M.D
2012-04-28, 23:19:59
XFX HD 6850 @ 800 / 1050 (Default?)
8x8 = 177
16x16 = 162
EDIT: Bin ja kein experte aber "das alles" auf nur 5KB?? Respekt von meiner seite!
gorg_graggel
2012-04-29, 00:43:10
Radeon 7970 @1000/1375 (werks oc, son gigabyte windforce dingen):
csrt8x8:
Frames: 29916 - Time: 60000ms - Avg: 498.600 - Min: 489 - Max: 509
csrt16x16:
Frames: 25975 - Time: 60000ms - Avg: 432.917 - Min: 425 - Max: 445
das is single precision, oder?
der benchmark is evtl. noch interessant:
http://clbenchmark.com/
Blaire
2012-04-29, 01:25:56
GTX480@default
8x8: - 234 fps
16x16: - 232 fps
Einfach mal ein Hallo, immer noch nicht gewechselt? =)
HarryHirsch
2012-04-29, 03:09:22
Es ging um SLI... ist im Endeffekt auch Wayne.
wie sollte es auch anders sein... ein ati default profil regelt wie üblich.
generell bei gpgpu ist es ja so. afr? wtf?
Neurosphere
2012-04-29, 09:28:28
Geforce GTX 580 3GB
8x8 = 271
16x16 = 267
Ich hatte vorher noch den 295er Treiber drauf und nun auf den neuen Beta gewechselt. Das hat ca. 10 Punkte gebracht. Die paar Pünktchen weniger zur bisherigen 580er Referenz dürfte wohl dem Speicher geschuldet sein.
Madness
2012-04-29, 09:40:52
ATI 5870 default / Catalyst 12.4
8x8: 301fsp
16x16: 248fps
marc-05
2012-04-29, 17:07:02
Alle Karten im Standart-Takt
HD 5850
16x16 -> 195 FPS
8x8 ---> 234 FPS
HD 5750
16x16 -> 95 FPS
8x8 ---> 125 FPS
HD 5450
16x16 -> 9FPS
8x8 ---> 11FPS
[BlizZarD]
2012-04-30, 02:00:33
Gainward 680 GTX
8x8 490 FPS
16x16 240 FPS
Sind das die Texturgrößen?
CrimsoN
2012-04-30, 10:12:07
GTX 460 @ 860MHz
8x8 = 200FPS
16x16 = 200FPS
Da kann was nicht stimmen.
Edit: Neues Runtime und Treiber(296.10) ist drauf
;9275159']Gainward 680 GTX
8x8 490 FPS
16x16 240 FPS
Sind das die Texturgrößen?Nein:Okay, es hat wohl tatsächlich einen Register-Überlauf gegeben. Ich hab die Blockgröße reduziert und jetzt läuft es deutlich schneller (484 FPS). Hab's nochmal hochgeladen, sorry.
Kann gut sein, dass das Register-File bei GK104 ziemlich klein ist.
wie sollte es auch anders sein... ein ati default profil regelt wie üblich.
generell bei gpgpu ist es ja so. afr? wtf?
Da verwendet CF natürlich auch AFR.
;9275159']Gainward 680 GTX
8x8 490 FPS
16x16 240 FPS
Sind das die Texturgrößen?
Es gibt keine Texturen.
[BlizZarD]
2012-04-30, 16:03:09
Und was genau wird mit dem Benchmark getestet?
Müsste man bei kleineren Blockgrößen nicht insgesamt mehr Blöcke verbrauchen
und damit nicht mehr Register belegen? Was aber genau anders rum ist.
Gipsel
2012-04-30, 16:31:09
@Coda:
Poste doch einfach mal den ComputeShader HLSL Code! :D
BeetleatWar1977
2012-04-30, 17:18:30
Da der GTX 680 eine Compute-Schwäche unterstellt wird, nie ordentlich reines DX11 CS getestet wurde und es mir langweilig war:
Ein DX11-Raytracer in 4,75 KB:
16x16 Blockgröße (https://axelgneiting.de/share/csrt16x16.exe)
8x8 Blockgröße (https://axelgneiting.de/share/csrt8x8.exe)
Man verwende FRAPS für die FPS-Anzeige. Meine GTX 680 schafft 237 484 FPS.
(Fall es es überhaupt nichts tut, kann die GPU DX11 nicht oder die neuste DX11-Runtime ist nicht installiert)
Ich beschwere mich nur ungern, aber bei beiden Dateien schlägt mein Virenscanner an (avira)
In der Datei 'C:\Users\Carsten\Downloads\csrt8x8.exe'
wurde ein Virus oder unerwünschtes Programm 'HEUR/Crypted' [heuristic] gefunden.
Ausgeführte Aktion: Zugriff verweigern
ibm9001
2012-04-30, 19:03:13
6950@1536_Shader@880MHz & i5 2500K/4GHz
8x8 ca. 278 FPS
16x16 ca. 275 FPS
ibm9001
_______________
Daddelmaschine: i5 2500K/4GHz/EKL Brocken & NOCTUA NF-F12 // Fatal1ty P67 Performance // 16GB (Corsair Vengeance LP,DDR3-1600) // Sapphire 6950@1536_Shader@880MHz@1.175V // DELL P2210 // SB Audigy 2 // Samsung 470 64GB SSD
_______________
Internet-Kiste: AMD Athlon II X3 435 @ 4Core @1.1875V + SCYTHE Big Shuriken // ASROCK A785GMH/128M // 12 GByte Ram // Sapphire HD 6670 low Profile // Dell UltraSharp 2007FP // Samsung 470 64GB SSD
DerRob
2012-04-30, 22:58:58
Ich beschwere mich nur ungern, aber bei beiden Dateien schlägt mein Virenscanner an (avira)
Bravo, die Heuristik deines Virenscanners hat erkannt, dass es sich wohl um eine komprimierte/verschlüsselte Datei handelt. Kleines Programm und (vermutlich) direkte Hardware-Zugriffe sind halt verdächtig. ;)
@Coda:
Poste doch einfach mal den ComputeShader HLSL Code! :D
Der ist zu peinlich ;P
Ich beschwere mich nur ungern, aber bei beiden Dateien schlägt mein Virenscanner an (avira)
Das ist der Exe-Packer. Kannst du getrost ignorieren.
Bravo, die Heuristik deines Virenscanners hat erkannt, dass es sich wohl um eine komprimierte/verschlüsselte Datei handelt. Kleines Programm und (vermutlich) direkte Hardware-Zugriffe sind halt verdächtig. ;)
Nichts mit direktem Hardware-Zugriff. Der Virenscanner kann einfach die Datei nicht ansehen, weil es den Packer nicht kennt und läuft deshalb grundsätzlich Amok.
BeetleatWar1977
2012-05-01, 08:30:35
Der ist zu peinlich ;P
Das ist der Exe-Packer. Kannst du getrost ignorieren.
Nichts mit direktem Hardware-Zugriff. Der Virenscanner kann einfach die Datei nicht ansehen, weil es den Packer nicht kennt und läuft deshalb grundsätzlich Amok.
Ich vertrau dir mal:D hätte ja auch sein können das der Server sich einen Virus eingefangen hat....
GTX470@Stock, Win7 x86, FW 301.32
8x8: 180FPS
16x16: 180FPS
GTX470@700/1800
8x8: 211FPS
16x16: 211FPS
und der heizt fast so gut wie der Furmark^^
Dumme Frage: wären vielleicht noch ein paar verschiedene Versionen drin? 4x4, 2x2, 32x32 - nur so zum testen.....
Edit: Welche CS version? 5.0?
und ist das der RegistercountxThreads oder TilesxTiles? Fragen über Fragen........
Mr. Lolman
2012-05-01, 09:09:03
HD5870@950/1300, Q9450@3.6GHz, Win7x64, Cat. 12.4 Beta:
8x8: 338-346 fps
16x16: 274-281 fps
Kingbob
2012-05-01, 09:44:07
GTX 560TI 950/2200
http://s1.directupload.net/images/120501/d9y99msa.png (http://www.directupload.net)
Edit: Welche CS version? 5.0?
D3D11 = CS 5.0
und ist das der RegistercountxThreads oder TilesxTiles? Fragen über Fragen........
Die Tile-Größe.
Gipsel
2012-05-01, 11:32:16
Dumme Frage: wären vielleicht noch ein paar verschiedene Versionen drin? 4x4, 2x2, 32x32 - nur so zum testen.....Wir wissen ja nicht, was Coda da treibt (deswegen fragte ich ja nach dem Code ;)), aber zu kleine Blockgrößen werden wahrscheinlich irgendwann ineffizient (obwohl Coda das anfangs schon für 8x8 vermutet hatte und keine GPU ist damit langsamer als mit 16x16) und bei zu großen werden wahrscheinlich alle GPUs in die Schwäche laufen, die sich bei der GTX680 bereits bei 16x16 zeigt. Aber zumindest ich weiß eigentlich auch immer noch nicht, was die Blockgrößen eigentlich genau sind (Blockgrößen wie bei CUDA, also die Größe der Workgroups?).
Gipsel
2012-05-01, 11:33:25
D3D11 = CS 5.0Und ich dachte, man kann das optional auch mit SM4.1 oder 4.0 nutzen.
BeetleatWar1977
2012-05-01, 11:37:24
Und ich dachte, man kann das optional auch mit SM4.1 oder 4.0 nutzen.
Kann man - aber da gibts dann einige limits.....
Gipsel
2012-05-01, 11:39:39
Kann man - aber da gibts dann einige limits.....Schon klar. Die Frage ist ja eigentlich, würde z.B. SM4.1 nicht reichen? Dann würde das auch auf noch etwas älterer Hardware laufen.
BeetleatWar1977
2012-05-01, 11:55:49
Schon klar. Die Frage ist ja eigentlich, würde z.B. SM4.1 nicht reichen? Dann würde das auch auf noch etwas älterer Hardware laufen.
Das hängt jetzt wieder vom Code ab :D
@Coda
8x4 wäre so ein Beispiel - soll ich wetten das die GTX680 da plötzlich unheimlich zulegt ;)
BeetleatWar1977
2012-05-01, 12:38:39
8x4 ist langsamer.
Sicher? Laut Whitepaper 32Pixel per Takt - oder ist dann der Overhead wieder zu groß?
Edit: oder hab ich mich wieder irgendwo verzettelt?
Sicher? Laut Whitepaper 32Pixel per Takt - oder ist dann der Overhead wieder zu groß?
Wat?
BeetleatWar1977
2012-05-01, 14:00:23
Wat?
http://www.geforce.com/Active/en_US/en_US/pdf/GeForce-GTX-680-Whitepaper-FINAL.pdf
GeForce GTX 680 contains four GPCs, delivering 32 pixels per clock.
Wie gesagt, oder hab ich mich verhauen?;)
Aquaschaf
2012-05-01, 14:29:30
http://www.geforce.com/Active/en_US/en_US/pdf/GeForce-GTX-680-Whitepaper-FINAL.pdf
Wie gesagt, oder hab ich mich verhauen?;)
Ja, das hat so direkt nichts mit der Tile-Größe in CS zu tun ;)
BeetleatWar1977
2012-05-01, 14:38:26
Ja, das hat so direkt nichts mit der Tile-Größe in CS zu tun ;)
Was dann - die SMX? dann wären es 192 - also z.b. 14x14 als Optimum.....
Irgendwo hab ich einen Hänger, ich koch mir erstmal noch einen Kaffee.
So einfach ist das alles nicht.
BeetleatWar1977
2012-05-01, 16:16:41
So einfach ist das alles nicht.
Da bliebe noch die Größe des Caches, die Anzahl der Threads,usw,usw - schon klar
Mir würde eine grobe Erklärung (oder ein passender Link) schon reichen(betreff optimale Größe der Tiles).
edit:
56. Why does 64×1 give bad performance in compute shaders?
One of the reasons is because of how the caches are setup on RV7XX devices. The caches
are optimized to work in a tiled mode, not in linear mode (which is the mode compute shaders
use). To get optimal cache re-use from the texture in compute shader mode on RV7XX
devices, reblock your thread IDs. A16x4, 8×8, or 4×16 should give you good enough blocking
to get similiar cache performance as your pixel shader kernel. This is because a cacheline
can be thought of as a 4×2 block of data coming in at once. So, for pixel shaders, 64 threads
are blocked in a 8×8 block that uses exactly eight cache lines. For compute shaders, your
64×1 block pattern uses 16 cache lines, but only uses half the data in each cache line
passt das so?
Kepler hat L1/Shared Memory dieselbe Größe 64KB, wenn du mit Float4 arbeitest wären das 256 Werte die in den Cache passen - noch korrekt?
Mit dem Cache hat das überhaupt nichts zu tun, den verwende ich nichtmal.
BeetleatWar1977
2012-05-01, 17:17:53
Mit dem Cache hat das überhaupt nichts zu tun, den verwende ich nichtmal.
Wieso verwenden - ich dachte der ist immer aktiv?
Mist - zurück ans Handbuch - scheiß Selbststudium......
Wieso verwenden - ich dachte der ist immer aktiv?
Mein Code schreibt genau einmal in den Framebuffer, alles andere ist reine Arithmetik. Der Cache ist natürlich aktiv, er wird aber einfach nicht verwendet, weil es keine Reads gibt.
BeetleatWar1977
2012-05-01, 17:32:46
Mein Code schreibt genau einmal in den Framebuffer, alles andere ist reine Arithmetik. Der Cache ist natürlich aktiv, er wird aber einfach nicht verwendet, weil es keine Reads gibt.
Deine Rechenoperationen sollten doch auch im Cache liegen oder? Du wirst ja wohl irgendwelche Zwischensummen haben, oder machst du alles in einem Rechenschritt?
Zwischenwerte werden in Registern gespeichert, nicht im Cache.
Gipsel
2012-05-01, 18:40:12
Was machst Du eigentlich, was über SM4.0 hinausgeht? Wenn ich das richtig interpretiere, nutzt Du ja auch nicht das local/shared memory.
In ne Textur schreiben (genauer gesagt den Back-Buffer). Faulheit unso.
Dudeastic
2012-05-04, 08:41:20
Schöner Benchmark,
mich würde jedoch auch mal was komplexeres interessieren, in dem letzten GPU Pro 3 Buch war nen Artikel über Raytracing mit ComputeShader, den Quelltext gibts hier: http://gpupro3.blogspot.de/
Leider war es mir bisher vergönnt mit der VC++ Express 2010 den Source zu kompilieren.
Noch nen Video dazu:
http://www.firstpost.com/topic/person/nvidia-ray-tracing-using-the-compute-shader-environment-mapping-video-GnDkeIn0j18-7106-5.html
Frank1974
2012-05-09, 10:02:07
GTX480@default
8x8: - 234 fps
16x16: - 232 fps
mfg
Frank
HD 7970@1000/1375MHz
8x8: - 523 fps
16x16: - 452 fps
mfg
Frank
Ronny145
2012-05-24, 12:57:20
i5-3570k Intel HD Graphics 4000 15.28.0.64.2729
8x8= 36 fps
16x16= 36 fps
Mit 15.26 Treibern gibt es Grafikfehler. Hier wäre 8x8 (37-40 fps) 1-2 fps schneller als 16x16.
ecodriver
2012-06-02, 15:07:54
i5 - 2500K @3300MHz
Cat. 12.6 + Cap 1
HD7950 @1000/1375MHz
8x8 = 452 FPS
16x16 = 401 FPS
HD7950 @925/1375MHz
8x8 = 419 FPS
16x16 = 364 FPS
HD7950 @880/1375MHz
8x8 = 399 FPS
16x16 = 354 FPS
M4xw0lf
2012-07-03, 18:16:15
HD 6970 @ 920/1375 MHz:
8x8 : 316 FPS
16x16 : 305 FPS
aufkrawall
2012-07-04, 17:15:28
8x8 GTX 670 OC: 515fps 490fps
Mach mal 16 auf 16 :rolleyes:
aufkrawall
2012-07-05, 16:51:14
Mach mal 16 auf 16 :rolleyes:
Wieso? ;)
Vielleicht hab ich nächste Woche wieder ne neue 670, mal sehen...
Der Test hier zieht jedenfalls extrem viel Strom, da drosselt sich der Turbo der 670 schon deutlich runter.
Scheiß Ökomist. :freak:
Da ich aus Erfahrung sagen kann, dass es spätestens dann mit der Herrlichkeit des GK104 vorbei ist (wie in so manchen Spielen aka Metro, AW@max und so manch andere Konsorten).
aufkrawall
2012-07-05, 18:11:38
Erstmal abwarten, wie zukünftige "How it's meant to be played"-Titel auf GK104 laufen werden.
Wenn Spiele auf der Radeon schneller laufen, die ich nicht mag: Von mir aus. ;)
gorg_graggel
2012-07-12, 00:22:23
Radeon 7970 @1000/1375 (werks oc, son gigabyte windforce dingen):
csrt8x8:
Frames: 29916 - Time: 60000ms - Avg: 498.600 - Min: 489 - Max: 509
csrt16x16:
Frames: 25975 - Time: 60000ms - Avg: 432.917 - Min: 425 - Max: 445
Update mit i7 3770k und 16gb ddr3 (vorher phenom 2 940 und 4gb ddr2), grafik gleich:
csrt8x8:
Frames: 30774 - Time: 60000ms - Avg: 512.900 - Min: 501 - Max: 521
csrt16x16:
Frames: 26744 - Time: 60000ms - Avg: 445.733 - Min: 438 - Max: 458
GTX 680 @ 1200 (Turbo)/ 3490
8x8: ~590 FPS
16x16: ~284 FPS
dargo
2012-07-12, 13:12:27
HD7970 @1100/1575Mhz
8x8 570fps
16x16 490fps
aufkrawall
2012-07-14, 15:58:00
GTX 670 OC 1230/1800 (diesmal ohne dazwischen funkendes PT):
8x8: 500fps
16x16: 304fps
Saugbär
2012-07-18, 12:04:59
Gigabyte GTX 670 OC 1215/1652
8x8: 490fps (Power Consumption 83% TDP)
16x16: 277fps (Power Consumption 85% TDP)
ASUS 7970 DCU 2 OC 1200/1625
8x8: 570-620
16x16: 488-545
HarryHirsch
2012-09-05, 01:47:14
7970 @ 1400/1600
16x16, ~600fps
http://www.abload.de/thumb/csrt16x162012-09-0501zsuhz.jpg (http://www.abload.de/image.php?img=csrt16x162012-09-0501zsuhz.jpg)
HarryHirsch
2012-11-04, 22:20:24
gtx670 @ 1300/1800
16x16 ~305fps
labecula
2012-11-14, 19:33:36
Da der GTX 680 eine Compute-Schwäche unterstellt wird, nie ordentlich reines DX11 CS getestet wurde und es mir langweilig war:
Ein DX11-Raytracer in 4,75 KB:
16x16 Blockgröße (https://axelgneiting.de/share/csrt16x16.exe)
8x8 Blockgröße (https://axelgneiting.de/share/csrt8x8.exe)
Man verwende FRAPS für die FPS-Anzeige. Meine GTX 680 schafft 237 484 FPS.
(Fall es es überhaupt nichts tut, kann die GPU DX11 nicht oder die neuste DX11-Runtime ist nicht installiert)
Bin verdutzt. Mit meinem alten 306.23 hatte ich auf der 660Ti unter 8*8 rund doppelt soviele fps wie unter 16*16 (was auch auf die Vorgänger Treiber zutraf). Mit dem beta 310.54 habe ich nun unter 16*16 nahezu die gleichen Werte wie unter 8*8... (464)
aufkrawall
2012-11-14, 19:49:53
Kann ich bestätigen. :confused:
Blaire
2012-11-14, 20:24:59
Hat man offensichtlich ne Treiber-Bremse gelöst... :tongue:
Single GTX680@Stock 16x16 ~466fps
http://www.abload.de/thumb/brakesolvedz6oou.png (http://www.abload.de/image.php?img=brakesolvedz6oou.png)
HarryHirsch
2012-11-14, 21:27:58
haut rein wie sau:
gtx670 @ 1300/1800
16x16 ~305fps
beta 310.54
http://www.abload.de/thumb/cropimagetxj5j.jpg (http://www.abload.de/image.php?img=cropimagetxj5j.jpg)
Saugbär
2012-11-17, 23:53:54
Gigabyte GTX 670 OC 1215/1652
8x8: 490fps (Power Consumption 83% TDP)
16x16: 277fps (Power Consumption 85% TDP)
Gigabyte GTX 670 OC 1228/1752
Beta 310.54
8x8: 493fps (Power Consumption 83% TDP)
16x16: 474fps (Power Consumption 92% TDP)
Ronny145
2012-12-03, 18:29:40
i5-3570k Intel HD Graphics 4000 15.28.0.64.2729
8x8= 36 fps
16x16= 36 fps
Mit 15.26 Treibern gibt es Grafikfehler. Hier wäre 8x8 (37-40 fps) 1-2 fps schneller als 16x16.
HD4000 15.31.64.2885
Fenstermodus:
8x8= 49 fps
16x16= 48 fps
Ich bin begeistert. :freak:
misterh
2012-12-03, 20:31:46
GTX 670 SLI
1920x1200 (Fullscreen)
8x8 : 782 FPS
http://www.abload.de/thumb/8x8-1920x1200uyqvf.png (http://www.abload.de/image.php?img=8x8-1920x1200uyqvf.png)
16x16 : 757 FPS
http://www.abload.de/thumb/16x16-1920x1200vfqnh.png (http://www.abload.de/image.php?img=16x16-1920x1200vfqnh.png)
aufkrawall
2012-12-03, 22:57:05
Mit welchem SLI-Bit hast du das denn geschafft?
misterh
2012-12-03, 23:08:15
Mit welchem SLI-Bit hast du das denn geschafft?
0x0C0200F5 für Max Payne 3
hab nicht länger getestet mit andere Bits
aufkrawall
2012-12-03, 23:25:48
Hm, damit wird GPU1 bei mir nur zu 60% ausgelastet und 2 zu 96%.
misterh
2012-12-03, 23:40:38
Hm, damit wird GPU1 bei mir nur zu 60% ausgelastet und 2 zu 96%.
ja fenster modus, aber nicht fullscreen.
hab ja oben im Klammer geschrieben.
Edit: werde nachher weiter rumspielen. Glaube nicht das ich eins finde für Fenstermodus.
aufkrawall
2012-12-03, 23:54:07
Ah, jetzt hab ichs geschnallt.
Spar dir lieber die Zeit für eine Lösung im Fenstermodus, hab recht viele Versuche erfolglos durch.
Für FSE tuts als Profil dann auch 0x08000001.
misterh
2012-12-04, 00:00:07
Ah, jetzt hab ichs geschnallt.
Spar dir lieber die Zeit für eine Lösung im Fenstermodus, hab recht viele Versuche erfolglos durch.
Für FSE tuts als Profil dann auch 0x08000001.
ok geht klar. schade
Irgend ein Witzbold hat gemeint, dass er ein Abuse an Netcup schicken muss weil die Dateien als Trojaner anschlagen (was ein False Positive ist) und sie haben mir deshalb den kompletten Server deaktiviert.
Jetzt sind sie halt weg.
labecula
2013-01-01, 10:33:15
Danke an den Vollpfosten...
4Fighting
2013-01-12, 13:33:07
Ich hab die dateien noch da. Spricht was dagegen sie auf einen Filehoster hochzuladen ?
aufkrawall
2013-01-21, 20:29:09
Ich hab die dateien noch da. Spricht was dagegen sie auf einen Filehoster hochzuladen ?
Offenbar nicht, lad sie mal bitte hoch. ;)
Ich hatte schon mit Recuva meinen Download-Ordner durchwühlt, war aber leider nur noch Datenschrott.
Ronny145
2013-01-22, 18:28:29
Welcher Virenscanner meldet Trojaner? Eset Smart Security 6 bleibt still. Die beiden Files sind im Anhang (zip zur exe ändern).
StevenB
2013-01-29, 14:49:13
Welcher Virenscanner meldet Trojaner? Eset Smart Security 6 bleibt still. Die beiden Files sind im Anhang (zip zur exe ändern).
Gdata 2013 Internet Security meldet auch Trojaner.
Trojan.Generic.8361767 (Engine A)
4Fighting
2013-02-28, 13:50:57
16x16 515FPS / gtx 670
http://www.abload.de/thumb/csrt16x162013-02-2813d3p0h.png (http://www.abload.de/image.php?img=csrt16x162013-02-2813d3p0h.png)
misterh
2013-08-05, 19:24:16
Intel i5 4750HQ
Iris Pro 5200
2x4 GB DDR3L-1600 CL11
8x8
http://abload.de/img/csrt8x82013-08-0519-2g9y1o.png
16x16
http://abload.de/img/csrt16x162013-08-0519wja35.png
Ronny145
2013-08-05, 20:28:56
Welcher Treiber? Wenn du nicht gerade den in dem Benchmark deutlich schnelleren 9.18.10.2885 nutzt sind die Werte nicht übel. Meine HD4600 kommt nur auf 41 fps mit 16x16.
misterh
2013-08-05, 21:17:54
Welcher Treiber? Wenn du nicht gerade den in dem Benchmark deutlich schnelleren 9.18.10.2885 nutzt sind die Werte nicht übel. Meine HD4600 kommt nur auf 41 fps mit 16x16.
na Win8/8.1 Treiber. die nutze ich unter Win7
09.18.10.3214
edit:
mit 15.31.9.64.3165 hab ich dann 2-3 fps weniger
Darkman.X
2013-08-06, 00:39:20
Mal sehen was GK110 da so macht.
Da sich hier noch kein Titan- oder 780er-User meldete, bringe ich mal die Ergebnisse. Wobei es wahrscheinlich nicht mehr bringt, da Nvidia wohl seit den 310er-Treibern eine Bremse bei den 6xx-GraKas gelöst hatte.
GTX 780 @ default.
Den Turbotakt konnte die GraKa nur wenige Sekunden halten, Werte also mit 862 MHz aufgenommen. Mit 993 MHz (Standard Max-Turbo) waren es genau 100 fps mehr.
Treiber v320.49
8x8 = 645 fps
16x16 = 643 fps
fps-Werte sind Max-Werte. Die Werte schwankten immer zwischen 625 und 645 fps.
aufkrawall
2014-03-26, 23:35:50
780 Ti@1290/3800
8x8: 1044fps (max)
16x16: 1031fps (max)
Ronny G.
2014-03-27, 01:47:55
gibt es nen gültigen DL Link ohne Virus Warnung?
Danke ;-)
HarryHirsch
2014-04-01, 16:55:45
2x ATi R9 290X
http://abload.de/img/csrt16x16_2014_04_01_5oulq.png (http://abload.de/image.php?img=csrt16x16_2014_04_01_5oulq.png)
-/\-CruNcher-/\-
2014-04-01, 17:07:43
Gibt es 750 TI (Maxwell) werte irgendwo mit Codas Compute test ?
aufkrawall
2014-04-01, 17:14:34
Kannst ja mal OC_burner anschreiben.
OC_Burner
2014-04-02, 00:22:53
4770k@3.7GHz
2x8GB DDR3 2400 (11-12-11-32-2T)
Win 8.0 64-bit
GeForce Driver 334.89
Titan@1000/3000
8x8 = 770 fps
16x16 = 770 fps
750 Ti@1163/2700
8x8 = 251 fps
16x16 = 258 fps
-/\-CruNcher-/\-
2014-04-02, 04:44:22
Oc_Burner sind es bei 1000 MHz ~200 ?
OC_Burner
2014-04-02, 13:48:20
Nein,
bei 1006 sind es:
8x8 = 219 fps
16x16 = 224 fps
Achill
2014-04-29, 00:47:56
AMD FX-8350@Default+Turbo
AMD R290X Tri-X@Default (1040/1300)
2014-04-28 22:42:39 - csrt8x8
Frames: 7238 - Time: 10000ms - Avg: 723.800 - Min: 719 - Max: 728
2014-04-28 22:43:30 - csrt16x16
Frames: 6970 - Time: 10000ms - Avg: 697.000 - Min: 682 - Max: 705
Ich musste per RadeonPro Tool den Takt forcieren, da der Speichertakt immer zwischen 150 & 1300 laut GPU-Z schwankte.
aufkrawall
2014-04-29, 06:32:03
Ist wahrscheinlich nur ein Auslesefehler des Catalysts.
aufkrawall
2014-09-20, 19:33:04
Bitte die GM204-User mal testen, gerne auch mit OC.
Benchmarks sind im Anhang, Passwort ist "benchmark" (Virenscanner machen Fehlalarme).
BeetleatWar1977
2014-09-20, 20:45:17
GTX670@stock FW 344.11
8x8 = 452
16x16 = 452
Woklbokl
2014-09-20, 22:25:47
GTX 980 @ 1537/1950, mehr geht nicht ohne ModBios (aber das ist schon in Arbeit :>)
8x8 Frames: 29212 - Time: 30000ms - Avg: 973.733 - Min: 953 - Max: 991
16x16 Frames: 30516 - Time: 30000ms - Avg: 1017.200 - Min: 996 - Max: 1032
aufkrawall
2014-09-20, 22:31:41
Interessant, der Fall scheint nicht die Stärke des Chips zu sein.
Eigentlich müsste er mit 300Mhz mehr als mein GK110 ein Stück schneller sein, was er aber nicht ist.
Woklbokl
2014-09-20, 22:36:43
Interessant, der Fall scheint nicht die Stärke des Chips zu sein.
Eigentlich müsste er mit 300Mhz mehr als mein GK110 ein Stück schneller sein, was er aber nicht ist.
Im Unigine Valley hinkt Maxwell auch ziemlich hinterher, dann gibts so Games wie Watch Dogs. Da rennt die 980 meiner OC Titan ganz schön davon.
GTX 980 @ 1537/1950, mehr geht nicht ohne ModBios (aber das ist schon in Arbeit :>)
Auf wieviel hast Du hier die Spannung erhöht? Ich hab gestern mal leichsinnigerweise auf 87 mV erhöht, und damit das System zum Abstürzen gebracht.
Woklbokl
2014-09-20, 23:50:29
Auf wieviel hast Du hier die Spannung erhöht? Ich hab gestern mal leichsinnigerweise auf 87 mV erhöht, und damit das System zum Abstürzen gebracht.
Alles über 12,5 mv hat keine Wirkung.
Das sind dann 1,25V (max für Maxwell), die liegen aber fast nie an. Aber ModBios ist bald fertig.
aufkrawall
2014-09-20, 23:55:21
Mit Kepler Bios Tweaker kann man an den Werten für Spannung und TDP im 980 Bios drehen.
Hat das einen Effekt?
Radeonfreak
2014-09-20, 23:57:55
@ Phuv und Woklbokl
Habt Ihr ne Ahnung wie hoch man gefahrlos das Temperaturtarget setzen kann?
Woklbokl
2014-09-21, 00:00:39
Mit Kepler Bios Tweaker kann man an den Werten für Spannung und TDP im 980 Bios drehen.
Hat das einen Effekt?
Wie hast du dein Bios ausgelesen? Wir mussten hier eine OEM Version von NvFlash modifizieren damit es bei eine GTX 980 SC von EVGA funktioniert.
Mit dem KBT haben wir bisher nichts probiert, gibt einige Unterschiede beim Bios Aufbau im Vergleich zu Kepler.
Kannst es ja selbst mal probieren und dann berichten, solange man eine igpu oder 2. Karte rumliegen hat klappen auch die Rettungsflashs ohne Probleme.
Woklbokl
2014-09-21, 00:01:42
@ Phuv und Woklbokl
Habt Ihr ne Ahnung wie hoch man gefahrlos das Temperaturtarget setzen kann?
91° ist das Max und das sollte auch save sein.
Selbst mit Referenz Kühler wird es Schwer die 91° zu erreichen, es sei denn man fixiert den Lüfter auf einer niedrigen Drehzahl.
aufkrawall
2014-09-21, 00:04:20
Wie hast du dein Bios ausgelesen? Wir mussten hier eine OEM Version von NvFlash modifizieren damit es bei eine GTX 980 SC von EVGA funktioniert.
Mit dem KBT haben wir bisher nichts probiert, gibt einige Unterschiede beim Bios Aufbau im Vergleich zu Kepler.
Kannst es ja selbst mal probieren und dann berichten, solange man eine igpu oder 2. Karte rumliegen hat klappen auch die Rettungsflashs ohne Probleme.
Ich habe keine Karte, ich habe das Bios von Techpowerup geladen.
Woklbokl
2014-09-21, 00:06:22
Ich habe keine Karte, ich habe das Bios von Techpowerup geladen.
Ok das erklärt es, die Jungs im OCN können nämlich auch nix auslesen :biggrin:
AnarchX
2014-09-21, 09:18:11
Interessant, der Fall scheint nicht die Stärke des Chips zu sein.
Eigentlich müsste er mit 300Mhz mehr als mein GK110 ein Stück schneller sein, was er aber nicht ist.
Theoretisch hat GK110 eben mehr Rechenleistung, die er hier vielleicht teilweise auch anwenden kann: der Code lässt teilweise superskalar ausführen.
ModBios (aber das ist schon in Arbeit :>)
Wo, was, wie? Mehr Information, bitte. :D
MfG,
Raff
8x8: 51 Fps
16x16: 48 Fps
:ulol:
Intel HD 4600 (GT2) @ 1.250 MHz, Windows 8.1 x64, GPU-Treiber von Ende August
MfG,
Raff
Woklbokl
2014-09-21, 22:07:39
Wo, was, wie? Mehr Information, bitte. :D
MfG,
Raff
Naja wir sind dran, auslesen tut unser modifiziertes nvflash auch, aber schreiben nicht :(
Naja wir sind dran, auslesen tut unser modifiziertes nvflash auch, aber schreiben nicht :(
Eröffnet ihr einen Mod-Thread? =)
Übrigens gelangen mir ein paar CSRT-Blitztests mit 1.550/4.100 MHz. Die GTX 980 ist aber unvergleichlich schnell abgeschmiert: :ugly:
8x8: ~990 Fps
16x16: ~1030 Fps
MfG,
Raff
aufkrawall
2014-09-24, 16:52:52
Mit kleineren Registern läufts langsamer?
Das gabs afaik bis jetzt bei keiner GPU.
Yep, deckt sich aber perfekt mit Woklbokls Werten: GTX 980 @ 1537/1950, mehr geht nicht ohne ModBios (aber das ist schon in Arbeit :>)
8x8 Frames: 29212 - Time: 30000ms - Avg: 973.733 - Min: 953 - Max: 991
16x16 Frames: 30516 - Time: 30000ms - Avg: 1017.200 - Min: 996 - Max: 1032
Ziemlich schnell für lediglich 2.048 ALUs, aber das ist keine Überraschung.
MfG,
Raff
Woklbokl
2014-09-24, 17:36:11
Eröffnet ihr einen Mod-Thread? =)
Übrigens gelangen mir ein paar CSRT-Blitztests mit 1.550/4.100 MHz. Die GTX 980 ist aber unvergleichlich schnell abgeschmiert: :ugly:
8x8: ~990 Fps
16x16: ~1030 Fps
MfG,
Raff
Glaub den Mod Thread kann man sich sparen.
Ohne passende Signatur geht kein Flash, auch nicht mit modifiziertem nvflash.
Da sich die Signatur bei jeder Änderung am Bios natürlich auch ändert würde das jegliche Mods ausschließen.
Die Frage ist halt, ob das gewollt ist (ist schon seit GTX 680 implementiert) oder ob Nvidia noch eine Version bringt mit der man keine passende Signatur mehr braucht.
Dieses Problem erinnert mich an die Geschichte mit den HD-7000-Karten. Das führte sogar dazu, dass der RBE-Autor die Weiterentwicklung des Tools auf Eis legte. Dann kam irgendwan ein anderer, der sagte "Geht doch, ganz ohne Signatur-Gefummel". Bei Kepler geht's doch auch, allerdings mit "MODIFIED"-Tag nach dem Flash, hmm ...
MfG,
Raff
aufkrawall
2014-09-24, 19:37:54
Sicherheitshalber würd ich die maximale TDP beim Kauf einer Custom Karte in die Abwägung mit einziehen.
-/\-CruNcher-/\-
2014-09-24, 20:25:41
Glaub den Mod Thread kann man sich sparen.
Ohne passende Signatur geht kein Flash, auch nicht mit modifiziertem nvflash.
Da sich die Signatur bei jeder Änderung am Bios natürlich auch ändert würde das jegliche Mods ausschließen.
Die Frage ist halt, ob das gewollt ist (ist schon seit GTX 680 implementiert) oder ob Nvidia noch eine Version bringt mit der man keine passende Signatur mehr braucht.
Gewollt Secureboot (Uefi) muss geschützt werden.
In Zukunft wird es keine Mod biose mehr geben, und man sollte darauf achten und sich darauf einstellen wenn das normale Bios endgültig wegfällt wird die Karte nicht mehr booten ohne UEFI part in einem Secureboot system die Umstellung läuft auf hochtouren.
Rente
2014-09-24, 20:37:20
So ein Unsinn, das Bios der GPU muss GOP bieten, aber nicht unveränderbar sein.
Woklbokl
2014-09-24, 22:10:36
Dieses Problem erinnert mich an die Geschichte mit den HD-7000-Karten. Das führte sogar dazu, dass der RBE-Autor die Weiterentwicklung des Tools auf Eis legte. Dann kam irgendwan ein anderer, der sagte "Geht doch, ganz ohne Signatur-Gefummel". Bei Kepler geht's doch auch, allerdings mit "MODIFIED"-Tag nach dem Flash, hmm ...
MfG,
Raff
skyn3t hat wohl ne passende nvflash Version.
Mal sehen ob da noch was kommt.
Hauptsache ich muss sein Bios nich benutzen... :freak:
aufkrawall
2015-04-06, 19:34:00
Mal ein Titan (Wi)Xer? :tongue:
-=Popeye=-
2015-04-06, 22:30:00
csrt8x8
http://abload.de/thumb/csrt8x8_2015_04_06_22jaudh.png (http://abload.de/image.php?img=csrt8x8_2015_04_06_22jaudh.png)
csrt16x16
http://abload.de/thumb/csrt16x16_2015_04_06_v7uoc.png (http://abload.de/image.php?img=csrt16x16_2015_04_06_v7uoc.png)
8×8 Blockgröße: 941-950 Fps
16×16 Blockgröße: 982-991 Fps
i7-5820K @ 2,5 GHz, GTX Titan @ 1.254/3.703 MHz, Geforce 347.88 WHQL @ Q, Windows 8.1 x64
MfG,
Raff
aufkrawall
2015-04-07, 22:29:29
Nicht vergessen: Nicht mit Fraps die fps messen, das hat offenbar einen größeren Overhead als Afterburner/RTSS und drückt die fps etwas in dem unrealistischen Bereich.
Titan X scheint angesichts der nur begrenzt gestiegenen Rohpower gegenüber der 780 Ti erwartbar gut dabei zu sein.
Bei der Titan-Classic fehlen natürlich die deaktivierten Blöcke.
Mit dem RTSS 6.3 statt Fraps :|:
8×8 Blockgröße: ~1.040 Fps
16×16 Blockgröße: ~1.070 Fps
Vierstellig gefällt mir deutlich besser. :D
MfG,
Raff
GTX Titan X @ 1.600/4.099 MHz :naughty:
8×8 Blockgröße: ~1.600 Fps
16×16 Blockgröße: ~1.610 Fps
MfG,
Raff
M4xw0lf
2015-04-08, 12:23:26
GTX Titan X @ 1.600/4.099 MHz :naughty:
8×8 Blockgröße: ~1.600 Fps
16×16 Blockgröße: ~1.610 Fps
MfG,
Raff
5% Vorteil pro Takt und SP gegenüber Kepler-Titan - nicht sehr geil, eigentlich.
aufkrawall
2015-04-08, 12:30:23
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10359309&postcount=188
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.