Archiv verlassen und diese Seite im Standarddesign anzeigen : Grafikleistung der CPUs
Nightspider
2006-10-04, 23:51:54
Mir ist gerade eine interessante Frage durch den Kopf gewandert:
Mit welcher Grafikkarte, könnte man heute CPU Kerne vergleichen, wenn ein CPU komplett die Grafik übernehmen sollte ? Nehmen wir mal einen Kern, eines Core 2 Duo, aus dem Mittelfeld, mit 2,4 Ghz (e6600)...wäre dieser vielleicht so schnell wie eine Geforce 2 ?
Könnte man heute schon Office Systeme aus Dualcore CPUs bauen, wo der 2. Core den Grafikteil übernimmt ? Oder mit Quadcore ?
Udragor
2006-10-05, 00:33:33
Ich tipp ehrlich gesagt eher auf eine S3 Virge oder maximal eine Matrox Mystique. Man muss sich ja nur mal die CPU Tests von, sagen wir mal, 3dmark99 oder 2001 anschaun. Was da selbst heutige CPUs abliefern, ist nicht so berauschend. Aber dafür sind CPUs ja auch nicht gebaut.. Ein reines Office-System, bei der ein 2. Core den 2D-Teil übernimmt, wäre aber denke ich möglich... allerdings ist das mit VISTA dann auch wieder vorbei.
tombman
2006-10-05, 00:45:45
Ich bezweifle ob man überhaupt voodoo1 speed erreichen kann...
Siehe beispielweise hier:
http://www.heise.de/newsticker/meldung/78948
Die Beta-Version des neuen Clients für ATI-Grafikchips der X1900-Reihe ist dank der 48 parallelgeschalteten Pixel-Shader rund 20- bis 40-mal schneller als ein CPU-basierter Client. Ein X1900-Chip soll selbst die Cell-CPU der Playstation 3 noch um den Faktor 2 überflügeln und mit der speziell angepassten Folding-Software etwa 100 GFLOPS leisten. Wenn sich mindestens 10.000 PC-Besitzer an dem Projekt beteiligen, würde man in den Peta-FLOPS-Bereich vorstoßen und damit jeden existierenden Supercomputer übertreffen.
Ganon
2006-10-05, 08:24:27
Je nachdem welche Detailstufe du willst. ;)
Ich hatte damals einen PIII 700 mal benutzt und dann Quake3 in 320x200 auf hohen Detail rendern lassen. Also wirklich alles auf der CPU (reine MESA-Software-Treiber), auch Texturfilterung. Leistung? So ca. 0,1 fps, wenn überhaupt. ;)
Ich glaube nicht das eine jetzige CPU da mehr als 3 fps raus bekommt. Also die Leitung wäre unterirdisch. ;)
AnarchX
2006-10-05, 10:07:12
Alles eine Frage des Softwarerenderers:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=267950
;)
Hier schaffen die P-M/C-M durchaus Ergebnisse, die einem PC mit P3 ~500MHz + TNT2 entsprechen.
Ein C2D-Ergebnis wäre dochmal interessant. ;)
tombman
2006-10-05, 10:21:14
OK, hier mal Ergebnisse:
3Dmark2001, NATURE, 640x480 (Rest default).
Swiftshader Software: 6 fps
7950GX2 Hardware: 809 fps ;D
Hardware schneller als Software: Faktor 100 ;)
Ein Kentsfield mit 4 cores müßte, falls 3dm01 multithreaded wäre, REALTIME hinbekommen ;) (4x6 = 24fps)
AnarchX
2006-10-05, 10:27:03
OK, hier mal Ergebnisse:
3Dmark2001, NATURE, 640x480 (Rest default).
Swiftshader Software: 6 fps
7950GX2 Hardware: 809 fps ;D
Hardware schneller als Software: Faktor 100 ;)
Ein Kentsfield mit 4 cores müßte, falls 3dm01 multithreaded wäre, REALTIME hinbekommen ;) (4x6 = 24fps)
Dafür das hier Pixelshader in Software emuliert werden, doch ein durch akzeptables Ergebnis.
tombman
2006-10-05, 10:38:50
3dm01, ALLES default: 749 Punkte ;D;D
Swiftshader konnte das letzte Mal als ich mich damit beschäftigt habe kein Multithreading. Hat sich das geändert?
AnarchX
2006-10-05, 10:41:53
3dm01, ALLES default: 749 Punkte ;D;D
Mit 4GHz?
Scheint wohl nicht mehr so gut auf Core2 zu laufen, A.Wesker hatte ja damals schon 1k.:|
Swiftshader konnte das letzte Mal als ich mich damit beschäftigt habe kein Multithreading. Hat sich das geändert?
AFAIK nicht, das Projekt scheint irgendwie tot zu sein.
tombman
2006-10-05, 10:52:12
Mit 4GHz?
Scheint wohl nicht mehr so gut auf Core2 zu laufen, A.Wesker hatte ja damals schon 1k.:|
4.1ghz sogar. Jo, keine Ahnung, aber ist ja handoptimiert, und wer weiß ob wesker überall 32bit hatte wie ich...(textures, z-buffer...)
Hat der Swiftshade überhaupt die selbe Quali?
OK, hier mal Ergebnisse:
3Dmark2001, NATURE, 640x480 (Rest default).
Swiftshader Software: 6 fps
7950GX2 Hardware: 809 fps ;D
Hardware schneller als Software: Faktor 100 ;)
Ein Kentsfield mit 4 cores müßte, falls 3dm01 multithreaded wäre, REALTIME hinbekommen ;) (4x6 = 24fps)Größenordnung Faktor 100 ist korrekt, je nach dem könnte man auch auf Faktor 1000 kommen. Allerdings ist das Softwarerendering weit genug, um z. B. Max Payne 1 spielbar zu rendern. Mit Texturfilterung.
Imo ist Software-Rendering als Notmodus durchaus ok. Leider wird es bisher kaum genutzt.
BlackBirdSR
2006-10-05, 13:39:03
4.1ghz sogar. Jo, keine Ahnung, aber ist ja handoptimiert, und wer weiß ob wesker überall 32bit hatte wie ich...(textures, z-buffer...)
Swiftschader nutzt intensic MMX für die Berechnungen.
Es ist durchaus im Bereich des Möglichen, dass Core2 hier (verständlicherweise) kaum noch Optimierungen aufweist.
Wieso das denn? Integer-Vector-Zeugs muss immer noch alles über MMX...
BlackBirdSR
2006-10-05, 14:31:16
Wieso das denn? Integer-Vector-Zeugs muss immer noch alles über MMX...
Wird inzwischen durch (integer)SSE2 komplett ersetzt.
Daher verkommt MMX in zukünftigen Prozessoren wohl eher zu einem Checklist-Feature.
Wird inzwischen durch (integer)SSE2 komplett ersetzt.
Das sind im wesentlichen die selben Instructions. Warum sollten die für x87-Register weniger optimiert sein?
Glaub ich irgendwie nicht.
BlackBirdSR
2006-10-05, 15:02:21
Das sind im wesentlichen die selben Instructions. Warum sollten die für x87-Register weniger optimiert sein?
Glaub ich irgendwie nicht.
Man könnte schlicht und einfach die Funktionseinheiten die MMX bedienen limitieren und gleichzeitig die Latenzen erhöhen. So geschehen beim Pentium4, der gegenüber dem Pentium3/M in dieser Hinsicht viel langsamer war.
Welchen Grund sollte es noch geben, Resourcen auf MMX auszulegen, wenn MMX erstens veraltet und zweitens über 64Bit Windows implementationen gar nicht mehr genutzt wird?
Für mich macht das schon Sinn.
Mastermind
2006-10-05, 15:20:15
Wäre es sehr aufwändig, so ein Programm mit Optimierungen für neue Prozzies und ordentlich multithreaded zu coden? Ich denke da gerade an den recht erfolgreichen Mandelbrot-Thread. :D :smile:
Spasstiger
2006-10-05, 16:17:57
Auf meinem XDA mini kann ich übertaktet auf 619 MHz CPU-Takt und 62 MHz Speichertakt Quake 1 ziemlich flüssig spielen in 320x240 und mit 22 kHz Stereo-Sound. Handelt sich dabei allerdings um eine speziell fürs XDA mini neu compilierte und angepasste pocketquake.exe (bei der Standardversion kann ich nicht alle Tasten nutzen, habe nur 11 kHz Sound, dafür minimal bessere Grafik).
Für ein Handy/PDA ohne 3D-Beschleuniger auf jeden Fall nicht schlecht.
Poweraderrainer
2006-10-05, 16:24:23
also ich zocke gerade final fantasy 8 (640x480) nochmal durch - alles software gerendert. geht ohne probs.
hardware geht garnicht ohne bildfehler - liegt vllt am NV-treiber.
Wäre es sehr aufwändig, so ein Programm mit Optimierungen für neue Prozzies und ordentlich multithreaded zu coden? Ich denke da gerade an den recht erfolgreichen Mandelbrot-Thread. :D :smile:
Also die Vertexarbeit und das Triangle-Setup lässt sich ohne Probleme parallelisieren. Wie das beim Rasterizing aussieht lässt sich schwer abschätzen, auf jedenfall wirds nicht linear skalieren.
UT2004 hat auch einen Software-Renderer. Der ist gar nicht so langsam, man braucht bei weitem keinen Core 2 Duo um auf brauchbare FPS zu kommen.
Spasstiger
2006-10-05, 19:00:14
UT2004 hat auch einen Software-Renderer. Der ist gar nicht so langsam, man braucht bei weitem keinen Core 2 Duo um auf brauchbare FPS zu kommen.
Der liefert aber nicht dasselbe optische Ergebniss, wie eine Grafikkarte oder der Swiftshader-Renderer.
StefanV
2006-10-05, 19:05:58
Der stellt aber auch nicht alle Details da, die man mit HW Rendering hätte...
Insbesondere an der Filterung wird gern gespart ;
Der liefert aber nicht dasselbe optische Ergebniss, wie eine Grafikkarte oder der Swiftshader-Renderer.Darauf kommts bei Software-Renderer auch nicht unbedingt an. Es ist eher ein Ausweich-Modus, damit es überhaupt läuft.
Spasstiger
2006-10-06, 16:04:00
Darauf kommts bei Software-Renderer auch nicht unbedingt an. Es ist eher ein Ausweich-Modus, damit es überhaupt läuft.
Aber es ging hier ja um eine Leistungseinschätzung im Vergleich zu GPUs. Und da liefert der Standard-Softwarerenderer von UT2003/2004 eben kein Ergebniss, das vergleichbar wäre. Der Swiftshader-Renderer dagegen beherrscht DX8.1-und teilweise DX9-Shader, bilineare Texturfilterung und mehr.
Hier kann man also durchaus einen Vergleich mit GPUs anstellen.
Man kann den UT2004-Software-Renderer in der ini durchaus auf GPU-Niveau einstellen (zumindest rein bilinear).
Dann is die Performance aber wirklich hundsmiserabel. Normal rendert das Teil eh nur ein viertel Auflösung und skaliert dann hoch, benützt einfachere Shader und weniger detailierte Lightmaps.
Hier (http://www.mental-asylum.de/files/pixo.png) mal ein Screenshot davon.
Gut der Bilerp-Filter is bissel vereinfacht ;)
Edit: Es geht sogar noch schöner (echtes Bilinear), aber dann sinds endgültig 2 FPS.
Hab eine kleine Frage.
Wo werden bei Software-Rendering die Texturen "gespeichert" im Arbeitsspeicher oder auch im Speicher der Graka??
Wenn die im Arbeitsspeicher liegen werden die Ergebnisse doch verzehrt oder nicht??
Aber es ging hier ja um eine Leistungseinschätzung im Vergleich zu GPUs. Und da liefert der Standard-Softwarerenderer von UT2003/2004 eben kein Ergebniss, das vergleichbar wäre. Der Swiftshader-Renderer dagegen beherrscht DX8.1-und teilweise DX9-Shader, bilineare Texturfilterung und mehr.
Hier kann man also durchaus einen Vergleich mit GPUs anstellen.... wobei die GPU noch AA und AF böte, was der SW-Renderer (jedenfalls keiner, der mir bekannt ist) nicht böte. Insofern kann man imo – solange man darauf hinweist, dass die Qualität vom SW-Renderer von GPU-Qualität weit entfernt ist – den durchaus mit vereinfachter Filterung etc. antreten lassen. Die CPU hat eine Grafikleistung von etwa drei Größenordnungen (ganz rund Faktor 1000) unterhalb einer GPU, weshalb man schon mit einer 64-bittigen FX 5200 im Vergleich zum Software-Renderer ganz gut bedient ist.
Leider gibt es (auch gerade in Laptops) noch viele IGPs mit schrecklichen Treibern, die nicht alle Spiele fehlerfrei rendern. Dann wäre aus meiner Sicht ein Software-Modus als letzte Option ganz gut. Auch wenn die Grafikleistung verglichen bei gleicher Qualität 1000x geringer ist. Für einfachere 3D-Szenen (in 640x480, bei besseren CPUs 800x600) mit zwei Texturen die leidlich gefiltert sind, reicht es.
Es gibt ältere Spiele (Tropico) die aus irgendwelchen Gründen im HW-Modus bei mir heftige Grafikfehler erzeugen. (Früher lief das, ich weiß nicht, woran das liegt.) Dank Software-Modus kann ich es weiterhin spielen, wenn auch nicht mit sanften Farbübergängen.
Hab eine kleine Frage.
Wo werden bei Software-Rendering die Texturen "gespeichert" im Arbeitsspeicher oder auch im Speicher der Graka??
Wenn die im Arbeitsspeicher liegen werden die Ergebnisse doch verzehrt oder nicht??Zu meinst verzerrt (würden sie verzehrt, würden sie aufgegessen.) Die Texturen liegen für Software-Rendering im PC-Arbeitsspeicher.
Leider gibt es (auch gerade in Laptops) noch viele IGPs mit schrecklichen Treibern, die nicht alle Spiele fehlerfrei rendern. Dann wäre aus meiner Sicht ein Software-Modus als letzte Option ganz gut. Auch wenn die Grafikleistung verglichen bei gleicher Qualität 1000x geringer ist. Für einfachere 3D-Szenen (in 640x480, bei besseren CPUs 800x600) mit zwei Texturen die leidlich gefiltert sind, reicht es.
Und was machst du, wenn nebenbei auch noch so unwichtige Dinge wie Physik, KI oder sonstige Spielmechanik bererechnet werden wollen?
Da bräuchte man einen sündhaft teuren Prozessor, nur um eine billige Grafikkarte zu ersetzen, und das auch noch in schlechter Qualität.
Und was machst du, wenn nebenbei auch noch so unwichtige Dinge wie Physik, KI oder sonstige Spielmechanik bererechnet werden wollen?
Da bräuchte man einen sündhaft teuren Prozessor, nur um eine billige Grafikkarte zu ersetzen, und das auch noch in schlechter Qualität.Die Graka soll nicht ersetzt werden. SW-Rendering nach meiner Vorstellung ist ein Notnagel.
Hab eine kleine Frage.
Wo werden bei Software-Rendering die Texturen "gespeichert" im Arbeitsspeicher oder auch im Speicher der Graka??
Wenn die im Arbeitsspeicher liegen werden die Ergebnisse doch verzehrt oder nicht??
Im Arbeitsspeicher natürlich. Die CPU muss die Daten ja verwenden und VRAM-Zugriff ist extrem langsam von der CPU aus.
Spasstiger
2006-10-07, 14:14:18
Und was machst du, wenn nebenbei auch noch so unwichtige Dinge wie Physik, KI oder sonstige Spielmechanik bererechnet werden wollen?
Da bräuchte man einen sündhaft teuren Prozessor, nur um eine billige Grafikkarte zu ersetzen, und das auch noch in schlechter Qualität.
Es gibt doch so tolle Komplettrechner mit High-End-Dual-Core-Prozessor, massig RAM, aber leider nur mit Onboard-Grafik und ohne AGP- oder PCIe-16x-Slot.
Naja selbst der GMA900 dürfte schneller sein als dieser Software-Kram.
Arokh
2006-10-07, 19:12:04
Hab eine kleine Frage.
Wo werden bei Software-Rendering die Texturen "gespeichert" im Arbeitsspeicher oder auch im Speicher der Graka??
Wenn die im Arbeitsspeicher liegen werden die Ergebnisse doch verzehrt oder nicht??du meinst wegen fehlendem Perspective Correction? Das hat aber doch nichts damit zu tun, wo die Texturen gespeichert sind, sondern damit ob derjenige, der das Rendering erledigt - also CPU oder GPU - Perspective Correction macht oder nicht.
RavenTS
2006-10-08, 01:31:28
Nur mal theoretisch: Wären denn heute CPUs überhaupt ohne große Änderungen in der Lage den Grafikpart zu übernehmen. Gäbe es einen DVI-Port auf dem Board würden ja DACs entfallen, so daß man nur einen Bildspeicher für die gerenderten Bilder braucht, aber reicht dieser für Front- und Backbuffer?
Naja selbst der GMA900 dürfte schneller sein als dieser Software-Kram.Darum gehts nicht.
Bokill
2006-10-08, 08:22:18
OK, hier mal Ergebnisse:
3Dmark2001, NATURE, 640x480 (Rest default).
Swiftshader Software: 6 fps
7950GX2 Hardware: 809 fps ;D
Hardware schneller als Software: Faktor 100 ;)
Ein Kentsfield mit 4 cores müßte, falls 3dm01 multithreaded wäre, REALTIME hinbekommen ;) (4x6 = 24fps) he he ... dafür lieben und hassen dich viele ;)
MFG Bobo(2006)
misterh
2006-10-09, 02:32:51
CS1.6 bietet auch Softwaremodus an oder?
könnte man doch da testen.
CS1.6 bietet auch Softwaremodus an oder?
die frage war allerdings die Grafikleistung verglichen mit heutigen GPUs, dabei sollte man darauf achten dass auch die quaität wenigstens ungefähr gliech ist.
Arokh
2006-10-09, 17:51:29
Nur mal theoretisch: Wären denn heute CPUs überhaupt ohne große Änderungen in der Lage den Grafikpart zu übernehmen. Gäbe es einen DVI-Port auf dem Board würden ja DACs entfallen, so daß man nur einen Bildspeicher für die gerenderten Bilder braucht, aber reicht dieser für Front- und Backbuffer?ähm... es ging dem Threadstarter wahrscheinlich nicht darum, daß die CPU die komplette Grafikkarte ersetzt, sondern lediglich deren 3D-Part. Softwarerenderer gab es ja vor dem Siegeszug der 3D-Grafikkarten (ab etwa 1997) en masse.
TheGoD
2006-10-09, 17:54:54
Darum gehts nicht.
So wie ich den OT verstanden habe geht es ihm genau darum:
Mir ist gerade eine interessante Frage durch den Kopf gewandert:
Mit welcher Grafikkarte, könnte man heute CPU Kerne vergleichen, wenn ein CPU komplett die Grafik übernehmen sollte ? Nehmen wir mal einen Kern, eines Core 2 Duo, aus dem Mittelfeld, mit 2,4 Ghz (e6600)...wäre dieser vielleicht so schnell wie eine Geforce 2 ?
Könnte man heute schon Office Systeme aus Dualcore CPUs bauen, wo der 2. Core den Grafikteil übernimmt ? Oder mit Quadcore ?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.