Archiv verlassen und diese Seite im Standarddesign anzeigen : Haben Grafikkarten noch eine Zukunft, oder werden GPUonCPU (Fusion) diese verdrängen?
Mit AMDs Fusion wandern ja die GPU Einheiten in die CPU,
so daß die CPU selbst im Stande ist, massive Parralle Berechnungen durchzuführen.
Die Frage ist also, wo geht der Weg hin, wird die Grafikkarte dadurch überflüssig
oder wird es nicht eher so sein, daß die GPU on CPU wie beim Fusion
eher für die Physikberechnung abgestellt wird und man für die Grafikberechnung weiterhin eine richtige Grafikkarte einsetzen wird.
Und welcher Hersteller hat das bessere Konzept?
AMD, welches die vielen Parallelen Recheneinheiten der GPUs auf eine CPU verbaut oder eher Intel, welches mit Larabee eine dedizierte extra Karte vorsieht.
AnarchX
2009-01-08, 10:33:07
Und welcher Hersteller hat das bessere Konzept?
AMD, welches die vielen Parallelen Recheneinheiten der GPUs auf eine CPU verbaut oder eher Intel, welches mit Larabee eine dedizierte extra Karte vorsieht.
Zwischen Larrabee und Fusion werden Welten in der Leistung liegen.
Die Integration der GPUs in die CPU auf deren Package dient vorerst primär dazu die Plattformen zu vereinfachen und die Kosten zu senken.
Solang bei sowas immernoch der Hauptspeicher benutzt werden muss und kein dedizierter schnell angebundener Speicher bereitsteht, werden Grafikkarten die deutlich potentere Lösung sein
Simon Moon
2009-01-08, 10:45:38
Die Frage sollte eher lauten: Werden massiv parallele Streamprozessoren längerfristig in die CPU wandern?
Momentan rollen die Hersteller die Sache imo alle von einer anderen Seite her auf. Intel geht über die Programmierbarkeit hin zur Leistung, während NVidia von der Leistung hin zur Programmierbarkeit geht und AMD versucht einen Mittelweg.
Die Integration der GPUs in die CPU auf deren Package dient vorerst primär dazu die Plattformen zu vereinfachen und die Kosten zu senken.
Das sieht die PC Games Hardware aber ganz anders.
Zitat:
General Purpose GPU
Damit wird klar: AMD verfolgt mit dem Fusion nicht vorwiegend das Ziel,
in billigen OEM-Systemen die Grafikkarte einsparen zu können.
Nein, die GPU darf sich höheren Aufgaben widmen. Gneral Purpose CPU oder kurz GPGPU ist hier das Zauberwort, also Grafikchips, die sich nicht (nur) um Grafikberechnungen kümmern, sondern auch für allgemeine Berechnungen eingesetzt werden können.
basti333
2009-01-08, 10:54:34
ich bin nun kein experte, aber ich glaube die weit größere gefahr für grafikkarten ist, dass sie irgendwann einmal durch raytracing mehr oder weniger überflüssig werden. Bis AMD fusion CPU/GPU mit der grafikleistung einer heutigen grafikkarte mithalten kann, dürften noch 10 jahre vergehen....wenn überhaupt...
AnarchX
2009-01-08, 10:54:40
@Gast
Der Abschnitt bezieht sich aber auf eine zusätzlliche Grafikkarte, die AMD trotz GPU in der CPU noch verkaufen will.
Die Frage sollte eher lauten: Werden massiv parallele Streamprozessoren längerfristig in die CPU wandern?
Nunja, bei Intel ist bis 2011/12 da offenbar nichts vorgesehen.
Wie Mark es schon anspricht, ist die Bandbreite bei CPUs eher zu gering um hier massives Streamprocessing durchzuführen.
Avalox/Gast
2009-01-08, 10:58:46
Solang bei sowas immernoch der Hauptspeicher benutzt werden muss und kein dedizierter schnell angebundener Speicher bereitsteht, werden Grafikkarten die deutlich potentere Lösung sein
Ist fraglich ob solche Komponenten nicht eine Art von Fastram zur Seite gestellt wird. Ähnliche Ideen wie bei den auf Mainboard mit Sideport RAM ausgestatteten Onboard GPUs.
Solch ein FastRam hätte vielleicht auch den Vorteil, dass die GPGPU auf latenzarmen Speicher zugreifen kann. Für reine GPU Funktionen sicherlich nicht so entscheidend, aber als GPGPU doch sicherlich interessant.
Die Frage ist doch bei solchen Lösungen gar nicht, ob damit eine Spitzenperformance erreicht werden kann, sondern ob die erreichte Performance schlicht hinreichend ist.
Wenn nämlich dieses eintritt, entwickelt es sich zu einen Selbstläufer. Selbst wenn dedizierte Lösungen ungleich leistungsfähiger wären, wird es dafür schlicht nicht die notwendige Software mangeln.
Ein Hersteller von Spielen, will natürlich eine möglichst grosse Userbasis ansprechen und dieses geht halt nur, wenn man sich nicht an der Spitzenhardware orientiert, sondern an einen Stand mit hoher Verbreitung.
Wenn aber erst mal die Spitzensoftware fehlt, dann sehen noch viel mehr User keine Notwendigkeit ein extra Geld für eine dann sogar redundant vorhandene Lösung auszugeben. Die Userbasis wird damit immer einseitiger in Richtung weg der Spitzenlösung und liefert damit den Software Entwicklern immer weniger Argumente für eine Unterstützung der Spitzenhardware.
Ordentliche und günstige Onboardgrafik ist zweifelsfrei ein nicht zu unterschätzender Mitspieler.
Ist die Frage wie günstig man solch eine Onboard Grafik bekommt? Noch kostet diese ja nicht unerheblich Geld mehr beim Mainboardkauf.
Auf die CPU gleich einen GPU Kern zu flanschen ist dort sicherlich ein entscheidender Schritt.
Simon Moon
2009-01-08, 11:02:51
Nunja, bei Intel ist bis 2011/12 da offenbar nichts vorgesehen.
Wie Mark es schon anspricht, ist die Bandbreite bei CPUs eher zu gering um hier massives Streamprocessing durchzuführen.
11/12 ist auch keine "Zukunft" mehr, bis dahin erwarte ich auch nichts Revolutionäres. Eher sind die jetzigen Pläne der Grundbaustein für die nächste Runde.
AnarchX
2009-01-08, 11:06:28
Ist fraglich ob solche Komponenten nicht eine Art von Fastram zur Seite gestellt wird. Ähnliche Ideen wie bei den auf Mainboard mit Sideport RAM ausgestatteten Onboard GPUs.
Solch ein FastRam hätte vielleicht auch den Vorteil, dass die GPGPU auf latenzarmen Speicher zugreifen kann. Für reine GPU Funktionen sicherlich nicht so entscheidend, aber als GPGPU doch sicherlich interessant.
Hier gibt es einen interessanten Artikel bzw. ein paar Intel-Folien:
http://pc.watch.impress.co.jp/docs/2008/1226/kaigai483.htm
... man wird wohl den Speicher unter die CPU "kleben". ;)
=Floi=
2009-01-08, 11:11:36
zitat
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7025320#post7025320
im kleinen maßstab. Der GT212 hat fast 2tflop leistung und wird auch den entsprechenden strom aus der dose ziehen.
kleiner vergleich bei NV:
IGP 16SPs vs GT212 384 SPs ist faktor 24!
Selbst wenn dedizierte Lösungen ungleich leistungsfähiger wären, wird es dafür schlicht nicht die notwendige Software mangeln.
Dedizierte Lösungen haben keine Probleme, was den Softwaresupport betrifft.
Denn schon die Funtkionen dieser GPGPU Lösung wie z.b. beim Fusion benötigt Treiber und eine API um diese Funktionen nutzen zu können.
Und wenn es APIs gibt, wie z.b. OpenCL, dann ist das auch Hardwareunabhängig abstrahierbar.
Um es also mal deutlich zu machen, das was als GPU auf die CPU wandert, kann man nicht direkt in Assembler ansprechen wie z.b. normale CPU Instruktionen, da es alles von Treibern, der Firmware und der API verborgen ist.
Wenn man Zugang auf diese GPU Einheiten auf der CPU haben will, dann geht das nur und ausschließlich über APIs.
Es sei denn man unterschreibt ein NDA und erhält von den Grafikchipherstellern ausreichend Infos um auch selber direkt die Einheiten anzusprechen, aber das darf man stark bezweifeln daß die auf so etwas überhaupt eingehen würden.
Ein Hersteller von Spielen, will natürlich eine möglichst grosse Userbasis ansprechen und dieses geht halt nur, wenn man sich nicht an der Spitzenhardware orientiert, sondern an einen Stand mit hoher Verbreitung.
Siehe oben.
Dedizierte Karten hätten durchaus eine Chance, da die Software ja dank APIs nicht abhängig ist von speziellen Lösungen.
Das Problem wird eher sein, daß kein Mensch solche dedizierten Karten kaufen würde.
Zumindest kein normaler Desktopuser, denn die Karten müßten ihren Mehrpreis ja wert sein und das dies nicht der Fall ist, kann man an den ganzen Physikkarten sehen.
So gesehen sind diese dedizierten Karten nur für die Wissenschaft interessant, aber ob die sich auf eine API verlassen, bei Berechnungen die sehr genau sein sollen, das steht auf einem anderen Blatt.
Ist die Frage wie günstig man solch eine Onboard Grafik bekommt? Noch kostet diese ja nicht unerheblich Geld mehr beim Mainboardkauf.
Auf die CPU gleich einen GPU Kern zu flanschen ist dort sicherlich ein entscheidender Schritt.
Das Aufrüsten wird dadurch nur schwieriger.
Vor allem wenn für die übernächste GPGPU CPU wieder ein neuer Sockel notwendig wird.
Hier gibt es einen interessanten Artikel bzw. ein paar Intel-Folien:
http://pc.watch.impress.co.jp/docs/2008/1226/kaigai483.htm
... man wird wohl den Speicher unter die CPU "kleben". ;)
Das bedeutet dann aber auch, daß Intel die Kontrolle über Speicherproduktion
erhält und man nun immer gleich ne neue CPU kaufen kann, wenn man wieder mal etwas mehr Arbeitsspeicher braucht.
Als Zwischencache mit DRAM wäre es aber ne Lösung.
mekakic
2009-01-08, 11:41:46
Die Integration der GPUs in die CPU auf deren Package dient vorerst primär dazu die Plattformen zu vereinfachen und die Kosten zu senken.Das waren und sind IGPs auch, ihre Praxistauglichkeit rückt aber immer weiter in Gefilde nach oben vor.
GPUonCPU ist in erster linie als vergünstigung von Plattformen anzusehn.
Aber nich in Desktopbereich, sondern hauptsächlich bei Mobileplattformen, wie Note/Subnote/Netbooks. Grade bei Netbooks ist kaum Platz auf den kleinen Platinen. Desweiteren kann man sich dann den Chipsatzkühler sparen, da die Chipsätze zu wenig Wärme erzeugen.
Dazu kommen noch die Performancevorteile, auch wenn die nicht sehr hoch ausfallen sollten, durch direktere Anbindung an Speicher (nur bei IMC) und CPU. Vll wird es ja mehr ein Verschmelzen als ein nebeneinander auf einem Package sein, wer weis was sich da noch für Möglichkeiten ergeben werden.
Fakt ist, das es aber in erster Linie und in den nächsten Jahren bei diesem Projekt um Kostenersparnis für günstige und ultragünstige Plattformen gehen wird.
Wer brauch auch schon ne Graka in nem Phenom 2, wenn eh die meisten aktuellen Chipsätze eine Grafikeinheit mitbringen und dort wird die Verlagerung dieser wohl kaum ersparnis, sondern eher mehr Entwicklungsaufwand mit sich bringen
Monger
2009-01-08, 17:22:53
Ohne das durch Fakten stützen zu können, aber...
Ich glaube dass es auch weiterhin Aufgaben geben wird die relativ simple, hochparallelisierte Berechnungen fordern, und andere Aufgaben die wiederum relativ komplexe, sequentielle Abläufe erfordern.
Die GPU ist für das eine hervorragend geeignet, die CPU für das andere. Der Trend wird sicherlich mehr dahin gehen, einen fliegenden Wechsel je nach Bedarf zwischen beiden Welten durchzuführen, aber im Grunde halte ich die Zweiteilung für sehr effizient.
ich bin nun kein experte, aber ich glaube die weit größere gefahr für grafikkarten ist, dass sie irgendwann einmal durch raytracing mehr oder weniger überflüssig werden.
Die meiste Zeit geht inzwischen für das Shading drauf und das muss Raytracing genauso machen. Die Aussage ist also falsch.
Die eigentlich Frage lautet eher: "Schaffen wir es der drohenden Limitierung durch die Erstellung des Contents zu entgehen?"
Falls nein, wird das die Entwicklung der Hardware ausbremsen und die Bedeutung von dedizierten Grafikkarten stark schwächen.
Aquaschaf
2009-01-08, 19:28:01
Die meiste Zeit geht inzwischen für das Shading drauf und das muss Raytracing genauso machen. Die Aussage ist also falsch.
Die eigentlich Frage lautet eher: "Schaffen wir es der drohenden Limitierung durch die Erstellung des Contents zu entgehen?"
Falls nein, wird das die Entwicklung der Hardware ausbremsen und die Bedeutung von dedizierten Grafikkarten stark schwächen.
Ich denke physikalische Grenzen werden die Weiterentwicklung verlangsamen, ehe es der Bedarf an Rechenleistung für Grafik tut.
Das waren und sind IGPs auch, ihre Praxistauglichkeit rückt aber immer weiter in Gefilde nach oben vor.
hab ich was verpasst?
IGPs rücken leistungsmäßig doch immer weiter zurück. vor einiger zeit (ok ist schon ziemlich lange her ;) ) waren IGPs noch garnicht so weit von meinstream-karten entfernt, heute liegen sie sogar gegenüber extra lowcostlösungen weit zurück.
Crazy_Chris
2009-01-08, 21:51:16
hab ich was verpasst?
IGPs rücken leistungsmäßig doch immer weiter zurück. vor einiger zeit (ok ist schon ziemlich lange her ;) ) waren IGPs noch garnicht so weit von meinstream-karten entfernt, heute liegen sie sogar gegenüber extra lowcostlösungen weit zurück.
Ich behaupte genau das Gegenteil. :tongue:
GPUonCPU ist in erster linie als vergünstigung von Plattformen anzusehn.
Aber nich in Desktopbereich, sondern hauptsächlich bei Mobileplattformen, wie Note/Subnote/Netbooks. Grade bei Netbooks ist kaum Platz auf den kleinen Platinen. Desweiteren kann man sich dann den Chipsatzkühler sparen, da die Chipsätze zu wenig Wärme erzeugen.
Das sehe ich ganz anders.
Warum sollte ich, wenn ich die Wahl habe zwischen Normaler CPU und einer CPU mit zusätzlichen Massivly Parrallelen Recheneinheiten die erstere Variante nehmen?
Natürlich will ich dann auch einen Fusion haben, zusätzlich zu meiner Grafikkarte, denn die GPGPU wirkt da wie eine weitere aber deutlich Leistungsfähigere SSE Einheit.
Ob und vor allem wie lange ich dann noch eine Grafikkarte nebenbei verwende, das kann ich nicht beantwortet.
Es könnte in der Tat so sein, daß die Grafikkarten dann irgendwann überflüssig werden, weil diese CPU + GPU Lösungen bis dahin schnell genug werden und sich eine extra Grafikkarte kostenmäßig für das bischen mehr Leistung nicht mehr lohnt.
Ob und vor allem wie lange ich dann noch eine Grafikkarte nebenbei verwende, das kann ich nicht beantwortet.
Es könnte in der Tat so sein, daß die Grafikkarten dann irgendwann überflüssig werden, weil diese CPU + GPU Lösungen bis dahin schnell genug werden und sich eine extra Grafikkarte kostenmäßig für das bischen mehr Leistung nicht mehr lohnt.
Oder anders gesagt, anstatt das Geld in eine normale CPU und Grafikkarte zu stecken, könnte ich bei der CPU+ GPGPU Lösung für die eingesparte Grafikkarte einen noch schnelleren CPU+GPGPU Prozessor nehmen.
Ich denke physikalische Grenzen werden die Weiterentwicklung verlangsamen, ehe es der Bedarf an Rechenleistung für Grafik tut.
Die Frage ist doch, wer soll die hohen Kosten für den Content eines Spieles finanzieren?
Ich denke daher eher, daß die finanziellen Grenzen die Weiterentwicklung des Content verlangsamen und somit auch den Grafikanforderungen, ehe es die physikalischen Grenzen für die machbare Leistung tut.
mekakic
2009-01-09, 08:04:46
hab ich was verpasst?
IGPs rücken leistungsmäßig doch immer weiter zurück. vor einiger zeit (ok ist schon ziemlich lange her ;) ) waren IGPs noch garnicht so weit von meinstream-karten entfernt, heute liegen sie sogar gegenüber extra lowcostlösungen weit zurück.Früher konnte man mit denen doch fast gar nix anfangen abseits Office Aufgaben. Heute kann man selbst mit den Intel Dingern HD Videos dekodieren und Spiele ausreichend gut spielen. Ich baue zumindest meine Grafikkarte nur noch ein, wenn ich mal was wirklich Leistungshungriges spiele - für alles andere reicht die IGP.
Aquaschaf
2009-01-09, 08:44:17
Ich denke daher eher, daß die finanziellen Grenzen die Weiterentwicklung des Content verlangsamen und somit auch den Grafikanforderungen, ehe es die physikalischen Grenzen für die machbare Leistung tut.
Es gibt noch haufenweise Effekte und Techniken (für die Grafikkarten noch nicht schnell genug sind) mit denen man für viel bessere Optik sorgen kann ohne dass der Content dafür komplexer werden muss als er es heute ist. Beispielsweise die ganzen Tricks um global illumination zu approximieren.
Früher konnte man mit denen doch fast gar nix anfangen abseits Office Aufgaben. Heute kann man selbst mit den Intel Dingern HD Videos dekodieren und Spiele ausreichend gut spielen.
früher mal gab es RivaTNT onboard, sogar mit eigenem speicher, die einer eigenen karte mit dem selben chip um nichts nachgestanden ist.
früher gab es GF2MX bzw. 4MX-ableger, die auch nicht viel langsamer als die entsprechenden karten waren und insgesamt noch immer 30-50% der performance der damaligen highendkarten boten.
was haben wir heute? IGPs die vielleicht 5% der leistung von aktuellen highendkarten bieten. HD-beschleunigung funktioniert mittlerweile mit IGPs in der tat recht gut, wobei ich da allerdings in erster linie von NV spreche, bei ATI und erst recht bei intel sieht es lange nicht so toll aus.
Triskaine
2009-01-09, 12:01:31
HD-beschleunigung funktioniert mittlerweile mit IGPs in der tat recht gut, wobei ich da allerdings in erster linie von NV spreche, bei ATI und erst recht bei intel sieht es lange nicht so toll aus.
Worauf stützt du bitte diese Behauptung? Im Gegenteil, dadurch das bei ATI VC-1 vollständig dekodiert wird haben sie sogar noch Vorteile. Bei Intel muss ich dir Recht geben, selbst mit der neuesten IGP braucht man noch einen ordentlichen Dualcore um es ruckelfrei zu dekodieren.
Shink@work
2009-01-09, 13:34:54
früher mal gab es RivaTNT onboard, sogar mit eigenem speicher, die einer eigenen karte mit dem selben chip um nichts nachgestanden ist.
Du meinst aber nicht diese auf das Mainboard aufgelöteten Grafikkarten? Wenn ja: Das gibt es natürlich immer noch (z.B. bei Notebooks...)
Ich finde seit den ersten NForce-Boards hat sich am Abstand IGP-Mainstream/LowCost-Grafikkarten nicht viel getan ; davor waren IGPs eher schlechter. Allerdings sinkt der Leistungsunterschied der IGPs verschiedener Hersteller (v.a. wohl weil sich bei SiS und VIA kaum noch was tut und Intel KnowHow zugekauft hat)
Worauf stützt du bitte diese Behauptung? Im Gegenteil, dadurch das bei ATI VC-1 vollständig dekodiert wird haben sie sogar noch Vorteile. Bei Intel muss ich dir Recht geben, selbst mit der neuesten IGP braucht man noch einen ordentlichen Dualcore um es ruckelfrei zu dekodieren.
eigene erfahrung ich hab sowohl einen HTPC mit ATI X3200 als auch mit NV GF9300.
bei ersterer funktioniert die beschleunigung unter XP die halbe zeit überhaupt nicht, unter vista funktioniert zwar die beschleunigung zuverlässig, dafür gibt es kein adaptives deinterlacing mehr, sobald man aero aktiviert.
bei NV gibt es überhaupt keine probleme, sowohl unter XP als auch unter Vista funktioniert die beschleunigung immer, selbstverständlich auch mit dem hochwertigen deinterlacing der desktopkarten.
stichwort deinterlacing, jenes ist bei NV sichtbar schöner als bei ATIs IGP (jenes von ATI-grafikkarten ist in etwa gleichwertig)
VC1 wird von den aktuellen NV-IGPs (ua. 9300) auch vollständig beschleunigt, aber selbst ohne diese wäre NV aufgrund der höheren qualität immer noch vorzuziehen, VC1 ist nicht so aufwändig, da reicht selbst mit der teilweisen beschleunigung der NV-karten ein kleiner dualcore locker aus.
tomvos
2009-01-12, 22:47:35
Die Frage ist also, wo geht der Weg hin, wird die Grafikkarte dadurch überflüssig oder wird es nicht eher so sein, daß die GPU on CPU wie beim Fusion eher für die Physikberechnung abgestellt wird und man für die Grafikberechnung weiterhin eine richtige Grafikkarte einsetzen wird.
Und welcher Hersteller hat das bessere Konzept?
AMD, welches die vielen Parallelen Recheneinheiten der GPUs auf eine CPU verbaut oder eher Intel, welches mit Larabee eine dedizierte extra Karte vorsieht.
Die notwendige Kühlleistung sollte hier nicht außer acht gelassen werden. Die ganz dicken Grafikkarten ziehen etwa 175-200 W. Dicke CPUs liegen auch im Bereich von 100-125 W Leistung. In Summe benötigt so ein High-End Gespann also 300 W. Es ist wohl einsichtig, dass diese Leistung etwas zu groß ist, um per Luftkühlung abgeführt zu werden. Folglich muss Fusion also mit weniger Transistoren auskommen, als eine heutige High-End Kombination von CPU und GPU.
Moderne CPU Architekturen haben meist viele Transistoren in große Caches und in Vergleich dazu deutlich weniger Transistoren, die die eigentlichen Rechenwerke bilden. Gerade das aktuelle Beispiel Phenom II zu Phenom I zeigt die wichtige Rolle, die ein sinnvolles Verhältnis von Rechenwerken zu Cache bei einer CPU ausmacht.
Bei den GPUs ist es eher anders herum. Die Rechenwerke benötigen sehr viele Transistoren, während die Menge der Transistoren für Caches vergleichsweise gering sind.
Der Versuch, diese beiden widersprüchlichen Architekturen zu vereinen ist ... eine Herausforderung. Ich vermute, dass alle "doppelten Elemente" zur Einsparung von Transistoren weggelassen werden. Trotz allem habe ich so meine Zweifel, ob der Hybrid Fusion eine Leistungsfähigkeit erreichen kann, die außerhalb des Low Ends interessant sein wird.
Denn wenn durch Einsparungen an "redundanten" Transistoren kein Chipdesign geschaffen werden kann, dass es mit der heutigen Mittelklasse aufnehmen kann, dann ist AMD gezwungen bei Fusion entweder mehr Transistoren zu verbauen ( = teuer) oder auf Leistung zu verzichten ( = akzeptable Fertigungskosten). In letzterem Fall ist die Frage, ob eher bei den Transistoren der Grafikeinheit oder der Prozessoreinheit gespart wird.
Wie auch immer Fusion im Ende aussehen mag ... ich glaube er hat einen schweren Stand im Markt. Zumal AMD durch den Preiskrieg in der Mittelklasse - und den damit verbundenen Leistungssprung bei den Normalverbraucher Grafikkarten - dem Fusion Chip das Leben nicht einfacher macht.
Die notwendige Kühlleistung sollte hier nicht außer acht gelassen werden. Die ganz dicken Grafikkarten ziehen etwa 175-200 W. Dicke CPUs liegen auch im Bereich von 100-125 W Leistung.
grafikkarten ziehen an die 150W, bzw. bis zu 250W als dual-gpu-ausführung, allerdings nicht die GPUs und nur die müsstest du zur wärmeabgabe der cpu dazurechnen um dessen kühler zu dimensionieren.
die GPU alleine zieht bei einer 280GTX beispielsweise "nur" ca. 80-100W als maximum.
highend-gpus an cpus ranzuflanschen wäre freilich nicht sinnvoll, dafür reicht die bandbreite nicht im geringsten.
Nighthawk13
2009-01-15, 17:47:23
highend-gpus an cpus ranzuflanschen wäre freilich nicht sinnvoll, dafür reicht die bandbreite nicht im geringsten.
Wie wärs mit dem Gegenteil... eine GPU mit CPU als "Coprozessor"?
Stromverbrauch und Bandbreite sind vergleichsweise gering.
Als positiven Nebeneffekt könnt man das Mainboard etwas abspecken... oder gleich die Graka zum Mainboard erklären :wink:
Wie wärs mit dem Gegenteil... eine GPU mit CPU als "Coprozessor"?
Stromverbrauch und Bandbreite sind vergleichsweise gering.
vergiss es, GPUS brechen bei normalen CPU-aufgaben total ein.
vergiss es, GPUS brechen bei normalen CPU-aufgaben total ein.
Eine GPU wird man auch kaum mit CPU-aufgaben konfrontieren. In diesem Sinne, was ist schon normal?
Ich würde hier eher von einem durchaus wandlungsfähigen Standard sprechen;)
Nighthawk13
2009-01-15, 19:10:00
vergiss es, GPUS brechen bei normalen CPU-aufgaben total ein.
Darum gings mir...
Ich meinte eine moderne CPU(hochgetaktet, out-of-order, cache etc) die:
- direkten Zugriff auf den GPU-Speicher hat
- sich mit wenig Overhead mit den Shader-Cores synchronisieren kann(Latenz von 10-100 CPU-Zyklen)
- deren Hauptaufgabe darin besteht, die Shader-Cores zu füttern
- und/oder nicht-parallelisierbare Codeteile zu bearbeiten
Insgesamt ein Board mit 2-4 von den CPU-Cores und 1000 "Shader"-Cores und dem üblichen GPU-Ram.
Optional noch DDR3 Ram-Sockel dazu als Bulk-Ram, dann macht das Mainboard nur noch I/O.
haifisch1896
2009-01-15, 19:54:27
Im Endeffekt scheint (mir) die Idee dahinter so zu sein, einen Cell quasi umzudrehen.
Nur was da der Sinn hinter soll, erschließt sich mir nicht.
Wann brauchst Du denn massiv parallele Rechenpower im alltäglichen Betrieb, es sei denn, man spielt nicht in einer Tour oder "spielt" Videos umrechnen, um im Gegensatz dazu die normale CPU auf ein niedrigeres Techlevel als heute abzuspecken?
edit:
Man sollte mal alles lesen:)
Nimm doch eine normale x86-CPU, meinetwegen ein stromsparender Dualcore, welche eine Grafikeinheit zur Seite gestellt bekommt.
Ach halt, da soll doch Fusion kommen. Nur das dort halt, so wie ich das bisher mitbekommen habe, kein Speicher on-die sein soll. Dies könnte sich mit der Zeit aber ändern und z.B. könnten 12MB eDRAM hinzugefügt werden.
Auf Deine 1000 Shadercores wirst Du aber nicht kommen, da dafür die Verlustleistung zu hoch sein dürfte und wo brauchst Du die Power?
Wer eine so potente GPU braucht, um bspw. zu spielen, dürfte weiterhin mit einer extra Grafikkarte besser fahren. Vor Allem, da dies bestimmt keinen Massenmarkt darstellt. Es geht ja auch nicht darum, Doom6 mit 80fps darzustellen, sondern Aufgaben, welche parallel ausgeführt werden können, um einen bestimmten Faktor zu beschleunigen.
Und für Videocodierung oder das kleine Moorhuhn3D-Spiel zwischendurch reicht es auch, eine GPU der Leistungsklasse 3470 on-die zu haben. Ist immerhin nicht nur unwesentlich schneller bei parallelisierbaren Aufgaben als eine normale x86-CPU.
Nighthawk13
2009-01-15, 21:26:27
Nimm doch eine normale x86-CPU, meinetwegen ein stromsparender Dualcore, welche eine Grafikeinheit zur Seite gestellt bekommt.
Ach halt, da soll doch Fusion kommen.
Als Low-Cost-Ansatz(möglichst viel Leistung aus wenig Geld) ist Fusion sicher interessant. Da macht es Sinn CPU+GPU in einem Die zu fertigen, um die Kosten zu senken.
Vorteil ist auch, dass der Weg zwischen CPU und GPU sehr kurz ist. Dadurch lohnt es sich auch kleinere parallelisierbare Rechenpakete im GPU-Teil rechnen zu lassen.
Das ist bei der der aktuellen Aufteilung in CPU+Graka über PCIe kontraproduktiv.
Aber wie sieht das High-End-Äquivalent(möglichst viel Leistung zu vertretbaren Kosten) des Fusion aus aus? Auch dafür gibt es einen Markt :)
- Die Chipfläche einer High-End GPU ist auch ohne CPU riesig, die Abwärme zu hoch.
- CPUs brauchen einen hohen Takt für Single-Thread-Leistung, GPU fahren mit weniger Takt und mehr Cores effizienter.
- Die hohe Speicherbandbreite ist nur durch festverlötete GPU- und Speicherchips zu erreichen.
=> Das spricht m.M. nach für getrennte Dies für GPU + CPU.
Alternativ mehrere Fusion-Dies, die dann innerhalb jeden Dies unterschiedliche Taktfrequenzen haben.
Alles auf einem Board, damit die Chips schnell miteinander kommunizieren können.
FlashBFE
2009-01-15, 22:03:54
Die notwendige Kühlleistung sollte hier nicht außer acht gelassen werden. Die ganz dicken Grafikkarten ziehen etwa 175-200 W. Dicke CPUs liegen auch im Bereich von 100-125 W Leistung. In Summe benötigt so ein High-End Gespann also 300 W. Es ist wohl einsichtig, dass diese Leistung etwas zu groß ist, um per Luftkühlung abgeführt zu werden.
Das glaube ich garnicht mal. Das große Problem war doch immer, große Leistung von einer kleinen Fläche wegzutransportieren. Aber zur zusätzlichen Leistung würde ja auch zusätzliche Chipfläche kommen. Es müssten natürlich neue Kühlkonstruktionen her, aber was heute der Intel-Standard-Quirl ist, könnte ja morgen der Orochi sein ;).
Das ist doch gelinde gesagt eine dumme Idee.
Wenn ich also in Zukunft meine Grafik aufrüsten will muß der Prozzi mit raus (und neu bezahlt werden!) und umgekehrt? Sry, klingt für mich abseits von Low End (Netbooks, Nettops) nach ner Schnappsidee...
Vorteil ist auch, dass der Weg zwischen CPU und GPU sehr kurz ist. Dadurch lohnt es sich auch kleinere parallelisierbare Rechenpakete im GPU-Teil rechnen zu lassen.
Das ist bei der der aktuellen Aufteilung in CPU+Graka über PCIe kontraproduktiv.
bei GPU on Die auch, streamprozessoren mögen keine kleinen pakete, da werden sie extrem langsam. streamprozessoren sind genau dann stark wenn gleichartige operationen auf riesige datenmengen angewendet werden müssen.
haifisch1896
2009-01-16, 08:58:07
Und da fehlt im Alltag halt die Masse an solch massiv parallelisierbaren Aufgaben.
Beim Surfen, Briefe schreiben, etc. brauchst Du sowas nicht. Da ist selbst eine IGP unterfordert.
Und für die 10%, wenn überhaupt, die den ganzen Tag solche Leistung abrufen, gibt es andere Lösungen als GPUonDie.
Siehe Firestream oder Streamprozessoren, welche über die HT-Links angebunden sind.
Anarchy-HWLUXX
2009-01-16, 12:33:59
Mit AMDs Fusion wandern ja die GPU Einheiten in die CPU,
so daß die CPU selbst im Stande ist, massive Parralle Berechnungen durchzuführen.
Die Frage ist also, wo geht der Weg hin, wird die Grafikkarte dadurch überflüssig
oder wird es nicht eher so sein, daß die GPU on CPU wie beim Fusion
eher für die Physikberechnung abgestellt wird und man für die Grafikberechnung weiterhin eine richtige Grafikkarte einsetzen wird.
Und welcher Hersteller hat das bessere Konzept?
AMD, welches die vielen Parallelen Recheneinheiten der GPUs auf eine CPU verbaut oder eher Intel, welches mit Larabee eine dedizierte extra Karte vorsieht.
Grafikkarten ? Höchstens die Lowest-end Modelle mit Leitung knapp über IGP - alles andere, nein.
Das geht dann mehr in die Richtung CPU+NB(IGP) verschmelzen und die "SB" nur für I/O oder Optionale erweiterung um mehr PCIe Links für schnelle GraKas zu haben.
Performance und High-End sind in so einer Form nicht umsetzbar bzw. würde so nen Teil abartig teuer werden und hätte massive Nachteile was Flexibilität angeht.
ist doch ganz logisch... so we inzwischen der Speichercontroller aus dem chipsatz in die CPU verpflanzt wurde, wird das zukünftig halt auch für die IGP-grafik gelten.
die hat dann soweiso nen kürzeren draht zur CPU, und zum speichercontroller und je nach auslegung kann die integrierte GPU vielleicht n bischn bei SIMD helfen, so alla AltiVec bzw. SSE.
Aber das ist dann auch das höchste.
wenn man das 256Bit oder gar 512Bit Speciehrinterface moderner High-End grakas betrachtet... und ein Phenom hat aktuell schon 940 Pins, überlgt mal wie der Sockel aussehen würde wenn da noch Grafikspeicher nach heutigen Maßstäben angebunden werden müsste... und normaler CPU-Ram ist schlich zu langsam für Highend-Regionen.
also so wie ich das sehe schleicht wieder ein wEg die OEM-Kosten zu reduzieren bei Büromaschinen zum Gelegenheits-Video-angucken.
grüßchen
ich
Mike7
2009-01-17, 09:36:25
Meiner Meinung nach werden on-die GPUs Grafikkarten verdrängen, ca. 2011 könnte es losgehen (wenn AMDs Fusion da ist und Intel seine zweite 32nm Generation rausbringt, die nächste Konsolengeneration 2012 dürfte auch nachhelfen).
Natürlich nur unter bestimmten Voraussetzungen und auch nicht zu 100%. Als Nischenmarkt werden Grafikkarten noch eine ganze Weile weiterleben.
Gründe:
- PC Gaming weiter auf dem absteigenden Ast was die Absatzzahlen der Spiele angeht.
- Das einzige wo PC Spiele noch deutlich dominieren sind MMPOG wie World of Warcraft, Simulationen wie die Sims oder Strategiespiele wie Starcraft. Aber all diese Spiele (zumindest die die Charts dominieren) haben relativ niedrige Hardwareanforderungen die integrierte GPUs (dann auch in Zusammenarbeit mit CPUs) in Zukunft durchaus erfüllen können.
- Auch als Video Decoder/Encoder gibt es keinen großen Bedarf mehr, selbst Low-End CPUs dürften dann keine Probleme mehr mit 1080p Encoding haben.
- In Zukunft größere Verbreitung von FullHD TVs
Gründe:
- PC Gaming weiter auf dem absteigenden Ast was die Absatzzahlen der Spiele angeht.
- Das einzige wo PC Spiele noch deutlich dominieren sind MMPOG wie World of Warcraft, Simulationen wie die Sims oder Strategiespiele wie Starcraft. Aber all diese Spiele (zumindest die die Charts dominieren) haben relativ niedrige Hardwareanforderungen die integrierte GPUs (dann auch in Zusammenarbeit mit CPUs) in Zukunft durchaus erfüllen können.
Falls die GPUonCPU Lösung sich im Massenmarkt durchsetzt, dann wird das aber sehr wohl dazu führen, daß die Konsolen Marktanteile verlieren.
Wenn wozu sollte man sich eine Konsole kaufen, wenn es der leise Rechner im Wohnzimmer auch tut?
Den Rechner braucht man nämlich immer, man muß ja auch Briefe schrieben können, die Konsole aber, auf die kann man sehr gut verzichten.
Und durch die GPUonCPU Lösung werden Rechner deutlich günstiger, da man dann auf die teure Grafikkarte verzichten kann.
dargo
2009-01-17, 13:52:46
Und durch die GPUonCPU Lösung werden Rechner deutlich günstiger, da man dann auf die teure Grafikkarte verzichten kann.
Inwiefern kann ich auf eine "teure" Grafikkarte verzichten wenn ich die maximale Leistung haben will?
Nur mal im Klartext - ein aktueller i7 ist bei Last alles andere als sparsam, das selbe bei zb. einer GTX 280. Womit soll man das auf einem Die außer flüssigen Stickstoff kühlen? Und falls diese Leistung irgendwann mal "zusammen geschaltet" wird und das ganze mit Luft gekühlt werden kann (was wohl einige Jahre in Anspruch nehmen wird) werden wir über diese Rechenleistung nur noch lachen können.
Inwiefern kann ich auf eine "teure" Grafikkarte verzichten wenn ich die maximale Leistung haben will?
Weil du deine Grafikkarte mit der Konsolenspieltechnik eh nicht ausreizen kannst.
G.A.S.T.
2009-01-17, 20:29:13
Weil du deine Grafikkarte mit der Konsolenspieltechnik eh nicht ausreizen kannst.
hehe ;)
LovesuckZ
2009-01-17, 21:21:47
Weil du deine Grafikkarte mit der Konsolenspieltechnik eh nicht ausreizen kannst.
Wieso sollte er Konsolenportierungen mit den Konsoleneinstellungen spielen? :confused:
dargo
2009-01-17, 21:57:09
Wieso sollte er Konsolenportierungen mit den Konsoleneinstellungen spielen? :confused:
Das frage ich mich allerdings auch. Von wesentlich höheren Auflösungen, mehr Details und SSAA-Modis hat der Gast wohl noch nie was gehört und auch gesehen.
@Gast schon mal 4x4SSAA in Bewegung erlebt?
Mike7
2009-01-18, 06:21:49
Falls die GPUonCPU Lösung sich im Massenmarkt durchsetzt, dann wird das aber sehr wohl dazu führen, daß die Konsolen Marktanteile verlieren.
Wenn wozu sollte man sich eine Konsole kaufen, wenn es der leise Rechner im Wohnzimmer auch tut?
Den Rechner braucht man nämlich immer, man muß ja auch Briefe schrieben können, die Konsole aber, auf die kann man sehr gut verzichten.
An den meisten Nachteilen des PCs als Spieleplattform ändert das aber weiterhin nichts. Außerdem werden die on-die GPUs zwar stark genug sein für die meisten Genres die auch heute auf dem PC erfolgreich sind, aber keine neuen dazu gewinnen (Casual Games und MMPOG haben die größten Wachstumschancen). Und der PC wird es weiterhin sehr schwer haben sich im Wohnzimmer durchzusetzen. Konsolen, Set-top Boxen etc, ja sogar Fernseher selbst bekommen immer mehr Funktionalität (Media Downloads/Streaming, Internet, Chats etc.) die einen speziellen Wohnzimmer-PC für die Mehrheit obsolete machen.
Und durch die GPUonCPU Lösung werden Rechner deutlich günstiger, da man dann auf die teure Grafikkarte verzichten kann.
Für die beste Qualität wird man noch lange Zeit eine extra Grafikkarte benötigen. Der Gesamte Grafikkartenmarkt wird nur eben kleiner werden und über die Jahre werden die Low-cost Grafikkarten verschwinden (welche aber die größten Stückzahlen ausmachen), irgendwo ab Mid-range wird sich das ganze dann für eine Weile stabilisieren.
- Das einzige wo PC Spiele noch deutlich dominieren sind MMPOG wie World of Warcraft, Simulationen wie die Sims oder Strategiespiele wie Starcraft.
gerade Sims hatte beim erscheinen alles andere als geringe anforderungen und bei den anderen von dir genannten genres sind eigentlich auch nur die blizzard-varianten ressourcenschonend.
Mike7
2009-01-19, 04:44:58
gerade Sims hatte beim erscheinen alles andere als geringe anforderungen und bei den anderen von dir genannten genres sind eigentlich auch nur die blizzard-varianten ressourcenschonend.
Aber die Sims sind auch kein Spiel das sich nur in den ersten 6 Monaten gut verkauft sondern über viele Jahre. Das heißt es werden insgesamt deutlich mehr Exemplare verkauft wenn die Hardwareanforderungen niedrig sind. Selbst heute sind 2-3 Spiele in den Top Ten Sims Spiele. Dazu noch 2-3 mal WoW. Und praktisch der Rest sind Spiele die es auch auf Konsolen gibt und die sich dort zig mal besser verkaufen. Und die Blizzard Spiele sind nun mal die einzigen in ihren Genres die sich gut verkaufen und wirklich lange in den Charts halten.
Und wie gesagt ich behaupte nicht das PC Spiele untergehen werden. Meiner Meinung nach wird der Marktanteil insgesamt ähnlich bleiben. Aber auf das Thema bezogen glaube ich eben das Grafikkarten Marktanteile an integrierte GPUs verlieren werden aus den oben genannten Gründen.
tombman
2009-01-19, 06:28:27
Das Problem ist einfach, daß die Masse nur eine geringe Qualität braucht um zufrieden zu sein.
Bei der vorigen Konsolengeneration war es noch so, daß man den optischen Unterschied in games ganz klar, im Vergleich zum PC, gesehen hat.
PS2 oder Xbox1 games sahen schlechter aus als HighEnd PC games.
Jetzt sehen games auf der PS3 oder Xbox360 für das Laienauge so gut aus wie auf dem PC :ugly:
Zumindest sehen sie GUT GENUG aus.
Erschwerend kommt hinzu, daß diese Next-Gen Konsolengames nicht mehr auf dem Flimmerkasten mit Fischauge-Optik gezeigt werden, sondern auf schön großen LCD-Flachmännern im Wohnzimmer.
Ein beiger PC mit kleinem TFT stinkt dagegen einfach ab.
Die nächste Konsolengeneration wird dann Crysis in hohem Detailgrad darstellen können, in FULL HD.
Mit welchem Argument will man dann noch PC-Gaming bewerben?
"Das 10fache ausgeben um "ein bischen mehr" Qualität zu bekommen?" wird sich der Mann von der Straße fragen und gleich mit "Nein" beantworten.
Ich sehe eher finster in die PC-Gaming Zukunft...
Mike7
2009-01-19, 07:11:10
Das Problem ist einfach, daß die Masse nur eine geringe Qualität braucht um zufrieden zu sein.
Bei der vorigen Konsolengeneration war es noch so, daß man den optischen Unterschied in games ganz klar, im Vergleich zum PC, gesehen hat.
PS2 oder Xbox1 games sahen schlechter aus als HighEnd PC games.
Jetzt sehen games auf der PS3 oder Xbox360 für das Laienauge so gut aus wie auf dem PC :ugly:
Zumindest sehen sie GUT GENUG aus.
Erschwerend kommt hinzu, daß diese Next-Gen Konsolengames nicht mehr auf dem Flimmerkasten mit Fischauge-Optik gezeigt werden, sondern auf schön großen LCD-Flachmännern im Wohnzimmer.
Ein beiger PC mit kleinem TFT stinkt dagegen einfach ab.
Die nächste Konsolengeneration wird dann Crysis in hohem Detailgrad darstellen können, in FULL HD.
Mit welchem Argument will man dann noch PC-Gaming bewerben?
"Das 10fache ausgeben um "ein bischen mehr" Qualität zu bekommen?" wird sich der Mann von der Straße fragen und gleich mit "Nein" beantworten.
Ich sehe eher finster in die PC-Gaming Zukunft...
In Sachen High-End vielleicht, aber insgesamt sehe ich das für den PC Spiele Markt nicht so schwarz (in Sachen Marktanteil). Casual Games (und Browser Games) werden immer wichtiger und einige Genres lassen sich auf dem PC einfach deutlich besser oder einfacher umsetzen (Strategie, MMPOG, etc.). Die Grafik Qualität mit den integrierten GPUs ist dann wahrscheinlich für die meisten Spiele deutlich unter Konsolen Niveau (Next Gen ab ca. 2012), aber für die Genres und Casual Games spielt das dann auch kaum eine Rolle.
Allerdings geht es hier ja um Grafikkarten und in der Hinsicht glaube ich nur das die Low-End und die Extreme Grafikkarten Setups auf lange Sicht verschwinden werden. Aber so im Bereich von ca. 100 bis 300 Euro dürften sie noch lange weiterleben. Eben für Leute die eine bessere Bildqualität haben wollen als der Durchschnitt oder Monitore mit einer höheren Auflösung betreiben, Multi Monitor Setups etc. oder eben für ganz spezielle Genres etc.
haifisch1896
2009-01-19, 08:42:33
Meine Einschätzung:
Es wird mehr bestimmte Blockbuster exklusiv für den PC geben, die Mehrheit allerdings wird auf neue Konsolen ausweichen.
Ein Beispiel ist die Wii:
wenige große Titel wie TLoZ:TP und einige interessante Sachen wie WiiFit oder Mario, aber die Steuerung ist neu und sozusagen wirklich interaktiv. Dies werden andere Konsolen der nächsten Generation sicher aufgreifen.
Sowas dürfte für Shooter oder dergleichen recht schwierig ausfallen, oder auch für Strategiespiele wie Anno.
Zudem kann man mit den Konsolen dann surfen, Bluray und DVD schauen usw.
Deswegen wird der Markt an PC-Spielen eher kleiner und vielleicht auch der allgemeine Anteil dieser am Gesamtspielemarkt, allerdings sind diese Spiele sicherlich qualitativ hochwertiger und nicht so 0815-Abklatsche von längst bekannten Spielen mit nur anderer Grafik.
Und eben das wird der Grund sein, warum LowEnd-Grafik und vielleicht sogar Mainstream in die CPU wandern wird, um dort auch ganz andere Arbeiten mit zu erledigen.
Für Highend-Grafikkarten und deren Performance-Derivate wird es immer eine Chance und einen Markt geben, eben für die oben genannten PC-exklusiven Titel.
dargo
2009-01-19, 16:02:34
Die nächste Konsolengeneration wird dann Crysis in hohem Detailgrad darstellen können, in FULL HD.
Mit welchem Argument will man dann noch PC-Gaming bewerben?
Erst einmal ist das reine Spekulation. Und zweitens, wie weit sind wir zu diesem Zeitpunkt dann bei den CPUs/Grafikkarten im PC-Bereich? :)
Mein Ziel wäre sowas hier in Echtzeit. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7049131&postcount=418
Natürlich inklusive feines SSAA.
Erst einmal ist das reine Spekulation. Und zweitens, wie weit sind wir zu diesem Zeitpunkt dann bei den CPUs/Grafikkarten im PC-Bereich? :)
Mein Ziel wäre sowas hier in Echtzeit. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7049131&postcount=418
Natürlich inklusive feines SSAA.
Nett, aber wird das dazu führen dass sich die Leute mehr potente Grafikkarten kaufen? Eben das glaube ich nicht, der Mehrheit ist die Grafik nicht dermaßen wichtig. Den meisten langen noch PS2 (die meist gespielte Konsole in 2008) oder Wii (die best verkaufte in 2008), zu Xbox 360 oder PS3 muss man sie schon sanft zwingen ;)
haifisch1896
2009-01-19, 19:17:47
PS3 ist zu teuer, XBOX 360 ist allgemein gesehen nicht besonders beliebt (dank MS?) und die Wii bietet das einmalige, interaktive Spielvergnügen.
Wir mussten in meinem letzten Semester mit 3dsmax arbeiten und eine Animation entwerfen. Deswegen bin ich verwöhnt was Computergrafik anbelangt.
Games werden nicht so schnell in der Qualität erscheinen. Aber diese Wunschbilder gab es schon immer. Das Problem ist dass sich Technologie weiterentwickelt und damit auch Renderings. Vergleicht mal Renderings von früher und heute, ihr werdet überrascht sein!
Ja, man kann heutzutage sehr realistische Bilder rendern, auch wenn meistens die Textur nicht physikalisch gesehen räumlich wird dank Bump Mapping. Aber ein Rendering mit heutigen Technologien auf einem gutem Durchschnittsrechner benötigt mind. 24 Stunden. Wenn man bedenkt dass ein Spiel 15 Bilder pro Sekunde braucht dann Gute Nacht.
Bis dahin wird Technologie neue Freiräume eröffnen, wenn auch den Menschen mehr entfremdent von der Natur.
Ich bin jedenfalls glücklich hier zu lesen dass diese Fusion tralala Geschichte nichs revolutionäres bringt, da ich mir einen neuen PC bestellt hab und er noch lange halten kann.
Aber was haltet ihr von OTOY?
Anscheinend kombiniert es Voxel mit Pixel.
Ich finde so oder so das Voxel stark unterdrückt wurde ( Verschwörung? ), wenn man bedenkt wass für Grafiken die CPU alleine erstellen kann, wie würde heutige Grafik mit Voxel und der speziellen Grafikkarte ausschauen?
Jungs es liegt doch auf der Hand!
Pixel sind 2D Voxel 3D.
dargo
2009-03-08, 22:05:37
Aber ein Rendering mit heutigen Technologien auf einem gutem Durchschnittsrechner benötigt mind. 24 Stunden. Wenn man bedenkt dass ein Spiel 15 Bilder pro Sekunde braucht dann Gute Nacht.
15fps? Schön wärs ja. :)
Ich zumindest brauche um die 40fps für flüssiges Spielvergnügen (soll nicht heißen, dass sich 60fps nicht besser anfühlen). Wobei es auch engineabhängig ist. In einigen Fällen reichen mir auch 30fps aus.
15fps? Schön wärs ja. :)
Ich zumindest brauche um die 40fps für flüssiges Spielvergnügen (soll nicht heißen, dass sich 60fps nicht besser anfühlen). Wobei es auch engineabhängig ist. In einigen Fällen reichen mir auch 30fps aus.
Ich spiele in der Regel mit maximal 25 fps. Alles andere macht für mich subjektiv kein ausgeprägteres Bild und lässt auch Strom sparen.
Was genau lässt bei dir die 60 frames anders erscheinen als 30fps?
=Floi=
2009-03-08, 23:05:54
mauslag, fps am CRT, ruckeln bei noch weniger bilder, kein rundes spielgefühl etc.
dargo
2009-03-08, 23:28:56
Was genau lässt bei dir die 60 frames anders erscheinen als 30fps?
Bei zu tiefer Framerate (und das können auch 30fps sein, wie gesagt je nach Anwendung) fühlt sich die Steuerung schwammig an.
Crazy_Chris
2009-03-08, 23:39:18
Bei zu tiefer Framerate (und das können auch 30fps sein, wie gesagt je nach Anwendung) fühlt sich die Steuerung schwammig an.
So ist es. Shooter sind bei 30fps schon ziemlich an der Grenze. Dagegen ist ein Echtzeit Strategiespiel auch noch mit 20fps halbwegs erträglich.
Hmm, das ist natürlich schon interessant. Sollte es tatsächlich Unterschiede bei der Wahrnehmung geben so muss dies zwangsläufig bedeuten dass der Mensch sehr viel mehr Bilder pro Sekunde differenziert wahrnehmen kann. Meistens hört man ja nur dass ein Mensch nicht mehr als 25 Bilder pro Sekunde wahrnehmen kann.
FutureIsNow
2009-03-09, 15:06:28
Wenn Fusio da ist, warum gibt man dieser Einheit aus CPU und GPU keinen Bus, mit GDDR4, wie bei Grafikarten? So 256 MB reichen doch schon aus und es geht mächtig nach vorne. ;D
Dafür müsste dann das Speicherkonsortium? einen neuen Standard entwickeln, also für die Motherboards.
Tigerchen
2009-03-09, 15:14:58
Hmm, das ist natürlich schon interessant. Sollte es tatsächlich Unterschiede bei der Wahrnehmung geben so muss dies zwangsläufig bedeuten dass der Mensch sehr viel mehr Bilder pro Sekunde differenziert wahrnehmen kann. Meistens hört man ja nur dass ein Mensch nicht mehr als 25 Bilder pro Sekunde wahrnehmen kann.
Diese Meinung gilt eigentlich als überholt. Jeder der schnelle Shooter spielt bemerkt daß sich die Spielewelt bei den meisten Spielen erst mit 60-75fps einen flüssigen Eindruck hinterläßt. Vor allem bei schnellen Drehungen.
Das ist dann schon eine ziemlich hohe Forderung an Fusion oder andere Lösungen. Cyrix ist ja mit einem ähnlichen Vorstoß vor ein paar Jahren gescheitert. Die CPU nannte sich Cyrix Media GX und beinhaltete Grafik+Sound.
Crazy_Chris
2009-03-09, 15:28:09
Hmm, das ist natürlich schon interessant. Sollte es tatsächlich Unterschiede bei der Wahrnehmung geben so muss dies zwangsläufig bedeuten dass der Mensch sehr viel mehr Bilder pro Sekunde differenziert wahrnehmen kann. Meistens hört man ja nur dass ein Mensch nicht mehr als 25 Bilder pro Sekunde wahrnehmen kann.
Geht eher darum das man in extremen Situationen genug Reserven nach "unten" hat. 60fps im Schnitt sind eher uninteressant. Viel interessanter sind die minimal erreichbaren Frames.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.