Archiv verlassen und diese Seite im Standarddesign anzeigen : Sind GPUs doch die besseren CPUs?
http://www.heise.de/newsticker/meldung/97833
25x schneller für eine Aufgabe die sonst CPUs berechnen...
Würde man GPUs noch um Standard-CPU Register erweitern und ein OS etwas anpassen, hätten wir dann Mega CPUs die 25x schneller sind?
Axe Homeless
2007-10-25, 13:44:13
klar macht der markt nich immer was am besten is,
aber wenn diese leistung ohne probleme verfügbar gemacht werden könnte, würde es sich durchsetzen, dass allein soltle dir schon reichen, dass es nich geht^^ für die technische erklärung, andere hier^^
Mstrmnd
2007-10-25, 14:04:04
Kurz Nein.
Dito.
Mal abgesehen davon, dass diese Meldung bereits in zwei anderen Threads besprochen wird, lässt sich zur konkreten Frage hier sagen: Eine GPU ist für bestimmte Aufgaben optimiert und ist in ihrem Bereich auch sehr viel schneller, als es eine CPU ist. Eine CPU ist jedoch ein Allrounder und muss dies auch sein. Eine GPU ist nicht effektiv als CPU einsetzbar.
Es ist allerdings nicht ausgeschlossen, dass irgendwann in Zukunft die beiden verschmelzen.
GPUs eigenen sich als (sequentielle Fließkomma) Numbercruncher, wo man mit hoher Bandbreite auf den Speicher zugreifen kann/muß aber nichts unvorhergesehenes passieren darf (also ist eine GPU für die ICs, was ein P4 für die CPUs war :))
CPUs eignen sich für komplexen Programmablauf mit vergleichsweise wenig zusammenhängenden Eingabedaten, wo geringe Latenz bei Speicherzugriffen entscheidend ist und jederzeit alles pasieren kann (sowohl auf die Eingabedatentypen, als auch die Programmlogik).
Mal abgesehen davon, dass diese Meldung bereits in zwei anderen Threads besprochen wird
wo?
Mstrmnd
2007-10-26, 00:02:35
wo?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=387593
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=387551
Sentionline
2007-10-26, 06:01:03
Sind GPUs doch die besseren CPUs?
Kannst ja mal eine G80 in den CPU Sockel Pappen. Dann hängst du sicher den kommenden Quint-Kern ab...:rolleyes:
Kommandofrosch
2007-10-26, 11:14:30
Die jetzigen Cpus werden immer komplexer. Bald tummeln sich genauso viele Transistoren/logische Gatter auf einer CPU wie bei den GPUs. GPUs sind so verdammt schnell weile mehrere Tasks gleichzeitig auf dem Die ausgeführt werden können. Mittlerweile hohlen die CPus den Vorsprung wieder auf, siehe Mulicores.
Sentionline
2007-10-26, 11:38:39
Naja, der "echte" Multicore lässt auf sich noch warten. Ein C2D ist ja nur ein "aufgebohrter & zusammengepappter" Pentium M. Und der Athlon X2 ist nicht so der reisser. Mal abwarten...
Interessant wäre eine Quad"Core" 8950GTS?:rolleyes:
Eine "echte" DualCore Grafikkarte würde aber rund 300W alleine schon verbrauchen, während die CPUs ja immer mehr leistung bringen sollen und dabei kühler werden sollen. Irgenwie unfair das da auf den TDPs der CPUs geritten wird.
Stellt euch mal vor wie schnell eine CPU wäre, die 150W verbraucht? Dieser wäre aber nicht weit von einer G80 in sachen Rechengeschwindigkeit. Was den Multicores noch fehlt ist ein "intelligenter" Controlerprozessor, der für die Parallelisierung zuständig ist.
AnarchX
2007-10-26, 11:40:06
Naja, der "echte" Multicore lässt auf sich noch warten. Ein C2D ist ja nur ein "aufgebohrter & zusammengepappter" Pentium M.
Definitiv nicht, informier dich mal über die Verbindungen zwischen den Cores. Ich sag nur Austausch des L1-Caches...;)
Undertaker
2007-10-26, 12:09:58
Die jetzigen Cpus werden immer komplexer. Bald tummeln sich genauso viele Transistoren/logische Gatter auf einer CPU wie bei den GPUs.
aber schau mal wieviel % davon logik sind ;)
BlackBirdSR
2007-10-26, 12:54:47
Naja, der "echte" Multicore lässt auf sich noch warten. Ein C2D ist ja nur ein "aufgebohrter & zusammengepappter" Pentium M. Und der Athlon X2 ist nicht so der reisser. Mal abwarten...
Interessant wäre eine Quad"Core" 8950GTS?:rolleyes:
Eine "echte" DualCore Grafikkarte würde aber rund 300W alleine schon verbrauchen, während die CPUs ja immer mehr leistung bringen sollen und dabei kühler werden sollen. Irgenwie unfair das da auf den TDPs der CPUs geritten wird.
Stellt euch mal vor wie schnell eine CPU wäre, die 150W verbraucht? Dieser wäre aber nicht weit von einer G80 in sachen Rechengeschwindigkeit. Was den Multicores noch fehlt ist ein "intelligenter" Controlerprozessor, der für die Parallelisierung zuständig ist.
Das mit dem C2D würde ich nicht ganz so einfach sehen ;)
Und CPUs mit 150W gab es doch schon.. Pentium4 oder Tejas ;)
GPUs haben ihre ganz eigenen Applikationsfelder, und dort sind sie teils unschlagbar. CPUs haben ihre Vorteile und gute Leistung. Und es macht momentan noch wenig Sinn, sie ähnlich auszubauen wie eine GPU.
LordDeath
2007-10-26, 23:37:04
gpus werden zwar immer programmierbarer, aber auch immer breiter - es sind immer mehr gleiche dinge parallel geschaltet.
bei cpus werden die cores auch immer mehr, nur werden diese dann immer einfacher.
irgendwann treffen sich dann beide in der mitte und man braucht nur eine komponente für beide aufgaben.
Wie so oft wird hierbei leicht vergessen, das CPUs vorallem flexibel einsetzbar sind und GPUs meist nur bestimmte Berechnungen (schneller) durchführen können. Bei anderen sind sie widerum grottenlahm.
Außerdem ist der Vergleich ein wenig unpassend, man müsste die GPU eher mit Erweiterungskarten (z.B. PhysX) vergleichen, denn die sind ebenfalls für bestimmte Zwecke besser geeignet und auch wesentlich schneller als eine einzelne CPU.
Sentionline
2007-10-26, 23:52:25
Wie so oft wird hierbei leicht vergessen, das CPUs vorallem flexibel einsetzbar sind ... man müsste die GPU eher mit Erweiterungskarten (z.B. PhysX) vergleichen, denn die sind ebenfalls für bestimmte Zwecke besser geeignet und auch wesentlich schneller als eine einzelne CPU.
Genau. Eine CPU kann so ziemlich alles berechnen was eine Grafikkarte auch kann. Grafik, Physik, RayTracing etc., aber auch ganz allgemeine Sachen wie z.B. Encoder oder einfach nur Kompilieren.
So flexibel ist eine Grafikkarte nicht...Noch nicht. Den ersten rudimentären Ansatz hat ja ATi mit dem AviVo Converter versucht. Mich wundert es aber denoch das die ersten "echten" DualCore Grafikkarten so lange auf sich warten lassen. SLI oder Crossfire sind nicht so das Wahre mit verbräuchen um die 300W für 2 Karten. Das muss besser gehen.
gpus werden zwar immer programmierbarer, aber auch immer breiter - es sind immer mehr gleiche dinge parallel geschaltet.
bei cpus werden die cores auch immer mehr, nur werden diese dann immer einfacher.
Nana. Nicht so platt betrachten, eine Multicore-CPU kann doch eine Sache gleichzeitig Rechnen (Siehe CineBench). Und auch sonst ist die CPU gut zum Encodieren & Modelieren gleichzeitig geeignet, nur so als Beispiel.
Wie schon oben erwähnt arbeitet Intel derzeit an einem "Parallelisierungs Prozessor/Controller". Serienreife wird so in ~5 Jahren angegeben, dann werden wir "immer" 100% CPU Last erreichen. Aktuell geht das nicht so gut mit der Threadaufteilung, weil die "Programmschnüre" noch vom Betriebssystem aufgeteilt werden. Da dies Softwarebasierend ist, muss der Prozessor seine eigene Arbeit nach wie vor selbst vorbereiten. Eine Grafikkarte braucht sowas nicht, weil es ja nur eine Sache kann. OpenGL oder D3D "verstehen". Also voll blöd, aber sau schnell.
Nach wie vor stecken wir in "Kinderschuhen" was Multicore angeht. Und das wird sich so schnell nicht ändern...
mfg
Neomi
2007-10-27, 00:18:57
Mich wundert es aber denoch das die ersten "echten" DualCore Grafikkarten so lange auf sich warten lassen.
Wie lange hält sich dieser Quatsch eigentlich noch? Über "Dual" ist man bei GPUs schon lange hinaus. Die Dinger sind doch nur deshalb so schnell, weil sie massiv parallel arbeiten.
Wie schon oben erwähnt arbeitet Intel derzeit an einem "Parallelisierungs Prozessor/Controller". Serienreife wird so in ~5 Jahren angegeben, dann werden wir "immer" 100% CPU Last erreichen.
Und auch das könnte kaum falscher sein. Dinge, die nichtmal ein Compiler parallelisieren kann, kann festverdrahtete Hardware erst recht nicht parallelisieren. Und es wird immer Dinge geben, die sich nichtmal theoretisch parallelisieren lassen, nicht heute und nicht in 1000 Jahren.
Sentionline
2007-10-27, 00:44:41
Wie lange hält sich dieser Quatsch eigentlich noch? Über "Dual" ist man bei GPUs schon lange hinaus. Die Dinger sind doch nur deshalb so schnell, weil sie massiv parallel arbeiten.
Natürlich, deshalb SLI, Quad SLI & Co. Die DIE Fläche ist ausgereizt, das ist bei Grafikkarten aktuell das Problem. Größere DIEs würden den Stromhunger der Grafikkarten explodieren lassen. Merkt man ja schon heute bei der 2900XT & der 8800GTX.
Und auch das könnte kaum falscher sein. Dinge, die nichtmal ein Compiler parallelisieren kann, kann festverdrahtete Hardware erst recht nicht parallelisieren. Und es wird immer Dinge geben, die sich nichtmal theoretisch parallelisieren lassen, nicht heute und nicht in 1000 Jahren.
Hab ich auch nicht gesagt. Nicht immer die Sätze für sich zurecht drehen...
Eine Multicore wird, wenn es irgendwann soweit ist immer 100% last erreichen, weil immer mehr Threads auf den Computern laufen (werden). Und wenn diese dann auch noch Multicore "optimiert" sind, dann haben die CPUs irgendwann immer eine volle Leistung. Parallelisierungscontroller können da ein stück mithelfen, keinesfalls die Softwarehilfe ersetzen.
Mit wie vielen Threads arbeitet eine Grafikkarte im Schnnitt? 3, 10?
mfg
Dual GPU lol.
Moderne grakas haben doch schon duzende parallele einheiten, oder muss man das anders betrachten?
Mit wie vielen Threads arbeitet eine Grafikkarte im Schnnitt? 3, 10?
128?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.