Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum eigentlich nicht: Kombination GT240 & GTX480
z3ck3
2010-05-19, 12:46:24
Warum verbindet man nicht die Leistung eines Highendchips mit der kuscheligen leistungsaufnahme eines kleineren Chips. Nicht getrennt auf zwei Karten sondern auf einem PCB.
Die Aufgaben könnte man so "einfach" trennen:
GT240: Desktop, Videowiedergabe, PhysX
GTX480: 3D Beschleunigung, Cuda und Co.
Also im Prinzip ein kleiner Chip, der eine geringe Leistungsaufnahme und nur etwas Speicher hat für kleinere Aufgaben, und ein Chip der wie wirklich schweren Brocken knacken darf. Letzterer könnte samt Speicher im Desktopbetrieb schlafen gelegt werden.
Fürs Marketing auch nicht uninteressant, schließlich kann man eine dedizierte PhysX Einheit bewerben und den geringen Stromverbrauch im Idle. Die Technik dazu gibts ja prinzipiell auch schon. Nämlich in Notebooks wenn ich mich richtig erinnere.
Edit: Das ganze kann man natürlich auch auf andere Chips ausdehnen,ist ja nicht auf einen Hersteller eingeschränkt. Wenn man auf Phys X verzichtet wäre ja auch Intel/Nvidia denkbar oder AMD/AMD und so weiter.
Stechpalme
2010-05-19, 13:00:10
Die 240GT würde als dedizierte PhysX Einheit die 480GTX nur bremsen. Dazu wäre so eine Kombi einfach nur teuer und unwirtschaftlich. Zumal die nVidia Karten derzeit eh schon recht teuer sind.
Wenn man es generell sieht, ist es einfach zu teuer 2 Chips auf ein PCB zu klatshen. Denn die Kühlung muss dafür abgeändert werden, man muss die beiden Chips sicherlich mit einem weiteren Chip ansprechen damit fließend umgeschaltet werden kann, jeder Chip würde wohl eigenen V-Ram benötigen u.s.w.!
Ich denke langfristig werden wir Chipaufbauten sehen die entweder große Teile einfach komplett abschalten können, oder noch eher, Chips die in vielen kleinen Clustern aufgeteilt sind so das je nach Leistungsbedarf Cluster zugeschaltet oder abgeschaltet werden können.
Dimon
2010-05-19, 13:10:01
Eine GT240 wäre absolut overkill für desktop aufgaben, man könnte einer sehr kleinen Dedizierten GPU (8 Shader Einheiten) + 128MB draufklatschen und von denselben Kühlblock kühlen lassen, aber wahrscheinlich wäre der kostenfaktor der ausschlaggebende punkt....
gruß
z3ck3
2010-05-19, 13:14:34
Ja das mit dem Abschalten wäre auch eine Lösung. Wenn man PhysX mal außen vor lässt würde es aber sonst ja theoretisch funktionieren. Ließe sich natürlich auch in einem Chip integrieren. Aber ich sehe nicht das das passiert, eher sehe ich eine gegenteilige Entwicklung. Statt für bestimmte Aufgaben ein paar Transistoren zu opfern wird ja anscheinend fast alles nur noch mit kleinen Cores berechnet. Im Prinzip würde ja ein kleiner Chip ausreichen. 10-15 Watt für FullHD-Beschleunigung und Desktop mit zwei Monitoren sollten das Maximum sein. Wo liegt das aktuell? 100W? *grusel*
Edit: 64 MB, 8 Shader Einheiten, und Video de/encoder ließen sich sicherluich auch auf einen Chip verfrachten, oder wenigstens auf einen Träger zusammenbacken. An die GT240 hatte ich gedacht weil diese schon etwas Leistung aufbringt und ich mich meinte zu erinnern das diese auch genügend Leistung hat um PhysX brauchbar zu beschleunigen. Aber das wurde ja bereits schon gesagt das die Power nicht reicht bei z.b. einer GTX480
Nvidias Hybridpower (http://www.3dcenter.org/artikel/nvidias-hybridpower):
Die Idee, für Windows-Aufgaben doch besser die in vielen Mainboards sowieso integrierte Grafiklösung zu verwenden und nur für Spiele die extra Grafikkarte zuzuschalten, existiert in der Theorie schon einige Zeit – und ist auf einige speziellen Notebooks (mittels Umschaltern) sogar schon teilweise in die Praxis umgesetzt worden. Der Antrieb für diese Idee ist gewöhnlich, dass die meisten heutzutage verbauten integrierten Grafikchips mehr als ausreichend schnell genug für Windows-Darstellungen sind, wie auch dass die Stromspar-Modi von extra Grafikkarten oftmals nicht wirklich befriedigend sind.
(Der 3dc-Artikel ist von Januar 2008)
mfg
z3ck3
2010-05-19, 13:42:40
Genau das meinte ich. Nur eben nicht mit der Onboardgrafik, sondern damit das auch immer reibungslos funktioniert eben auf einem PCB.
Nighthawk13
2010-05-19, 14:15:10
Auf GF100 müsste das "Cluster-Abschalten" eigentlich ganz gut gehen, sind ja 4 relativ autonome Teilbereiche.
Spasstiger
2010-05-19, 14:17:47
Warum zwei Chips, wenn man die gleiche Funktionalität auch in einen Chip packen kann?
Lowkey
2010-05-19, 14:45:51
Der Grundgedanke ist der, dass man wenige Watt braucht, aber permanent Dinge mit Strom versorgt, die man nicht braucht. Ein Mini-Kern für 2D würde 90% der User glücklich machen, wenn er dann den Stromverbrauch drastisch reduziert. Das wäre technisch bestimmt schon machbar und kommt irgendwann auch.
gisbern
2010-05-19, 14:57:26
da sollen die Chiphersteller einfach mal ihre Hausaufgaben richtig machen, dann braucht man sowas nicht mehr.
Ich fahre selbst seit langem die Stromspar-PC-Schiene, und habe daher nur Onboard-Graka, um den Idle-Verbrauch der dedizierten Grakas zu sparen. JEDOCH bin ich jetzt wieder am überlegen. Die neuen ATIs verbrauchen (5770) schlappe 16 bis 17w, das wird verschmerzlich !
Was ich damit sagen will: die sollen einfach weiter so machen, dann brauchts keine komplexen Hybridlösungen.
Man bräuchte Power-Gating in einer GPU, dann könnte man zumindest große Teile abschalten. Aber außer Intel kann das derzeit keiner in einem High-Performance Prozess umsetzen, oder?
Spasstiger
2010-05-19, 19:32:18
Die GPUs nutzen afaik auch Powergating. Die AMD Phenoms ebenso (und die gab es vor den Core i7).
Powergating kann sehr unterschiedlich ausgeführt sein, deshalb kann man solche Pauschalaussagen gar nicht treffen.
Mit Powergating meine ich die nahezu vollständige Trennung ganzer Chip-Bereiche von der Versorgungsspannung.
Könnte man im Treiber eigentlich regeln, dass bei geringer Speichernutzung nur bestimmte Speicherbereiche gefüllt werden? Dann könnte man ggf. 10 von 12 GDDR Chips incl. deren Controller abschalten.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.