PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia Synergy? (Optimus für Desktops)


B3d4
2012-10-17, 10:52:54
Hey Leutz!

Immer mehr CPUs kommen mit integrierter Grafiklösung daher, welche im Desktop so gut wie nicht genutzt wird. Gibts aktuell für Desktops eine Lösung alla Nvidia Optimus wie bei Notebooks? D.h. Umschalten bei Desktopbetrieb auf zB Intel HD 4000 und bei Spielen auf die Grafikkarte?

Von Nvidia wurde ja mal Synergy angekündigt:
http://www.tomshardware.de/Nvidia-Optimus-Synergy,news-245651.html

Hab dazu aber nichts aktuelles mehr im Netz gefunden.

Über die Sinnhaftigkeit kann man natürlich streiten, aber würd mich interessieren obs hier mitterlweile irgendwelche Lösungen gibt.

cheers!
b3d4

AnarchX
2012-10-17, 10:56:51
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=520392

Für Retail/Selbsbau ist das ganze wohl zu anfällig.

B3d4
2012-10-17, 12:18:09
Dann haben die Synergy scheinbar fallen gelassen. Echt schade … wär ne nette Einsatzmöglichkeit in nem Selbstbau HTPC – integrierte Grafik für Multimedia + Umschaltung auf Grafikpower für Games.

z3ck3
2012-10-21, 03:00:59
Wäre das ganze nicht theoretisch relativ einfach umzusetzen:

3D: Berechnung auf der extra GPU -> fertiges Bild an die integrierte GPU -> Ausgabe auf Monitor

2D: extra GPU im Standbymodus (AMD hat doch AFAIK schon <1W Leistungsaufnahme wenn Monitor aus, NV müsste doch wenigstens im Standbymodus weniger als 1W verbrauchen), integrierte GPU übernimmt die Berechnungen und die Ausgabe komplett

Es müsste doch eigentlich nur ein entsprechender Treiber her, der je nach zu berechnendem Inhalt die Daten auf die jeweilige GPU verteilt. Natürlich rein theoretisch ;) Ich denke für einen Hersteller wie AMD und NV wäre das prinzipell ohne weiteren möglich. Ich denke der Grund das die es noch nicht gemacht haben liegt einzig und alleine an der Nachfrage nach solch einem Feature und der Tatsache das PCs nicht mit einem Akku betrieben werden. Was mich wundert ist,d as AMD dieses noch nicht umgesetzt hat, könnten die dieses Feature immerhin sehr gut für die Kombination aus integrierter und zusätzlicher AMD GPU vermarkten.

Maorga
2012-10-21, 12:01:02
Naja bei 60Hz 1920x1080 sind es pro Bild knappe 8MB und in der Sekunde dann 475MB - also knapp ein halbes Gigabyte. Dazu kommen natürlich Latenzen denn die Netzwerkkarte, SATA Controller und USB Controller sind ja alle mit dem PCIe verbunden.
Da wäre es leichter an den DVI Ports zu schauen wo etwas kommt und dort umzuschalten.

bdschnei
2012-10-21, 16:20:31
Ist Virtu von LucifLogix (http://www.lucidlogix.com/product-virtu-gpu.html) nicht so eine Lösung, um On-Board und externe Grafik je nach Anwendungsfall (Energiesparend/Performance) zu nutzen?

gnahr
2012-10-21, 17:29:58
jein, das funktioniert nicht sonderlich allumfassend gut.
das big bang marshal von msi war ja auch mal was besonderes. dabei haben sie aber nicht behauptet die grakas kombiniert anzusprechen, sondern die aufgaben sogar besser zu verteilen, sprich kein afr. daraus wurde aber nix wirklich großes, weil treibermist im vergleich zum universaltreiber direkt vom hersteller.

mittelbar gibts auch weiterhin keine gute lösung.
obwohl, nvidia hat ja was in betto um die leistung der graka per netzwerk an ein tegra-tablet zu beamen. in verbindung mit den fast zero-core-eigenschaften taugt das doch auch schon, wenn der richtige rechnerunterbau zum halben server im keller mutiert. demonstriert haben sie es damals glaube mit skyrim auf dem tablet, wird keine grafikleistung gebraucht übernimmt wieder die arm-lösung onboard... das wär auch ne feine sache für notebooks.

G A S T
2012-10-21, 23:49:15
Ist Virtu von Lucidlogix wirklich so übel?
Boards wie das ASRock Fatal1ty Z77 Professional oder Asus P8Z77-V Premium unterstützen z. B. dieses neue "Virtu MVP"... Was kann das denn (effektiv)?

Eine komplette Abschaltung der dedizierten Grafikkarte in 2D wäre schon ein Traum
und eine höchst sinnvolle Nutzung für den ganzen IGP-Kram in den neuen CPUs.

NVidia versteh ich irgendwie nicht. Mit den G80 & G90 Chips und den entsprechenden Boards hatte man ja die ersten guten Schritte gemacht.
Später kamen dann die Stromsparfunktionen bzw das automatische runtertakten im 2D-Betrieb.
Eigentlich bräuchte es doch nur einen Schalter in der Forceware, der die Graka im 2D-Betrieb einfach ausschaltet bzw. in eine Art "Ruhemodus" versetzt.
Das wird doch nicht so schwer sein. NDiva pls!