Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias HybridPower
Leonidas
2008-01-21, 18:01:02
Link zum Artikel:
http://www.3dcenter.org/artikel/2008/01-21.php
SaTaN
2008-01-21, 18:21:39
Hallo,, es ist doch "HybridPower" gemeint, oder heißt das wirklich "HypridPower"?
es muss hyBridpower heißen...
Botcruscher
2008-01-21, 18:34:08
Theorie top, Praxis Flop.
Das ganze System hat einfach zuviele Einschränkungen/Nachteile damit es überhaupt funktioniert.:(
Das ganze System hat einfach zuviele Einschränkungen/Nachteile damit es überhaupt funktioniert.:(
Die da wären?
laser114
2008-01-21, 18:46:39
Aua, sehr auffälliger Schreibfehler.
Sephiroth
2008-01-21, 18:50:48
Aua, sehr auffälliger Schreibfehler.
es muss hyBridpower heißen...
Hallo,, es ist doch "HybridPower" gemeint, oder heißt das wirklich "HypridPower"?
ausgebessert ;)
p.s.
Schade, bei der Suche nach HypridPower war 3DCenter damit auf Platz 1 bei Google ^^
Botcruscher
2008-01-21, 19:06:19
Die da wären?
Eine noch stärke Treiber und Hardwareabhängigkeit als bei SLi. Das ganze Konzept hinter SLI/CF ist einfach ein Problem. Der Aufwand loht nur für Freaksysteme. Dazu die ganzen Nachteile ala Mikroruckler, Prerenderlimit, extra Profile...
Minimum wäre das es überall 0815 out of the Box rennt. Schnellere Singlekarten wären weit besser... Aber nö, lieber so einen Murks als X2 verscherbeln.
Da allerdings alle andere Quellen durchgehend keine Bedingung bezüglich des verwendeten Betriebssystems nennen, ist dieser Punkt bislang noch unter Vorbehalt zu sehen.
da frühere windows-versionen überhaupt keinen wechsel des grafiktreiber im betrieb zulassen dürfte die beschränkung auf vista ziemlich sicher sein.
ansonsten müsste der treiber irgendwie dem system eine einzige grafikkarte vortäuschen und für das OS transparent zwischen den unterschiedlichen hardwarekarten wechseln, was mir doch eher unwahrscheinlich erscheint.
AnarchX
2008-01-21, 19:14:34
:|
Hier geht es doch um Hybrid-Power, wo die von dir genannten Probleme, wie Profile, keine Relevanz haben.
Wirkliche Probleme sind die, welche Leo schon im Artikel nennt:
- passendes Mainboard, mit kommenden Chipsatz
- H-Power erst ab GF9 möglich, obwohl NV früher auch GF8 als Profiteur der Technologie darstellte
- NV mit H-Power und ATi mit PowerXpress - zwei nicht kompatible Systeme
Das wirklich interessante für uns, die auch gerne mal spielen, und keinen Zweit-PC zum Surfen haben ;), ist doch die Fähigkeit, die interne Grafikeinheit für den Alltag benutzen zu können. Ob die dann noch 2, 3 fps mehr bringen würde, wenn man sie im SLI / Crossfire-Modus zur Spielegrafikkarte hinzuschaltet, spielt imo echt keine Rolle. Demzufolge sind Mikro-Ruckler etc. nicht das Problem, eher eben die Abhängigkeit von verwendetem Chipsatz und Grafikkarte.
Leonidas
2008-01-21, 19:50:40
Hallo,, es ist doch "HybridPower" gemeint, oder heißt das wirklich "HypridPower"?
Ähm ja, Fehler. Gefixt ;)
AnarchX
2008-01-21, 19:56:17
Womöglich auch deswegen unterstützt der kleinste der neuen Mainboard-Chipsätze - nForce 730a - als einziger kein HybridPower, dieser Chipsatz dürfte wohl eher nur in den OEM-Bereich gehen, wo sowieso keine extra Grafikkarte verbaut wird.
730a unterstützt kein H-Power, da er keine Bild-Ausgänge hat, sein IGP kann deshalb nur für GeForce-Boost genutzt werden.;)
Eine noch stärke Treiber und Hardwareabhängigkeit als bei SLi. Das ganze Konzept hinter SLI/CF ist einfach ein Problem. Der Aufwand loht nur für Freaksysteme. Dazu die ganzen Nachteile ala Mikroruckler, Prerenderlimit, extra Profile...
Minimum wäre das es überall 0815 out of the Box rennt. Schnellere Singlekarten wären weit besser... Aber nö, lieber so einen Murks als X2 verscherbeln.
Wieso ist die Treiber und Hardwareabhängigkeit stärker als bei SLi? Ist sie nicht eher gleich? Und mit SLi hat HybridPower doch gar nichts zu tun, insofern wird diesbezüglich auch keine Mikroruckler geben. Ich finde den Ansatz sehr gut, dass sich die "3D Karte" zuschalten läßt, auch wenn sparsamere Idle Modi wünschenswerter wären. Und wenn ATi/AMD diesbezüglich nachlegen wird sehe ich da auch keine Probleme.
was ist denn daran so toll????
Wie war das noch bei 3Dfx Voodoo Graphics bzw. Voodoo2 - eine Grafikkarte für den Desktop und eine oder zwei (3Dfx-Sli) nur für 3D.....
Und das hat auch automatisch funktioniert :)
Videologic PowerVR hat sogar gezeigt, dass es kein Problem ist, in den Framebuffer der Grafikkarte eines anderen Herstellers zu schreiben und deren Monitorausgang zu nutzen.
Das ist nun schon alles über 10 Jahre her, klar gabs damals Einschränkungen, aber bei kontinuierlicher Weiterentwicklung wäre doch heute bestimmt ein perfekt funktionierendes System möglich, nur könnte uns dann Nvidia nicht erzählen, dass das Rad mal wieder neu erfunden wurde ;)
aspro
2008-01-22, 01:12:10
da frühere windows-versionen überhaupt keinen wechsel des grafiktreiber im betrieb zulassen dürfte die beschränkung auf vista ziemlich sicher sein.
ansonsten müsste der treiber irgendwie dem system eine einzige grafikkarte vortäuschen und für das OS transparent zwischen den unterschiedlichen hardwarekarten wechseln, was mir doch eher unwahrscheinlich erscheint.
Vista kann genauso wenig wie XP den Grafiktreiber wechseln, wurde doch oft genug im Artikel gesagt. HybridPower umgeht ja genau diese Beschränkung von Windows, indem einfach nV IGP und nV Graka vorausgesetzt wird, die den selben Treiber nutzen.
Deshalb sehe ich diese Beschränkung auch eher als Druckmittel, um mehr Leute zum Vista-Kauf zu drängen, wenn man schon keine anderen Argumente mehr hat.
Ich hoffe mal AMD/ATi ist da flexibler.
MadManniMan
2008-01-22, 09:03:37
Gibt es schon Ankündigungen von ATi? Es wäre ungeschickt, nicht zumindest eine Technologievorschau zu erstellen.
Leonidas
2008-01-22, 09:12:12
Es gab mal Meldungen zum Thema Hybrid-CrossFire, welche sich allerdings eher auf die CrossFire-Zusammenarbeit der beiden Grafikchips bezogen und eine HybridPower vergleichbare Technologie nur am Rande erwähnten:
http://www.golem.de/0712/56566.html
Andere seinerzeitige Meldungen sprachen allerdings abweichend davon, daß man bei ATIs Lösung die extra Grafikkarte nicht vollständig abschalten kann. Hier fehlt also noch die letzte Klarheit.
Aber in der Tat hast Du Recht: Nachdem nVidia nun alles klar gemacht hat, sollte ATI schnellstmöglich ebenfalls Flagge zeigen, daß man das auch kann (wenn man es kann).
MadManniMan
2008-01-22, 09:49:52
Aber in der Tat hast Du Recht: Nachdem nVidia nun alles klar gemacht hat, sollte ATI schnellstmöglich ebenfalls Flagge zeigen, daß man das auch kann (wenn man es kann).
Ich fürchte fast, dass es daran gerade wirklich mangelt. Wenn ich mir die Zahlen so anschaue, dann lagern die Statistiker bei AMD entweder seltsam um, oder ATi hat 2007 im Vergleich zum Vorjahr krass abgebaut. Dazu die Gerüchte um R&D mit angezogener Handbremse...
Ich arbeite ja selbst im Marketing - und es sollte kein Problem sein, mit ein paar hübschen Folien zumindest eine Idee anzukündigen, auch wenn sie noch nicht spruchreif ist. Danke übrigens für den Link, unterstreicht für mich meine Vermutung...
Hmm nur unter Vista SP1? War es nicht auch damals nVidia, deren Board Treiber nur unter XP SP1 liefen und damit einen Grossteil der Leute überhaupt erst zum Einspielen des SPs gebracht haben(damit verbunden auch zum wechseln des Keys)?
Vista kann genauso wenig wie XP den Grafiktreiber wechseln, wurde doch oft genug im Artikel gesagt.
doch kann es, es ist lediglich nicht möglich 2 treiber unterschiedlicher hersteller gleichzeitig zu betreiben.
Deinorius
2008-01-22, 11:37:39
Was ist mit dem RAM/GRAM? Wird für die onboard Grafik der System-RAM verwendet wie üblich, oder wäre es sogar möglich, den RAM von der Grafikkarte zu nutzen?
Kann man denn im laufenden Betrieb einfach so etwas vom System-RAM abzweigen?
Blackhand
2008-01-22, 12:33:14
Zitat von Gast
da frühere windows-versionen überhaupt keinen wechsel des grafiktreiber im betrieb zulassen dürfte die beschränkung auf vista ziemlich sicher sein.
ansonsten müsste der treiber irgendwie dem system eine einzige grafikkarte vortäuschen und für das OS transparent zwischen den unterschiedlichen hardwarekarten wechseln, was mir doch eher unwahrscheinlich erscheint.
Zitat von aspro
Vista kann genauso wenig wie XP den Grafiktreiber wechseln, wurde doch oft genug im Artikel gesagt. HybridPower umgeht ja genau diese Beschränkung von Windows, indem einfach nV IGP und nV Graka vorausgesetzt wird, die den selben Treiber nutzen.
Deshalb sehe ich diese Beschränkung auch eher als Druckmittel, um mehr Leute zum Vista-Kauf zu drängen, wenn man schon keine anderen Argumente mehr hat.
Ich hoffe mal AMD/ATi ist da flexibler.
Also ich kann aus eigener Erfahrung sagen, dass das Humbug ist, auch das was im Artikel steht.
Ich hatte damals mal rumexperimentiert, eine Voodoo5 PCI neben einer Radeon 8500 laufen zu lassen.
Im Artikel unerwähnt(das hätte man aber echt mal als Alternative aufzählen können) habe ich dafür einfach mal die Möglichkeit benutzt, dass manche Monitore 2 Eingänge besitzen. Mein Samsung Syncmaster 959NF hat einen BNC und einen VGA Eingang. Da ist der Umschalter also quasi schon im Monitor integriert, zur Not kann man per OSD einstellen, welches Signal er nutzen soll.Da heutige TFTs oftmals einen VGA und einen DVI EIngang haben, kann man ja beides benutzten, den VGA für die integrierte, den DVI für die richtigen Grakkas(mal zu dem Argument, das müsste unbedingt DVI sein). Zum gemeinsamen Nutzen ist VGA natürlich ungeeignet, da man ja alles über einen analogen Kanal umschleifen würde.
Jedenfalls konnte ich im laufenden Betrieb einfach mal zur Voodoo5 wechseln, komplett ohne Neustart, was mich auch erstmal überraschte, hatte garnicht damit gerechnet, dass das so einfach laufen würde. Und die Karte hat dann auch super funktioniert. Allerdings ging der umgekehrte Weg dann nicht mehr, wollte ich wieder die Radeon nutzen, musste ich neustarten. Denke aber mal, das hing rein an der Treibersoftware, die dafür ja eigentlich nicht vorgesehen ist. Bin mir sicher mit ein bischen Arbeit wäre das ohne weiteres möglich gewesen.
Die ATi Treiber bieten ja heute und auch damals schon generell die Möglichkeit des erweiterten Desktops an. Der wird u.a. durch Geräteumschalten erreicht, bei den neueren Karten(bei der R8500 wars eigentlich noch nicht so, ist jetzt aber schon echt lange her, weiß das nicht mehr so genau) wird ja eine Radeon Secondary vorgekaukelt z.B., die dann den 2. Bildschirm erreicht. Genau über das Menü konnte ich die Voodoo einschalten... und hat wie gesagt super funktioniert, als Bildschirm war dann halt einfach der selbe Monitor eingestellt. Vielleicht hatte ATi damit schon unbewusst ein Workaround um die angeblich technischen Hürden eingebaut.
Ich kann mich leider nciht mehr daran erinnern ob ich rumprobiert hatte, das jeweils inaktive Gerät im Gerätemanager zu deaktivieren. Weiß auch nicht ob das Gerät dann keinen Strom mehr zieht, wenn es deaktiviert ist. Wenn ja, wäre ein extra Controller für die Abschaltlogik sehr für den Arsch, da man das ja schon seit langem von Windows aus kann.
EDIT: Tippfehler etwas korrigiert und das verwendete OS war damals WinXP, kein Plan welches SP.
Grestorn
2008-01-22, 12:35:54
Was ist mit dem RAM/GRAM? Wird für die onboard Grafik der System-RAM verwendet wie üblich, oder wäre es sogar möglich, den RAM von der Grafikkarte zu nutzen?
Kann man denn im laufenden Betrieb einfach so etwas vom System-RAM abzweigen?
System-RAM. Das GraKa RAM ist ja abgeschaltet.
Natürlich kann man das im Betrieb aus dem System-RAM nehmen. Und wieder freigeben, wenn man's nicht mehr braucht.
Blackhand
2008-01-22, 12:49:59
Was ist mit dem RAM/GRAM? Wird für die onboard Grafik der System-RAM verwendet wie üblich, oder wäre es sogar möglich, den RAM von der Grafikkarte zu nutzen?
Kann man denn im laufenden Betrieb einfach so etwas vom System-RAM abzweigen?
Also für Software wird ja auch Speicher reserviert, sollte für Hardware also auch möglich sein.
Den GRakka-Ram zu benutzen halte ich aufrund des PCI-Express Rückkanals zwar für generell möglich, aber sinnlos und ich glaube auch das wird nie implementiert werden.
AnarchX
2008-01-22, 12:58:24
Den GRakka-Ram zu benutzen halte ich aufrund des PCI-Express Rückkanals zwar für generell möglich, aber sinnlos und ich glaube auch das wird nie implementiert werden.
Natürlich sinnlos, da die dedizierte GraKa aktiv bleiben müsste und man über den IMC deren GPU auf den RAM zugreifen müsste....
Blackhand
2008-01-22, 13:18:14
Natürlich sinnlos, da die dedizierte GraKa aktiv bleiben müsste und man über den IMC deren GPU auf den RAM zugreifen müsste....
Daran hab ich garnet mal gedacht. Dann müsste der IMC wohl auch noch extra so implementiert werden, dass er die Daten über den PCIe Kanal zurücksendet. Also dürfte es mit aktuellen Grakkas soweiso nicht möglich sein.
IkariGend
2008-01-22, 13:36:53
Daran hab ich garnet mal gedacht. Dann müsste der IMC wohl auch noch extra so implementiert werden, dass er die Daten über den PCIe Kanal zurücksendet. Also dürfte es mit aktuellen Grakkas soweiso nicht möglich sein.
Was dann wohl wieder die Stromersparnis zu einem Teil zunichte machen würde...
Einen Nachteil von dem System sehe ich aber noch:
Zwei Monitore gleichzeitig betreiben, wie soll das noch funktionieren oder haben die NForce 7 Boards zwei DVI-Ports?
Jetzt kommt mir nicht mit Matrox Dual-Head oder so :P
Grestorn
2008-01-22, 13:42:27
Einen Nachteil von dem System sehe ich aber noch:
Zwei Monitore gleichzeitig betreiben, wie soll das noch funktionieren oder haben die NForce 7 Boards zwei DVI-Ports?
Gute Frage. Sollten sie dann wohl.
Ich werde mit dem Konzept nicht warm; eigentlich eine "gute Idee", aber eine leistungsstarke GPU Karte "enthält" doch bereits eine IGP. Wenn man sich um vernünftige Abschaltung der internen Komponenten auf der Platine und dem Chip kümmern würde, müßte man nicht eine derartige Lösung aufbieten und mehrere Komponenten unnötigerweise in die Problemlösung einbeziehen. Dann würde man natürlich auch keine zusätzlichen Verkaufsargumente für seine Chipsätze und IGPs schaffen.
Beim Abschalten und Runtertakten von Komponenten (auch dynamischer und anwendungsgerechter) wäre noch sehr viel Potential drin, da muß man nicht soviel zusätzliches Material in den Ring werfen und das Problem verschieben.
Leonidas
2008-01-22, 13:53:22
Ich fürchte fast, dass es daran gerade wirklich mangelt. Wenn ich mir die Zahlen so anschaue, dann lagern die Statistiker bei AMD entweder seltsam um, oder ATi hat 2007 im Vergleich zum Vorjahr krass abgebaut. Dazu die Gerüchte um R&D mit angezogener Handbremse...
Ich arbeite ja selbst im Marketing - und es sollte kein Problem sein, mit ein paar hübschen Folien zumindest eine Idee anzukündigen, auch wenn sie noch nicht spruchreif ist. Danke übrigens für den Link, unterstreicht für mich meine Vermutung...
ATI-Geschäftszahlen: Der Mobo-Chipsatz-Bereich zählt nun zu AMD, nicht mehr zu ATI. Das könnte die Erklärung sein. Den eigentlich hat ATI im letzten Jahr im LowCost- und Mainstream-Geschäft (wo das Geld gemacht wird) sich ganz wacker geschlagen.
Folien zur Unterstreichung der Idee: Meine Meinung.
Warum das ganze denn bitte so kompliziert?
Modernen GraKas haben doch alle eine (massiv) parallele Architektur. Warum nicht für den 2 D Betrieb einfach unbenötigte Einheiten abschalten?
Ein einzelner Funktionsblock (4 Pipelines?) reicht für eine 2D Gui doch dicke aus.
Der Rest wird eben per Clock-Gating komplett von Strom und Spannung getrennt und gut ist.
Das gleiche beim Speicher: 64 Bit zum Speicher für ne Gui sollten reichen, die Speicherchips an den restlichen Datenleitungen könnte man ebenfalls einfach abschalten.
Mir ist schon klar das z.B. Vista viel GraKaspeicher für die neue Gui braucht und es evtl besser sein könnte zwei Funktionseinheiten mit reduzierter Spannung und Takt statt einer auf voller Leistung zu nutzen. Aber die Grundidee sollte klar geworden sein.
Gruß
Rechner-Tester
MadManniMan
2008-01-22, 14:13:00
ATI-Geschäftszahlen: Der Mobo-Chipsatz-Bereich zählt nun zu AMD, nicht mehr zu ATI. Das könnte die Erklärung sein. Den eigentlich hat ATI im letzten Jahr im LowCost- und Mainstream-Geschäft (wo das Geld gemacht wird) sich ganz wacker geschlagen.
Achso ... ja klar, ergibt Sinn!
Folien zur Unterstreichung der Idee: Meine Meinung.
Im Ernst: gib mir eine Woche mit ein paar Technikern aus der Chipsatz- und GPU-Abteilung und ich mach Dir ne Präsi zu CrossFireHybridHyperStromSpar, die ähnlich elegant, wie die von nV daherkommt. Deswegen denke ich einfach, dass die nix haben ;( Schade!
LovesuckZ
2008-01-22, 17:34:26
ATI-Geschäftszahlen: Der Mobo-Chipsatz-Bereich zählt nun zu AMD, nicht mehr zu ATI. Das könnte die Erklärung sein. Den eigentlich hat ATI im letzten Jahr im LowCost- und Mainstream-Geschäft (wo das Geld gemacht wird) sich ganz wacker geschlagen.
Wieso hat man dann mehr Verlust als im Vorjahrquartal/Jahr gemacht?
MadManniMan
2008-01-22, 18:16:32
Wieso hat man dann mehr Verlust als im Vorjahrquartal/Jahr gemacht?
Meinst Du jetzt ATi oder AMD?
Was ist mit dem RAM/GRAM? Wird für die onboard Grafik der System-RAM verwendet wie üblich, oder wäre es sogar möglich, den RAM von der Grafikkarte zu nutzen?
natürlich der system-RAM
Kann man denn im laufenden Betrieb einfach so etwas vom System-RAM abzweigen?
klar, unter vista ist der grafikspeicher sowieso virtualisiert, dann ist es völlig egal wo die daten tatsächlich liegen, die könnten prinzipiell sogar auf der festplatte sein ;)
Zum Thema 'Was macht ATI' (auch in den 3DC News von heute), lt. c't 3/2008, Seite 28, solls im 2Q08 losgehen. Erstmal mobil, macht ja auch mehr Sinn. Chipsatzgrafik für 'business as usual', + Extrachip für Spiele usw.
RavenTS
2008-01-22, 21:47:49
"...Es ist ein selbstverständlich ein Wechsel der benutzten Grafiklösung..."
Ein "ein" zuviel...
"...eine solche Funktion auch auf Mainboard-Chipsätzen von Intel, VIA und SiS vorzufinden, gleich..."
VIA hat sich doch aus dem Chipsatzsegment zurückgezogen und wird nur noch eigene Sachen für ihre LowestCost-Linie backen...
Hmm nur unter Vista SP1? War es nicht auch damals nVidia, deren Board Treiber nur unter XP SP1 liefen und damit einen Grossteil der Leute überhaupt erst zum Einspielen des SPs gebracht haben(damit verbunden auch zum wechseln des Keys)?
Vielleicht zahlt MS ja ein paar Dollarchen für ein weiteres Vista-Argument.?!
ChainSOV
2008-01-23, 03:02:53
ich denke auch, es waere eleganter, sie wuerden mal an ihren stromspar und einheitsabschalt technologien arbeiten ...
kann nvidia nicht das aktuelle geforce design mal zu intels forschungslaboren nach israel schicken, wo der pentium m entwickelt wurde, die jungs dort scheinen ueber das noetige know-how zu verfuegen ;)
edit: hab gerad den link zur pcgh gf stromspar modi gesehn ^ ^
ati hat mit powerNow den schritt in die richtige richtung getan, ich hoffe sie gehen weiter in die richtung anstatt uns in die vista/hybrid zwangsjacke zu stecken
Mehr Hinweise, dass HybridCrossfire leider kein HybridPower-Ähnliches Feature bieten wird: http://www.bit-tech.net/hardware/2008/01/23/ati_radeon_hd_3450_3470_and_3670/3
Ati/AMD: Bitte ruht euch nicht auf vergangenen Innovationen (PowerNow) aus, wie es AMD mit dem Athlon64-Design getan hat :(
Widowmaka
2008-01-23, 20:38:24
Mal ein Wort zu den technischen Hürden: Das Mixen von 2 Videostreams auf einen Ausgang und das gleichzeitige Herunterfahren von nichtgenutzten ICs im Betrieb ist kein Problem, das wird in wirklich leistungsbeschränkten Anwendungen wie Flugzeuge oder Militärfahrzeuge schon länger gemacht. dort nimmt man einen entsprechend schnellen FPGA der die Bitstreams mischt und teilweise auch Picture-in-Picture (manchmal auch mehrfach) realisiert (Beispiel: http://www.cwcembedded.com/products/0/189/471.html). Das nötige Ingenieurs-Know-How ist also vorhanden.
Probleme sind:
1. Zusätzliche Latenz von knapp 1 frame (grobe Vermutung von mir). Für die oben angesprochenen Anwendungen werden eben die Anwendugen darauf ausgelegt, was im PC-Bereich ja schlecht möglich ist.
2. Die im Artikel angesprochenen Treiberprobleme unter Windows
3. Dann wären ja keine Verkaufsargumente für den Mainboardchip mehr da.
4. Teuer. Ein kleiner ASIC zum An- und Ausschalten der "grossen" GPU ist vermutlich viel günstiger und die Ansteuerung über SMBus ist auch relativ simpel.
Fazit: Technisch gehts auf jeden Fall erheblich schöner und auch energiesparender, aber vermutlich zu einem Mehrpreis, den die meisten Anwender nicht zahlen würden.
die latenz um das bild über den pci express auf die onboard grafik zu schicken wird auch vermutlich nich zu vernachlässigen sein :(
Leonidas
2008-01-29, 05:33:44
Habe das Update aus dem News an den Artikel angehängt:
Ein Artikel bei Bit-Tech beschäftigt sich mit einigen Einschränkungen, welche nVidias Hybrid-SLI derzeit noch hat. So muß man erst einmal in Korrektur zu unserem entsprechenden Artikel sagen, daß es mit den derzeitigen Treibern keine automatische Umschaltung zwischen den beiden HypridPower-Modi gibt, diese Funktionalität soll aber in einem späteren Treiber-Release geboten werden. Wirklich störend ist hingegen der Umstand, daß die integrierte Grafikeinheit der Hybrid-SLI Mainboard-Chipsätze im HybridPower-Modus weder MultiMonitoring unterstützt noch größere Displays als 1920x1200 - schlicht, weil nur ein Single-DVI-Ausgang zur Verfügung steht.
Außerhalb des HybridPower-Modus sind höhere Auflösungen und MultiMonitoring natürlich möglich, dann allerdings erzeugt über die extra Grafikkarte und wie gesagt unter Abschaltung der HybridPower-Funktionalität. Dies läßt sich auch durch ein Treiber-Update nicht mehr ändern, nVidia scheint diese Problematik allerdings mit zukünftigen Hybrid-SLI Chipsätzen angehen zu wollen. Generell sieht nVidia die derzeitigen Hybrid-SLI Mainboard-Chipsätze nForce 730a, 750a und 780a wohl nur als den "ersten Versuch" an und gibt sich selber zwei Jahre Zeit, innerhalb welcher die gesamte Technologie dann zur vollständigen Reife gebracht werden soll.
Der Heise Newsticker bringt hingegen einige Klarheit zu den Möglichkeiten von ATIs Hybrid-CrossFire. So wird erst einmal (erneut) betont, daß man damit eine extra Grafikkarte sowie die integrierte Grafiklösung des Mainboard-Chipsatzes im CrossFire-Verbund zusammenarbeiten lassen kann - was aber bekannterweise außerhalb von totalen LowCost-Grafikkarten keine wirklichen Performancegewinne verheißt. Möglich ist zudem wie bei nVidia, daß die integriere Grafiklösung das Windows-Bild erstellt und die extra Grafikkarte nur im Spiele-Fall die Bildberechnung übernimmt - wobei bislang noch unbekannt ist, ob bei dieser Zusammenschaltung es ein Zwangs-CrossFire gibt oder aber die extra Grafikkarte auch ganz alleine die 3D-Berechnungen übernehmen kann.
Wichtig ist aber, daß ganz wie bei nVidia keinerlei Monitorumsteckerei notwendig ist: Steckt das Monitorkabel in der extra Grafikkarte, istjene der primäre Grafikadapter und berechnet sowohl unter Windows als auch unter Spielen das Bild komplett alleine. Steckt das Monitorkabel dagegen in der integrierten Grafiklösung, kommt es zu vorgenannter Aufgabenteilung, im 3D-Fall wird somit ähnlich wie bei nVidia das Bildsignal von der extra Grafikkarte auch über den Monitorausgang der integrierten Grafiklösung ausgegeben. Ob es hierbei ähnliche Einschränkungen gibt wie vorbeschrieben im nVidia-Fall, ist dagegen noch nicht heraus.
Nicht möglich ist es aber, in diesem Modus im Windows-Betrieb die extra Grafikkarte komplett auszuschalten, diese Funktion scheint derzeit nur nVidias HybridPower zu bieten. Technisch scheint dies aber trotzdem nicht unmöglich zu sein, denn im Notebook-Bereich will ATI eine solche Funktion in Zusammenarbeit mit den Notebook-Hersteller durchaus realisieren. Insofern wäre es theoretisch möglich, daß ATI eine solche Funktionalität auch im Desktop-Bereich später noch anbieten wird. Nachwievor steht hierzu jedoch im Raum, daß ATI nach der offiziellen Vorstellung von HybridPower in diesem Punkt durchaus etwas freigiebiger mit entsprechenden Informationen sein könnte.
Gnome123
2009-09-24, 16:11:11
Nachdem jetzt Test/Beta/RC Versionen von Windows 7 gängig sind, wie schauts denn jetzt aus mit Unterstützung von Hybridpower mit verschiedenen Herstellern / Treibern?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.