PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 2 Stromanschlüsse auf Nvidia-Grafikkarte --- Warum?


King Rollo
2006-05-05, 18:21:00
Salem alaikum.

Es gibt diverse Nvidia-Grafikkarten (z.B: von Asus), die gleich 2 Stromanschlüsse haben.
Wofür sind die gut? Sind diese Karten so stromhungrig? Oder reicht es auch, wenn man einen der beiden Anschlüsse bedient?

AnarchX
2006-05-05, 18:25:56
2 Anschlüsse hatten damals vor allem die 6800Ultras, da diese doch einiges an Strom verlangten.

tombman
2006-05-05, 18:38:54
es sind jetzt eigentlich immer noch 2, nur zusammen in EINEM 6pin Stecker ;)

][immy
2006-05-05, 19:57:39
tombman[/POST]']es sind jetzt eigentlich immer noch 2, nur zusammen in EINEM 6pin Stecker ;)

ganz nebenbei mal die frage, was für einen stromstecker nutzen die grafikkarten?

habe mir vor 2 monaten ein neues 450 Watt netzteil gekauft und hatte endlich die stromstecker für SATA festplatten dran und will mir nicht wirklich ein neues netzteil kaufen wenn ich mir ne neue grafikkarte kaufe (neues mainboard dabei reicht schon)

KinGGoliAth
2006-05-05, 20:02:26
AnarchX[/POST]']2 Anschlüsse hatten damals vor allem die 6800Ultras, da diese doch einiges an Strom verlangten.

stümmt. die ultras hatten auch nicht nur den stromstecker doppelt sondern auch die spannungswandler (und noch ein paar teile mehr glaube ich). das kam daher, dass diese highend karten natürlich auch einen highend stromhunger hatten was wiederum die ganzen bauteile sehr stark beansprucht. die standardkarten dieser serie haben nur einen stecker und die einfache ausführung der bauteile. ist auch relativ häufig vorgekommen, dass diese karten verreckt sind, wenn es ans overclocken und overvolten auf niveau einer ultra ging, weil die mit dem riesigen strombedarf nicht klargekommen und abgeraucht sind.
bei den ultras hat man die bauteile zur stromversorgung einfach verdoppelt, damit sich die last besser verteilt und schon war alles bestens.
ob die karten auch mit einem angeschlossenen stromstecker laufen weiß ich nicht aber man sollte wirklich beide benutzen. am besten natürlich auch von unterschiedlichen kabelsträngen.

@ tomb:
bist du schon bei der nächsten frage die gleich kommt oder warum fehlt der zusammenhang? ;)


][immy[/POST]']ganz nebenbei mal die frage, was für einen stromstecker nutzen die grafikkarten?

habe mir vor 2 monaten ein neues 450 Watt netzteil gekauft und hatte endlich die stromstecker für SATA festplatten dran und will mir nicht wirklich ein neues netzteil kaufen wenn ich mir ne neue grafikkarte kaufe (neues mainboard dabei reicht schon)
stromstecker für pcie grafikkarten. ;) ob das nun so sinnvoll ist sei natürlich dahingestellt. aber immerhin kurbelt das die verkaufszahlen und die aufrüstungen an. :rolleyes:
dafür gibt es aber adapter zum nachrüsten. neues netzteil wird deswegen nicht fällig sein.

][immy
2006-05-05, 20:21:06
KinGGoliAth[/POST]']

stromstecker für pcie grafikkarten. ;) ob das nun so sinnvoll ist sei natürlich dahingestellt. aber immerhin kurbelt das die verkaufszahlen und die aufrüstungen an. :rolleyes:
dafür gibt es aber adapter zum nachrüsten. neues netzteil wird deswegen nicht fällig sein.

puhh.. ich sehe grade in den pdfs von revoltec das mein netzteil den entsprechenden anschluss wohl hat ^^. glück gehabt :)

Aphexz
2006-05-06, 13:21:22
'][immy'[/POST]']puhh.. ich sehe grade in den pdfs von revoltec das mein netzteil den entsprechenden anschluss wohl hat ^^. glück gehabt :)

Wenn du das Chromus von Revoltec hast wirds nicht unterstützt. Ging mir leider genauso.

mfg Christian

][immy
2006-05-06, 13:39:50
Aphexz[/POST]']Wenn du das Chromus von Revoltec hast wirds nicht unterstützt. Ging mir leider genauso.

mfg Christian

oh, sehe es auch gerade, das pdf war für chromus II und ich dürfte noch nen 450 watt netzteil der ersten chromus serie haben :(. aber waren die kabel nicht austauschbar?

bin gerade nicht zu hause und kann es nicht nachprüfen, und zur ersten chromus serie habe ich bei revoltec auch nichts mehr gefunden

edit: mhh.. hat es doch nicht, grad nen review gefunden

Gast
2006-05-06, 14:02:16
Du kannst auch einfach einen Adapter nehmen. Der liegt meist den Grafikkarten bei und wenn nicht, kaufst du dir halt fix einen für 2€.

KinGGoliAth
2006-05-06, 14:47:40
Gast[/POST]']Du kannst auch einfach einen Adapter nehmen. Der liegt meist den Grafikkarten bei und wenn nicht, kaufst du dir halt fix einen für 2€.

müßte dann so einer sein stimmts?

http://cgi.ebay.de/PCIe-6pol-NVidia-PCI-Express-6pin-Adapter-Kabel_W0QQitemZ8805312968QQcategoryZ32201QQssPageNameZWDVWQQrdZ1QQcmdZViewItem

man muß sich als alter agp hase ja auch mal fortbilden. ;)

fellpower
2006-05-06, 16:12:35
wenn man sich mal das pcb der karten um den stromanschluss genauer anguckt, sieht man, das beide stecker auch auf einen "pol" sozusagen gebrueckt sind. also auf der karte selber innerhalb der naechsten 5mm auf eine leitung laufen. weiterhin werden es sicherlich 2 einzelne stromleitungen vom netzteil sein (wenn der user eben 2 verschiedenen strippen nimmt).

und es gilt nicht: jeh mehr anschluesse, desto stromhungriger. hungrig sind sie alle, nur sollte das wohl der verteilung dienen, da man einfach mehr strom ueber 2 getrennte kreise jagen kann - bedingt durch die nach standards vorgegebenen stromleitungsquerschnitte

Paul Brain
2006-05-06, 16:46:01
Der Grund ist, daß laut Norm über einen 5 1/4"-Molex-Stecker nur 48W gezogen werden dürfen. Wird auch nur ein Watt mehr benötigt, ist ein zweiter Stecker fällig. Hier hält sich nV also strikt an die Norm, in den allermeisten Fällen wird auch ein belegter Stecker reichen.

Der 6-polige PCIe-Stecker kann übrigens bis zu 75W liefern, der Slot selbst ebenfalls. Somit liegt das Limit bei PCIe-Karten bei 150W mit einem Zusatzstecker; die meisten Hersteller ziehen aber nichtmal annähernd 75W aus dem Slot, weils da wohl oft zu Problemen mit den Mainboards kommen würde.