Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: GeForce RTX 4090 (angeblich) mit einer TDP von nicht weniger als 550 W
Leonidas
2021-11-03, 12:47:55
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4090-angeblich-mit-einer-tdp-von-nicht-weniger-als-550-watt
Möglicherweise legt nVidia ja keine Spiele mehr bei, sondern dass hier:
https://pbs.twimg.com/media/FDMc3BVWEAAAAj2.jpg
Daredevil
2021-11-03, 13:04:26
Ich glaube das alles nicht, bis ich es live gesehen habe.
Das ist doch lächerlich und wird nur unnötig teuer, da wohl niemand eine 2k Karte kauft, die dann bei Serverlautstärken läuft.
Oder alle Karten werden direkt mit WaKü ausgeliefert, das ist aber am Ende auch nur unnötig teuer.
Das sind zumindest die besten Argumente, Computer von Apple zu kaufen. :usad:
Vermutlich werden einfach nur gezielt Gerüchte gestreut mit 500w+, dass Leute später froh sind, dass die "effizienten Karten" doch nur 400w ziehen, das ist wohl realistischer.
Yep, riecht nach Bullshit. Da gingen die wenigsten Nutzer mit. Am Ende gäb's noch eine EU-Sanktion oder nationale Rüge wegen Erdvernichtung. :ugly:
MfG
Raff
Aroas
2021-11-03, 13:30:38
Yep, riecht nach Bullshit. Da gingen die wenigsten Nutzer mit.
Also gerade die Käufer solche absoluten Enthusiastenmodelle interessieren sich in der Regel nicht großartig für den Stromverbrauch.
Wer 1500-2000€ allein in die Grafikkarte investieren kann, den juckt es nicht, ob das Ding nun 300W oder 500W verbraucht.
Jedenfalls ist das öfter von Käufern solcher Karten zu lesen.
Interessanter wird sein, ob generell der Stromverrbauch der 4000er Karten nochmal deutlich höher ausfallen wird, oder ob es nur das Enthusiastensegment trifft.
Im Mittelklasse- und Einsteigerbereich kann man sich besonders hohen Stromverbrauch schon weit weniger leisten und steht dort dann tatsächlich nicht gut da.
Ex3cut3r
2021-11-03, 13:32:08
Absolut lächerlich, wenn es so kommen sollte, ich denke da werden definitiv die wenigsten mitmachen, man stelle sich mal die Abwärme im Zimmer vor. Boah ne...das geht gar nicht.
Wird in der EU sicherlich nicht positiv bei den meisten potenziellen Gamern Minern ankommen, in China und Amerika sieht das wohl ein bisschen anders aus. Trotzdem, das geht in die falsche Richtung.
aufkrawall
2021-11-03, 13:37:30
Würd ich nehmen, wenn billig und genug VRAM. Ein zweiter Ventilator müsste dann aber wohl auch her, oder auch ein dritter nur für die Beine.
Troyan
2021-11-03, 13:42:18
Jap, 550W. Wird stimmen, bestimmt. Ich meine, würde ein Verwirrter auf Twitter jemals lügen? :confused:
Daredevil
2021-11-03, 13:42:40
Also gerade die Käufer solche absoluten Enthusiastenmodelle interessieren sich in der Regel nicht großartig für den Stromverbrauch.
Wer 1500-2000€ allein in die Grafikkarte investieren kann, den juckt es nicht, ob das Ding nun 300W oder 500W verbraucht.
Jedenfalls ist das öfter von Käufern solcher Karten zu lesen.
Es gibt zwei Arten von Käufern für diese Modelle:
Du brauchst genug Geld und du brauchst Ahnung von Thermodynamik und das abführen von Abwärme. ( Enthusiast )
Enthusiasten haben diese Expertise, aber nicht jeder hat genug Geld für 2k Karten und damit verbauten Wasserkühlungen. ( LuKü in ATX Form bei 500w ist quasi unmöglich oder viel zu laut ).
Leute mit viel Geld sind aber nicht automatisch Enthusiasten, die laufen also direkt in thermische Probleme und sind schnell frustiert. ( 3090 + 700w Netzteile = Peng ).
Also sind solche Karten nur für Enthusiasten, die genug Geld haben. Die Zielgruppe ist also super winzig.
Wenn du dann aber nen "richtiger" Gamer bis, musst du dir auch Gedanken machen, damit du deinen Raum kühlst.
Mein ehemaliges Mining Rig mit 6 Radeon VII hat bei ca. 800w 24/7 Last ein 60m² Stockwert geheizt im Winter.
500w im Gehäuse abführen ist also schon schwer bis unmöglich, diese aber dann auch noch aus dem Zimmer zu bekommen ( Damit die GPU nicht noch wärmer wird ) ist dann das nächste Problem.
Wenn die Leistung um Faktor 2-4 zunimmt, dann läuft man immer in CPU Limit und die Karte fährt so nicht komplett aus, aber so?
Naja. Ampere ist schon zu sehr auf Kante genäht bei ATX Form.
WedgeAntilles
2021-11-03, 13:43:14
Plant man denn 2022 und 2023 immer noch die Spiele ohne RT zu testen?
Denn die "Leistungskrone" von AMD ist vielleicht ohne RT da.
Dann hat RainboxSix Siege halt 1200 Frames gegenüber 1100 Frames von Nvidia.
Who the fuck cares?
Wichtig sind doch die Spiele, die hohe Anforderungen stellen und optisch die Speerspitze darstellen.
Also RT aktiviert und nicht deaktiviert wird.
(Oder kauft man auch 2022 / 2023 noch AMD GraKas für 1000 Euro aufwärts um als erste mal RT zu deaktivieren?)
Eine 3090 ist ca. 50% vor der 6900XT bei RT.
Und wenn man die Prognosen positiv für AMD annimmt - 2,7 fache Leistung AMD vs 2,0 Nvidia - ist Nvidia in diesen Spielen nach wie vor führend.
DLSS ignoriert man da sogar noch.
Wenn man das mit reinnimmt ist Nvdia weiterhin ca. 60-70% schneller.
AMD mag dann bei den 3-4 stelligen Frameraten vorne liegen.
Nvidia dominiert jene Spiele, bei denen es tatsächlich drauf ankommt - Spiele, wo man nicht eh schon 200 Frames aufwärts hat.
Woher also die Panik, AMD könne die "Leistungskrone" holen?
Leonidas
2021-11-03, 13:54:35
Woher also die Panik, AMD könne die "Leistungskrone" holen?
Da dürfte es um so was wie Ehre und Schwanzlängenvergleich gehen. NV soll ja schon wurmen, dass in der aktuellen Generation AMD so vergleichsweise nahe dran liegt.
Legendenkiller
2021-11-03, 14:03:06
von der 2080 zur 3080 warens es +48% TPD
von der 2080ti zu 3080ti waren es +40% TPD
von den 350W der 3080TI zu 550W sind es 57%...
Das ist jetzt nicht so weit weg.
Also bei 2x Power werden sie die TPD schon 50% steigern müssen udn 50% über die Fertigungtech
IMO sind die 550W auf jedenfall realistisch zumindest fürs Topmodel.
Nicht wünschenswert aber realistisch.
Und solange es gekauft wird geht das auch weiter.
Die 350W Karten werden ja auch immer noch gekauft als wenn Strom nix kostet. Damit meine ich nicht nur Geld, sondern auch Lärm und Wärme.
Da dürfte es um so was wie Ehre und Schwanzlängenvergleich gehen. NV soll ja schon wurmen, dass in der aktuellen Generation AMD so vergleichsweise nahe dran liegt.
Das merkt man als Kunde wenigstens nicht. Viel schlimmer finde ich persönlich die jahrelang stillen Radeon-Anhänger, die jetzt in Scharen aus ihren Löchern kommen und versuchen, sich à la Pippi Langstrumpf die Führung hinzubiegen. Daher würde ich mir einen eindeutigen Sieger bei der nächsten Generation wünschen, um die Möglichkeiten kreativen Rechnens zu unterbinden - egal welchen, gerne auch Intel.
MfG
Raff
Peek&Poke
2021-11-03, 14:06:55
Wenn der Strombedarf weiter in 1000 Watt Regionen anwächst ist der PC der Zukunft ein System das räumlich getrennt vom Benutzer steht. Dann ist Cloud Gaming definitiv eine Option !
Troyan
2021-11-03, 14:10:41
von der 2080 zur 3080 warens es +48% TPD
von der 2080ti zu 3080ti waren es +40% TPD
von den 350W der 3080TI zu 550W sind es 57%...
Das ist jetzt nicht so weit weg.
Also bei 2x Power werden sie die TPD schon 50% steigern müssen udn 50% über die Fertigungtech
IMO sind die 550W auf jedenfall realistisch zumindest fürs Topmodel.
Nicht wünschenswert aber realistisch.
Und solange es gekauft wird geht das auch weiter.
Die 350W Karten werden ja auch immer noch gekauft als wenn Strom nix kostet. Damit meine ich nicht nur Geld, sondern auch Lärm und Wärme.
Und von der 3070 zur 2080 waren es 5W oder 2,3% mehr. :rolleyes:
Fun Fact: AMD wird ca. 700W benötigen, da die 6800XT für die ca. 2x mehr Leistung auch 1,76x mehr Strom als die 5700 benötigt. Um also 2,7x schneller zu sein, muss der Stromverbrauch massiv ansteigen. 700W sind dagegen realistisch. ;D:freak::eek:
Also Nvidia sollte eigentlich kein Problem haben, die geringen Leistungssteigerungen Verbrauchsneutral zu schaffen, selbst nur mit Verbreiterung und ohne Architekturverbesserung.
Die starten ja von Samsungs 10nm+++, da die Verbrauchsreduktion zu TSMC 5N mindestens -50% wenn nicht mehr.
Für AMD wird es da schon deutlich schwerer, da sie ja schon auf TSMC 7N sind, und das Simple jede Menge Cache dranzubauen um die Effizienz zu steigern auch schon ausgereizt haben.
Wenn die 550W für NV stimmen, wird das Performanceziel in jedem Fall deutlich höher als nur 2x liegen, mindestens in die Richtung 3x.
NV soll ja schon wurmen, dass in der aktuellen Generation AMD so vergleichsweise nahe dran liegt.
Was auch vielmehr dafür spricht, dass es NV und nicht AMD ist, dass die "uneinholbare Monster-GPU" bringen will, und dafür würde auch der extreme Verbrauch passen.
Also gerade die Käufer solche absoluten Enthusiastenmodelle interessieren sich in der Regel nicht großartig für den Stromverbrauch.
Irgendwann schon, 450-550W braucht mein ganzes System, und auch wenn es grundsätzlich kein Problem ist das zu kühlen, muss die Abwärme irgendwo hin, und das merkt man im Sommer an der Raumtemperatur schon jetzt extrem.
Wenn alleine die GPU schon so viel braucht ist das nochmal um einiges mehr und damit auch einige Schweißtropfen.
Derartige Grafikkarten sind eigentlich nur mehr an Klimananlagenbesitzer verkaufbar.
ChaosTM
2021-11-03, 15:33:40
Das kommt nicht ganz hin. RDNA2 braucht schon jetzt weniger Saft pro FPS als Ampere, wenn man RT weg lässt..
Mein Tip.: beide werden idiotisch viel Saft verbrauchen, weil sie der Balken wegen an oder über der Kotzgrenze laufen werden. :)
BlacKi
2021-11-03, 15:36:59
550w - oder mehr:biggrin:
ich glaube das alles nicht wirklich. auf welcher annahmen soll denn das jetzt schon basieren? anhand von der anzahl der shader und max clock? das würde man schon jetzt mit der 3090 hinkriegen. nur zu dumm, das man die 3090 in ein 350w korsett steckt.
looking glass
2021-11-03, 16:00:33
Mhhhh, sry aber bevor ich noch ein Quasi Paperlaunch raus haue, wie wäre es mal damit, die bisherigen 3xxx Modelle verfügbar zu machen, wenigstens zu UVP?
Mal davon ab, die Strompreise werden auf Dauer nicht sinken und die Sommer bestimmt nicht lauer - das wird nicht nur im Kauf richtig teuer werden, sondern neben PC Betrieb dann auch noch ne Klimaanlage erfordern? Da wird der Enthusiastenkreis aber nochmal deutlich kleiner.
rentex
2021-11-03, 16:04:24
550W? Sorry, da ist die Grenze des guten Geschmacks erreicht. Was denken sich NV und AMD eigentlich? Die Karten wären somit so zeitgemäß, wie ein Pick Up Truck für einen Großstädter.
ChaosTM
2021-11-03, 16:07:40
550W? Sorry, da ist die Grenze des guten Geschmacks erreicht. Was denken sich NV und AMD eigentlich? Die Karten wären somit so zeitgemäß, wie ein Pick Up Truck für einen Großstädter.
Ich sehe immer mehr Dodge RAM 3500er in meiner Nähe und ich wohne sehr Zentral in einer Großstadt.
Zeitgemäß wird es sicher nicht sein und die meisten Karten gehen eh wieder vorab an des Mining Volk. ;)
Nazar
2021-11-03, 16:13:06
Und von der 3070 zur 2080 waren es 5W oder 2,3% mehr. :rolleyes:
Fun Fact: AMD wird ca. 700W benötigen, da die 6800XT für die ca. 2x mehr Leistung auch 1,76x mehr Strom als die 5700 benötigt. Um also 2,7x schneller zu sein, muss der Stromverbrauch massiv ansteigen. 700W sind dagegen realistisch. ;D:freak::eek:
Auch wenn es wohl nicht mal am Rande ernst gemeint ist, aber trotzdem mein Hinweis, dass der Designansatz von AMD Navi 3x (Multi Chip Design) zu Navi 2x (Mono) ein komplett anderer ist und auch als bei nV, weshalb die "Milchmädchenrechnung" der Watt Angabe so nicht funktioniert. :wink:
Ich gehe auch davon aus, dass es hier um eine Strategie der "Vorbereitung" geht, um die Nutzer dann aufatmen zu lassen, wenn es dann doch "nur" 450 Watt bei nV und AMD sein werden.
Obwohl ich, aufgrund des MCD bei AMD eher davon ausgehe, dass sie deutlich unter dem Leistungsbedarf von nV, bei identischer Leistung bleiben werden. Also deutlich mehr FPS pro Watt als bei nV.
Es bleibt auf jeden Fall spannend.
MuLuNGuS
2021-11-03, 16:31:18
"Selbst dann ist noch wirklich abschätzbar, zu was die Massenfertigung auf den sowieso erst später festgelegten Taktraten in der Lage sein wird"
sollte es nicht:
"Selbst dann ist noch 'nicht' wirklich abschätzbar, zu was die Massenfertigung auf den sowieso erst später festgelegten Taktraten in der Lage sein wird"
heißen?
bad_sign
2021-11-03, 17:14:06
Ich fahre mein PC nah an der Werksleistung, aber mit UV am Limit, 5950X auf 100W gedeckelt, 200W (ASIC) auf der 6800XT ~2250 MHz, das sind beim zocken an der Dose ~350-400W, je nach Auslastung der CPU.
Wakü ist drin und deshalb gabs auch OC Tests, GPU auf 350W ASIC und Takt hoch, CPU auf 4,65 GHz und Cinebench (~230W). Mein Raum ist so schnell warm geworden, es war einfach unangenehm.
Solche (inzwischen sehr seltenen :() zock Sessions, wie vergangenes Wochenende mit Valheim, 35h an 3 Tagen, wären mit 500W Karten nur im Winter möglich.
Falls es so kommt, ich bin auf UV Potential gespannt, denn die Karten dürften kaum so weit aus dem sweetspot geprügelt werden, wie aktuell 3000er und 6000er Serie (=weniger zu holen mit UV).
Iscaran
2021-11-03, 17:15:37
Interessante Tabelle. Könntest du das mal als Grafik plotten?
Also Verbrauch vs. Strukturbreite (mit den jeweiligen "gleichen" GPU-Klassen als eine Kurve)?
Complicated
2021-11-03, 17:57:25
Erstaunlich ist allerdings, dass nVidia in dieser Frage immer wieder mit der höheren Wattage genannt wird – trotz dass AMD bei RDNA3 den (nominell) klar größeren Performance-Sprung hinlegt und derzeit auch das etwas höhere Performance-Ziel hat. Aber genau dies könnte das Problem von nVidia beim AD102-Chip sein: Jener ist trotz wirklich beachtbarem Sprung womöglich zu schwach konzipiert, um mit Navi 31 mithalten zu können – welcher seinerseits von AMD augenscheinlich in Richtung "unbezwingbar" angesetzt wurde. nVidia könnte nun diese Niederlage akzeptieren – oder aber nach Möglichkeiten suchen, um mittels Mehrtakt doch noch an Navi 31 heranzukommen. Eingerechnet des Punkts, dass nVidia derzeit an der Leistungsspitze einen Vorsprung von 8% hat, könnten im Zweikampf von Navi 31 zu AD102 letzterem dann vielleicht "nur" noch ca. 10-15% fehlen. Eventuell packt nVidia an dieser Stelle dann einfach die Brechstange aus – unter Inkaufnahme der gegenüber AMD höheren Verbrauchswerte.
Ich denke Nvidias Problem gegenüber AMDs RDNA3 Design ist der IF$, das daraus resultierende kleinere Speicherinterface und somit auch Verbrauch. Die vielen zusätzlichen Einheiten müssen auch gefüttert werden und der Anteil des Stromverbrauchs am SI steigt stetig. AMD hat hier eine Lösung, die einen großen Unterschied beim Verbrauch ausmachen kann und die Skalierung somit erleichtert.
Die Fähigkeit jederzeit ein Design mit einfach einem Chiplet mehr aufzulegen, ist sicherlich ebenfalls etwas, das Nvidia Kopfzerbrechen machen wird. Damit müssen sie so hoch "springen" wie es nur möglich ist.
Sweepi
2021-11-03, 19:01:13
Leute mit viel Geld sind aber nicht automatisch Enthusiasten, die laufen also direkt in thermische Probleme und sind schnell frustiert. ( 3090 + 700w Netzteile = Peng ).
Sicher? Denke jene Leute, die das teuerste kaufen ohne Expertise zu haben, kaufen sich in dem Fall eine 4090 und ein 1000+W Netzteil (letzteres machen sie schon heute). Wenn die 4090 in thermische Probleme rein läuft, drosselt die sich beispielsweise von 2000 MHz auf 1700 MHz runter. Fällt den meisten vermutlich nicht mal auf.
hq-hq
2021-11-03, 19:35:18
Puh, 500Watt, dann braucht man langsam aber sicher eine Klimaanlage im Zockerzimmer
wolik
2021-11-03, 19:39:02
Schon jetzt werden 3090 mit BIOS mod über 400 Watt ziehen. 150+ sehe ich nicht das Problem. Besonders mit 100% mehr Leistung. Und wenn Crypta noch nach oben schwimmt. "Ich denke die 4090 kostet von 2500 bis 2990 Euro. (aber schon mit MwSt. :freak: )
Emil_i_Lönneberga
2021-11-03, 19:43:54
Dann gibt es eben zur 2500€ GPU noch eine 300€ AiO dazu.
https://www.formulamod.net/products/granzon-gpu-aio-cooler-kit-for-rtx3090-3080-graphics-card-flow-display-all-in-one-vga-memory-radiator-gzgpu-m240n
https://cdn.shopify.com/s/files/1/0335/6554/0488/products/jpg_25825167-e7de-4a14-8a9a-069740c344fb_1024x1024@2x.jpg?v=1628760916
https://cdn.shopify.com/s/files/1/0335/6554/0488/products/Hbbd41dc9f7c24bf08a470d164669e37e4_1024x1024@2x.jpg?v=1628760916
NV soll ja schon wurmen, dass in der aktuellen Generation AMD so vergleichsweise nahe dran liegt.
..und in der Nächsten vorbeizieht?:) Den Stecker für 600w hat man schon lizenziert. Dann hört man: Halt Brechstange, ala Intel. Anders bekommt man die Hinterhofbude AMD wohl nicht mehr in Griff...[sarkasmus off]
Ich denke das hier trotzdem Vollausbau A100 mit dem Gamer GA100 verwechselt wird. Eine A100 kann gerne mehr ziehen (DGX oder HGX oder was auch immer in einem Supercomputer als Deep Learning Flow).
A100 verpulvert als 500W liquid cooling Variante eben soviel, da wäre bei Verdopplung der Leistung in 5nm 500-600w ja lächerlich, das wäre mega sparsam. Und so wird aus der News auch ein Schuhm es fehlen die Anzahl der Einheiten usw.. Da AMD da mit womöglich schon mit MCM mit will, müssen sie auch mitziehen. Die Tesla NV ziehen seit Ewigkeiten 300W und mehr. Ist doch nix Neues. Also ganz ruhig wieder hinlegen, weitermachen. Nichts passiert.
@Emil_i_Lönneberga
Wooh, verdammt schön anzusehen.
Das Problem ist, das die Leute mitlerweile so greedy sind, das Stromverbroch und Preis/Leistung absolut nicht mehr interessieren, sondern nur noch wer den Laengsten Benchmarkbalken im Block hat.
Das hat NVidia echt gut hinbekommen mit der marketingtechnischen Aufwertung des Highendsegmentes als "Enthusiast" (580 -> Titan -> xx80Ti -> xx90) mit einem hohen Preistag und dann laufende Preiserhoehungen. Mitlerweile wuerden die das auch schon zu 3000 Euro Liste bei 1kw Heizleistung verkaufen koennen. Und AMD macht leider mit.
Geldmann3
2021-11-03, 20:13:22
Ich vermute weiterhin, dass Lovelace bei ,,nur" rund 400 Watt und RDNA3 bei ,,nur" 500 Watt liegen wird.
Greymon kann es nicht wissen.
Mit OC kann ich mir diese Wattagen allerdings durchaus vorstellen.
Doch wie meine Vorredner geschrieben haben, wird es dann schon ziemlich warm im Zimmer und man muss definitiv nicht mehr Heizen. Und das ist nicht nur so dahergeschrieben. Ich hatte letztes Jahr, im Winter, 26,5°C im Raum mit der RTX 3090 + 9900K, als ich ein Video gerendert habe. Ohne Heizung... Natürlich konnte ich dem entgegenwirken, indem ich einfach das Fenster öffnete. Doch im Sommer wird es in der Dachwohnung lustig, wenn die Klimaanlage auch noch gegen eine 800 Watt Heizung arbeiten muss.
Dennoch ich würde es mitmachen, soll die Karte 1000 Watt schlucken, haben wollen. :freak: Doch ich hab sie auch sicher nicht mehr alle.
ChaosTM
2021-11-03, 20:19:28
Deshalb verwende ich im Sommer jetzt den Laptop mit "3080er". Knapp unter 3070er Leistung bei knapp unter 200 Watt Gesamt. Das Standgerät mit 1080ti sauft fast das 3 fache und ist langsamer.
Eigentlich verwende ich fast nur mehr den Laptop, da ich keine gscheite Graka für den Desktop kriege. Scheiß Pandemie/Mining Boom ;)
maximus_hertus
2021-11-03, 20:22:59
Ich vermute weiterhin, dass Lovelace bei ,,nur" rund 400 Watt und RDNA3 bei ,,nur" 500 Watt liegen wird.
Ich glaube nicht, dass nV einfach so die Performance-Krone verschenkt
Am Ende gäb's noch eine EU-Sanktion oder nationale Rüge wegen Erdvernichtung. :ugly:
MfG
Raff
Wäre an der Zeit! ;D
Die 350W Karten werden ja auch immer noch gekauft als wenn Strom nix kostet. Damit meine ich nicht nur Geld, sondern auch Lärm und Wärme.
Es wird dringend Zeit, dass die EU-Kommission und EUGH eingreifen. So kann und darf es nicht weitergehen. Was sind denn das für Zeiten, in denen sich die TDPs immer mehr der Marke von 1000W annähern...
Fun Fact: AMD wird ca. 700W benötigen, da die 6800XT für die ca. 2x mehr Leistung auch 1,76x mehr Strom als die 5700 benötigt. Um also 2,7x schneller zu sein, muss der Stromverbrauch massiv ansteigen. 700W sind dagegen realistisch. ;D:freak::eek:
Bald braucht man seinen eigenen kleinen Minireaktor zu Hause, nur um die Grafikkarte zu versorgen ;D
Mal davon ab, die Strompreise werden auf Dauer nicht sinken und die Sommer bestimmt nicht lauer - das wird nicht nur im Kauf richtig teuer werden, sondern neben PC Betrieb dann auch noch ne Klimaanlage erfordern? Da wird der Enthusiastenkreis aber nochmal deutlich kleiner.
Erste Prognosen gehen von 50 Cent / kWh in 2025 aus...
Zeitgemäß wird es sicher nicht sein und die meisten Karten gehen eh wieder vorab an des Mining Volk. ;)
Sollte Mining nicht genauso verboten werden wie der internationale Terrorismus? Welchem Mehrwert hat Mining außer Unmengen an Energie zu verheizen und Zahlenkolonnen zu generieren? Wenn es nach mir ginge, über die UN verbieten und Verstöße mit mindestens zehnjähriger Haft im Steinbruch ahnden.
550W? Sorry, da ist die Grenze des guten Geschmacks erreicht. Was denken sich NV und AMD eigentlich? Die Karten wären somit so zeitgemäß, wie ein Pick Up Truck für einen Großstädter.
Wir lassen dem Markt freien Lauf und das ist auch gut so!
Wäre doch gelacht, wenn wir das 1kW nicht ebenfalls packen würden.
Irgendwann schon, 450-550W braucht mein ganzes System, und auch wenn es grundsätzlich kein Problem ist das zu kühlen, muss die Abwärme irgendwo hin, und das merkt man im Sommer an der Raumtemperatur schon jetzt extrem.
[b]Derartige Grafikkarten sind eigentlich nur mehr an Klimananlagenbesitzer verkaufbar.[b]
Wäre eigentlich eine super Methode die Sauna oder den Backofen anteilig mitzuheizen. Im Winter braucht es dann keine klassische Heizung.
Puh, 500Watt, dann braucht man langsam aber sicher eine Klimaanlage im Zockerzimmer
Und das ist nur die Graka. Wenn man da noch die Peripherie (CPU, Mainboard, Storage, RAM, Monitor, Sound usw.) mir reinrechnet, landet man schnell bei 750 - 800W.
Was verbrauchen aktuelle Konsolen?
Dennoch ich würde es mitmachen, soll die Karte 1000 Watt schlucken, haben wollen. :freak: Doch ich hab sie auch sicher nicht mehr alle.
Keinerlei Moral und Sorge für den Planeten vorhanden?
Bei LEDs sind wir bei 5W/800 Lumen angekommen. Bei Grafikkarten wiederrum...
Das Problem ist, das die Leute mitlerweile so greedy sind, das Stromverbroch und Preis/Leistung absolut nicht mehr interessieren, sondern nur noch wer den Laengsten Benchmarkbalken im Block hat.
Das hat NVidia echt gut hinbekommen mit der marketingtechnischen Aufwertung des Highendsegmentes als "Enthusiast" (580 -> Titan -> xx80Ti -> xx90) mit einem hohen Preistag und dann laufende Preiserhoehungen. Mitlerweile wuerden die das auch schon zu 3000 Euro Liste bei 1kw Heizleistung verkaufen koennen. Und AMD macht leider mit.
Letzten Endes muss hier von Staatsseite eingegriffen werden. Anders wird man nicht Herr der Lage. Wer schreibt die EU Kommission an?
hq-hq
2021-11-03, 21:08:32
darf ich das überhaupt schreiben, ich hatte im Sommer an einigen Tagen die 3090FE auf 250Watt gedrosselt weil es trotz Ventilator(en) zu heiss war... für Edge of Eternity hat es ausgereicht...
mit der 2080Ti auf Wasser konnte ich den Radiator auf die Terrasse stellen, da waren die 300-420Watt egal
Meanwhile in Germany....1080 GTX 180 Watt...
Bin zwar ein Cloud Gegner aber wenn es so weiter geht...
looking glass
2021-11-03, 21:25:19
Ich bin vor 3 Jahren, glaub ich, dazu übergegangen, das ich mir aus den Sales explizit Games für den Sommer aufspare, die nicht rechenintensiv sind (2D Adventure usw.), damit fahre ich ganz gut, wenn ich mir vorstelle, das ne Graka allein gleich viel, oder mehr zieht, wie mein ganzes Setup gerade…
A100 verpulvert als 500W liquid cooling Variante eben soviel, da wäre bei Verdopplung der Leistung in 5nm 500-600w ja lächerlich, das wäre mega sparsam. Und so wird aus der News auch ein Schuhm es fehlen die Anzahl der Einheiten usw.. Da AMD da mit womöglich schon mit MCM mit will, müssen sie auch mitziehen. Die Tesla NV ziehen seit Ewigkeiten 300W und mehr. Ist doch nix Neues. Also ganz ruhig wieder hinlegen, weitermachen. Nichts passiert.
Die A100 hatte zum Start als PCIe Variante mit 40GB VRAM 250W. Inzwischen gibt es eine neuere mit 80GB (schnellerem VRAM), die hat 300W. Lediglich die HGX Modelle haben 400W, mit 500W gibt es keine.
Die A100 GPU wird auch bei TSMC gefertigt. Wenn man da einen Sprung machen will, wird wohl auch der Verbrauch nach oben müssen.
Aber es spricht auch nichts dagegen, dass die Gaming Karten deutlich mehr verbrauchen, vor allem bei so stark gestiegenen Leistungswerten.
Witzig finde ich aber die Aussage "I believe 550W is still conservative" Jetzt hat man einen neuen Stecker für 600W, und braucht dann gleich 2 davon??? Klingt schon echt übertrieben.
Sardaukar.nsn
2021-11-03, 21:40:06
@Emil_i_Lönneberga: Diese AiO ist schon ein Schmuckstück. Das sich sowas mal in einem Satz schreiben würde...
Trotzdem ist der 240er Radiator viel zu klein für eine 3090. Wir sehen ja auch jetzt schon das eine interne Kühlung für einen 3080, 3090 plus Highend CPU eigentlich kaum noch sinnvoll zu realisieren ist. Daher geht der Trend bzw. die Notwendigkeit fast schon zur einer extern Lösung wie MoRa.
Alder Lake und eine mögliche 4090er werden diesen Weg nur weitergehen. EKWB werden wunderbare Kühler herstellen, überflüssige Distroplates, Wasserkühler für die Backplate, Luxus Optimus Kühler usw. der Markt im Highend ist voll da.
Endlich mal eine Ansage, welche mir gefällt. AMD und NV sollen ihren Scheiß behalten. Das hat mit Innovation nichts mehr zu tun und alleine der grüne Daumen (damit meine ich nicht NV) sagt nö. Wird nur noch Zeit, dass Crypto ad absurdum geschickt wird, vielleicht relativieren sich dann auch die Dimensionen :confused:
iamthebear
2021-11-03, 23:38:28
Das dürfte wohl darauf hinaus laufen, dass AD102 mit einer Wakü ab Werk daher kommt. Anders kann ich mir nicht vorstellen wie man das kühlen können soll.
Bei AMD würde ich 500W ja noch verstehen. Da soll es die 3 fache Rohleistung geben, TSMC 7nm auf 5nm bringt aber nur 1.5x. Da verdoppelt sich eben die Verlustleistung wenn AMD die Taktraten nicht drosseln will.
Aber bei Nvidia? Wenn es bei den 70% bleibt mit ein bisschen Cache mehr um den Bandbreitenbedarf zu stillen hören sich die 550W nach einer ziemlichen Verzweiflungsaktion an.
Mindestens 1.2x von Samsung 8nm auf TSMC 7nm. Dann noch 1.5x von TSMC 7nm auf TSMC 5nm. Da könnte AD102 mit weniger Verlustleistung launchen als noch Ampere.
Das Ganze ergibt vorne und hinten keinen Sinn aber bei dem Lineup von Nvidia in letzter Zeit würde es mich echt nicht einmal überraschen. Mir kommt vor Jensen würfelt hier einfach und denkt sich "ist sowieso egal, die Deppen kaufen sowieso alles was ich raus bringe".
GerryB
2021-11-04, 00:45:15
Viel schlimmer finde ich persönlich die jahrelang stillen Radeon-Anhänger, die jetzt in Scharen aus ihren Löchern kommen und versuchen, sich à la Pippi Langstrumpf die Führung hinzubiegen.
mimimi
Ein bisschen Sportsgeist und gegenseitiges Gönnen für gutes Tweaken würde ich bei nem Kollegen, der ein Xtreme Forum betreibt schon erwarten.
so schlecht sind die Radeons momentan net, oder poste doch mal Deinen Score
(ohne PL siehts nähmlich ein mue anders aus als in den Stock-reviews)
btw.
Wann aktualisierst Du eigentlich mal Deine Liste mit nem aktuellen Treiber?
monstar-x
2021-11-04, 02:17:46
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-geforce-rtx-4090-angeblich-mit-einer-tdp-von-nicht-weniger-als-550-watt
Möglicherweise legt nVidia ja keine Spiele mehr bei, sondern dass hier:
https://pbs.twimg.com/media/FDMc3BVWEAAAAj2.jpg
HaHa +1
Danke Leo
Leonidas
2021-11-04, 02:51:54
sollte es nicht:
"Selbst dann ist noch 'nicht' wirklich abschätzbar, zu was die Massenfertigung auf den sowieso erst später festgelegten Taktraten in der Lage sein wird"
heißen?
Exakt. Gefixt.
Interessante Tabelle. Könntest du das mal als Grafik plotten?
Also Verbrauch vs. Strukturbreite (mit den jeweiligen "gleichen" GPU-Klassen als eine Kurve)?
Dafür werde ich jetzt ehrlicherweise keine Zeit haben. Alder Lake droht.
Ich denke das hier trotzdem Vollausbau A100 mit dem Gamer GA100 verwechselt wird. Eine A100 kann gerne mehr ziehen (DGX oder HGX oder was auch immer in einem Supercomputer als Deep Learning Flow).
GA100 und GH100 kommen aber nicht ins Gaming-Segment. Selbst dann nicht, wenn alle Stricke reißen. Warum: RT fehlt, unverkaufbar.
etp_inxession
2021-11-04, 06:28:50
Meanwhile in Germany....1080 GTX 180 Watt...
Bin zwar ein Cloud Gegner aber wenn es so weiter geht...
Gibts auch in der aktuellen Generation noch.
Die RX 6800 non XT ist DER Tipp schlechthin, für Leute die Performance/Watt noch interessiert.
wolik
2021-11-04, 06:58:15
Wäre doch gelacht, wenn wir das 1kW nicht ebenfalls packen würden.
Na wenn 4090 SLI gegeben wird :) (wiederbelebt..., es ist auch MCM sein soll)
Legendenkiller
2021-11-04, 09:10:06
Und von der 3070 zur 2080 waren es 5W oder 2,3% mehr. :rolleyes:
?! was Vergleichst du da? Oder meinst du das die 3070 so Scheise ist, das sie mehr Strom braucht obwohl sie ein Klasse tiefer ist als die 2080 ?!
Fun Fact: AMD wird ca. 700W benötigen, da die 6800XT für die ca. 2x mehr Leistung auch 1,76x mehr Strom als die 5700 benötigt. Um also 2,7x schneller zu sein, muss der Stromverbrauch massiv ansteigen. 700W sind dagegen realistisch. ;D:freak::eek:
Wieso AMD kocht mit dem selben Wasser , also auch + 50% TDP und 50% aus der Techologiefortschritt, wenn sie auf 2 oder sofgar 2,2x kommen wollen
PS: wenn sie wirklich 2x Geschwindigkeit in realen Anwendungen schaffen wollen werdem sie den Verbrauch deutlich steigeren müssen .. Vermut lich sind die 2x aber reine Marketing luftblasen in irgendwelchen Fantasybenchmarks ... und die Realität ist dann +50% Leistung bei 440W TPD
Platos
2021-11-04, 09:30:55
:D also wenn das so kommt, weiss ich auch nicht.
Ja, 3090 Käufer interessieren sich oft nicht für den Stromverbrauch, aber die Wärmeentwicklung dürfte irgendwann jeden interessieren. Bei 550W kann man doch nicht Spielen, da wirds selbst im Winter bei besser isolierten Räumen zu warm nach 3-4h zocken, wenns nicht gerade das Wohnzimmer ist.
Ich kann mir solche Zahlen irgendwie echt nicht vorstellen :D
Miami Nice reibt sich schonmal die Hände vor Freude ;D
mimimi
Das meine ich. ;D
Wann aktualisierst Du eigentlich mal Deine Liste mit nem aktuellen Treiber?
Die Werte sind aktuell (also vom Sommer). :)
MfG
Raff
Fragman
2021-11-04, 09:56:41
550 Watt sind schon brutal, da kann man wohl 450 fuer die 4080 annehmen und vielleicht optimistisch 375 fuer die 4070?
Da ist dann auch der Gag der letzten Woche mit den 1KW fuer die 5090 in 3 Jahren wohl ernst gemeint gewesen.
So kann man ja nicht weiter machen. Selbst die "Mittelklasse" wird ja absurd hohe Verbraeuche haben. An dem Punkt bin ich dann auch langsam raus (was ich aktuell eh schon bin dank den absurden Preisen).
pilzsammler2002
2021-11-04, 10:05:03
Gibts auch in der aktuellen Generation noch.
Die RX 6800 non XT ist DER Tipp schlechthin, für Leute die Performance/Watt noch interessiert.
Ich habe deshalb direkt zu release bewusst ne 6800 ohne XT geholt, die karte ist auch dank dem großen Inf cache einfach top was die Effizienz betrifft :)
RX 6800 und RTX 3070 sind übrigens ~gleichauf, was Perf/Watt angeht. Ampere kann auch effizient, man sollte nicht die geprügelten Exemplare betrachten. Solche gab es in jeder Generation, neben Effizienzmeistern - manchmal sogar auf Basis des gleichen Designs (etwa Fury X vs. Nano).
MfG
Raff
Ätznatron
2021-11-04, 10:41:04
RX 6800 und RTX 3070 sind übrigens ~gleichauf, was Perf/Watt angeht. Ampere kann auch effizient, man sollte nicht die geprügelten Exemplare betrachten. Solche gab es in jeder Generation, neben Effizienzmeistern - manchmal sogar auf Basis des gleichen Designs (etwa Fury X vs. Nano).
MfG
Raff
Kann man tatsächlich die Effiziens bei Karten mit derart ungleichem VRAM-Ausbau vergleichen, um dann eine Parität bei beiden festzustellen?
Mir jedenfalls würde das Bauchschmerzen bereiten.
Daredevil
2021-11-04, 10:43:30
Ein doppelt so großer Speicherbaustein zieht nicht doppelt soviel Strom, daher ist der Speicherausbau erstmal egal. Hätte die 3070 mehr RAM, würde die Perf/Watt eher ansteigen, da in kritischen Szenen mehr Dampf zu Verfügung steht.
NeMeth
2021-11-04, 10:45:42
Ich habe deshalb direkt zu release bewusst ne 6800 ohne XT geholt, die karte ist auch dank dem großen Inf cache einfach top was die Effizienz betrifft :)
Same here. Gute Leistung und noch annehmbarer Verbrauch und nicht ans Limit gepusht.
Ätznatron
2021-11-04, 10:48:51
Ein doppelt so großer Speicherbaustein zieht nicht doppelt soviel Strom, daher ist der Speicherausbau erstmal egal. Hätte die 3070 mehr RAM, würde die Perf/Watt eher ansteigen, da in kritischen Szenen mehr Dampf zu Verfügung steht.
Doppelt soviel nicht, aber doch eben mehr, möglicherweise sogar signifikant mehr.
Auch würde sich die Performance der 3070 nicht ändern, sie würde halt lediglich weniger schnell speicherlimitiert sein.
ChaosTM
2021-11-04, 10:51:09
RX 6800 und RTX 3070 sind übrigens ~gleichauf, was Perf/Watt angeht. Ampere kann auch effizient, man sollte nicht die geprügelten Exemplare betrachten. Solche gab es in jeder Generation, neben Effizienzmeistern - manchmal sogar auf Basis des gleichen Designs (etwa Fury X vs. Nano).
MfG
Raff
Meine mobile 3080er ist selbst mit voller Bestromung noch extrem effizient. So geht es halt auch.
Ist aber im Prinzip nur eine 3070er mit etwas mehr Shadern (6144 vs 5888) aber geringerem Maximalboost.
Emil_i_Lönneberga
2021-11-04, 10:52:54
Eine 6800XT genehmigt sich in 4K auch 370W - nur indem ich das Powerlimit manuell nach oben setzte. Das macht dann aus 255W+15%=293 kuschelige 350W+15%=402W Powerbudget, das die 6800XT mit "aus der Verpackung, rein in den Rechner" mit 370W quittiert.
77272
Natürlich geht auch sparsam mit 170W...
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12827533#post12827533
... und der FPS Unterschied macht in 2160p aus "spielbar" auch kein "unspielbar".
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12834946#post12834946
Als ob diese zukunftigen reinen Enthusiasten Karten dann perse immer für einen 2-2,5 fachen Performanceschub mit 500W laufen müssen. Und wer das hingegen machen möchte, kann das mit einer wassergekühlten Karte auch umsetzen.
Was sich die Leute immer gegen diese Kühllösung wehren, die alle 2 Jahre auch 1500-2000€ für ein Modell der nächsten Generation ausgeben ...:rolleyes:
@Emil_i_Lönneberga: Diese AiO ist schon ein Schmuckstück. Das sich sowas mal in einem Satz schreiben würde...
Trotzdem ist der 240er Radiator viel zu klein für eine 3090. Wir sehen ja auch jetzt schon das eine interne Kühlung für einen 3080, 3090 plus Highend CPU eigentlich kaum noch sinnvoll zu realisieren ist. Daher geht der Trend bzw. die Notwendigkeit fast schon zur einer extern Lösung wie MoRa.
Alder Lake und eine mögliche 4090er werden diesen Weg nur weitergehen. EKWB werden wunderbare Kühler herstellen, überflüssige Distroplates, Wasserkühler für die Backplate, Luxus Optimus Kühler usw. der Markt im Highend ist voll da.
Diese AiO ist ja nur ein mögliches Beispiel. Ein anderer Kandiadt bei 350W und größerem Radiator.
https://www.igorslab.de/aphacool-eiswolf-2-mit-gpx-a-fuer-die-sapphire-rx-6800xt-und-rx-6900xt-nitro-im-test-besser-als-die-toxic/3/
Die GPU selbst meldet 50 °C bei 350 Watt im Gaming (Bild unten) bzw. 52 °C im Furmark. Hier wird nichts dem Glück überlassen und wohl auch nicht verglühen. Der Speicher gibt im Sensor 52 °C (Gaming) und 54 °C im Furmark zurück, was in etwa auch der Platinenmessung der aufgewärmten Karte entspricht.
Mit der CPU bist du in 4K und höher eh im GPU Limit und die AM4/1200/1700 CPU lässt sich auch problemlos mit einem Luftkühler kühlen. Begrenzt auf die wassergekühlte Grafikkarte:
https://www.aquatuning.de/AtsdCartSave/load/key/139a0d16254356ab36547c70c5cb5d05
Das ist bei der Kühlleistung und Laustärke schonmal deutlich besser als jeder Luftkühler bei 400-500W.
Ätznatron
2021-11-04, 10:56:13
Was sich die Leute immer gegen diese Kühllösung wehren, die alle 2 Jahre auch 1500-2000€ für ein Modell der nächsten Generation ausgeben ...:rolleyes:
Na ja, Luftkühlungen sind wartungsfrei(er).
aufkrawall
2021-11-04, 11:04:51
RDNA2 ist auch die einzig übertaktbare Arch der letzten Jahre. Wobei auch nur theoretisch, in der Praxis unterbindet AMD das durch Bios-Limitierungen insbesondere bei den dicken Chips knallhart durch Spannungs- und Strombegrenzung.
Bleibt also, dass Karten nicht über übertaktbar sind, aber UV immer noch genau so gut wie früher geht. Das wertet gute Luftkühler ziemlich auf, wobei das Problem mit Wärmeabstrahlung in den Raum natürlich bleibt.
Daredevil
2021-11-04, 11:05:24
Doppelt soviel nicht, aber doch eben mehr, möglicherweise sogar signifikant mehr.
Ney. Von der Annahme bin ich auch mal ausgegangen, das ist aber nicht der Fall.
Speicheranbindung und Bandbreite kosten Strom, aber nicht die Menge.
aufkrawall
2021-11-04, 11:06:51
Die Speichermenge dürfte fast keinen Strom kosten vs. GGDR6X/Interface-Breite. Die 3060 zieht mit UV immerhin in vielen Spielen mit UV nur 120W, trotz der 12GB.
Emil_i_Lönneberga
2021-11-04, 11:17:25
Bitte löschen.
Troyan
2021-11-04, 11:28:05
Die Diskussion um Effizienz ist auch sinnbefreit. Es gibt Spiele, da wird Ampere nicht ausgelastet und taktet dann in den höchsten Step => Ineffizent.
Dann gibt es Spiele, wo die Karten niedriger takten, weil mehr Rechenleistung benötigt wird => Effizienz.
Dazu kommt Raytracing und DLSS. In Guardians of the Galaxy ist eine 3070 mit Raytracing zwischen 42% und 60% effizienter als die 2070 Super (bzw. 2080).
Emil_i_Lönneberga
2021-11-04, 11:28:45
Na ja, Luftkühlungen sind wartungsfrei(er).
Über den Kugelhahn an der Pumpe am tiefsten Punkt das Kühlmittel ablassen, beide Schraubanschlüsse am Terminal des GPU Kühlers lösen, Karte im Anschluss ausbauen. Wartung durchführen (neue Karte mit Kühler rein oder Pad und Pastenwechsle bei der alten Karte oder ...). Karte wieder in den PCIe Slot einsetzen, Kühlmittel über den AGB einfüllen und Pumpe einschalten, fertig.
etp_inxession
2021-11-04, 11:29:25
RX 6800 und RTX 3070 sind übrigens ~gleichauf, was Perf/Watt angeht. Ampere kann auch effizient, ...
MfG
Raff
Puh.
Jetzt vergleichst du als PCGH Experte eine 8 GB Karte mit einer 16 GB Karte.
Grenzt an Bullshit.
Im Bereich der 6800 non XT gibts eigentlich keine Konkurrenz.
Es sei denn man ist RT Spezel ... aber das ist bisher zu vernachlässigen.
Einzig grüner BIAS und die bessere Lieferbarkeit machen die 3070 zum Gewinner des ungleichen (Verkaufs-) Duells.
Ätznatron
2021-11-04, 11:32:39
Über den Kugelhahn an der Pumpe am tieftsen Punkt das Kühlmittel ablassen und Karte im Anchluss zur Wartung (allte Karte raus, neue Karte rein) durchführen.
Siehste.
Braucht man bei Luftkühlung nicht. ;)
ChaosTM
2021-11-04, 11:40:38
NV sollte den mobilen "3080"er mit 16GB für den Desktop auflegen. ;)
Ätznatron
2021-11-04, 11:42:46
Puh.
Jetzt vergleichst du als PCGH Experte eine 8 GB Karte mit einer 16 GB Karte.
Grenzt an Bullshit.
Im Bereich der 6800 non XT gibts eigentlich keine Konkurrenz.
Es sei denn man ist RT Spezel ... aber das ist bisher zu vernachlässigen.
Einzig grüner BIAS und die bessere Lieferbarkeit machen die 3070 zum Gewinner des ungleichen (Verkaufs-) Duells.
Immerhin kann sich die 3070 in WQHD (https://www.pcgameshardware.de/Radeon-RX-6700-XT-Grafikkarte-277204/Tests/vs-RTX-3060-Ti-Ray-Tracing-Benchmarks-Release-1368248/) und in Spielen mit der Raytracing-Option tatsächlich etwa 11% vor die 6800 setzen.
Macht sie das zur Gewinnerkarte?
Kann man tatsächlich die Effiziens bei Karten mit derart ungleichem VRAM-Ausbau vergleichen, um dann eine Parität bei beiden festzustellen?
So lange der VRAM reicht ja. Wenn das nicht mehr der Fall ist nein, dann büßt die Karte welcher der VRAM ausgeht nämlich massiv an Effizienz ein.
Doppelt soviel nicht, aber doch eben mehr, möglicherweise sogar signifikant mehr.
Absolut vernachlässigbar, die Speichermenge an sich hat so gut wie keinen Einfluss auf den Verbrauch. Was Strom kostet ist der Transfer der Daten vom und in den VRAM.
Daredevil
2021-11-04, 11:54:52
Mit der 3070 kannst du dir ruckelnd 4K Spiele anschauen
Mit der 6080 kannst du dir ruckelnd RT Spiele anschauen
Beides sind Kompromisskarten für 4K+ oder RT.
Die 3070 kann sehr gut in RT@FullHd
Die 6080 kann sehr gut allgemein in WQHD.
Gamer have the Choice.
Ätznatron
2021-11-04, 12:11:20
Mit der 3070 kannst du dir ruckelnd 4K Spiele anschauen
Mit der 6080 kannst du dir ruckelnd RT Spiele anschauen
Beides sind Kompromisskarten für 4K+ oder RT.
Die 3070 kann sehr gut in RT@FullHd
Die 6080 kann sehr gut allgemein in WQHD.
Gamer have the Choice.
Bei RT@FHD werden 14% kaum den Unterschied zwischen spielbar und Ruckelorgie ausmachen.
aufkrawall
2021-11-04, 12:14:46
Macht sie das zur Gewinnerkarte?
Ich denke nicht, dass man VRAM-Krüppel (nichts gegen Krüppel) als Gewinnerkarten bezeichnen kann.
Allerdings ist RDNA2 ein doppelter Krüppel mit dem miesen RT (Hardware und Treiber) und FSR. Für alten Gammel mit xhundert fps braucht man keine 1000€-Grafikkarte.
Puh.
Jetzt vergleichst du als PCGH Experte eine 8 GB Karte mit einer 16 GB Karte.
Grenzt an Bullshit.
Im Bereich der 6800 non XT gibts eigentlich keine Konkurrenz.
Es sei denn man ist RT Spezel ... aber das ist bisher zu vernachlässigen.
Einzig grüner BIAS und die bessere Lieferbarkeit machen die 3070 zum Gewinner des ungleichen (Verkaufs-) Duells.
Meinst du das ernst? Ich als PCGH-Experte (deine Worte) vergleiche Produkte, also Gesamtpakete, weil das sinnvoll und alternativlos ist. Bei der Betrachtung Fps vs. Watt lassen sich so ganz klare Aussagen treffen, die in realen Stromkosten münden. Einzelne Posten rauszurechnen (es ist mehr ein educated guess) bringt nette Randbetrachtungen, es ist aber theoretisch.
Ich halte die RX 6800 übrigens auch für das bessere Produkt, aber darum ging es nicht. Eine RTX 3070 16GB wäre jedoch fraglos besser als beide und ganz gewiss kaum versoffener (sofern man doppelt kapazitive anstatt doppelt so viele RAM-Chips installiert).
MfG
Raff
P.S: Genau das meine ich, Teil 2. Liegen AMD und Nvidia auf Augenhöhe, kommt es zu derart kuriosen Diskussionen. Trennt die Hersteller eine unüberwindbare Kluft, sind die Lager viel netter zueinander - und Messenger wie ich werden viel seltener gekillt. Dass man für das Erstellen und Publizieren von Messwerten = Fakten angegangen wird, ist eine Unsitte.
Ätznatron
2021-11-04, 12:20:37
Ich denke nicht, dass man VRAM-Krüppel (nichts gegen Krüppel) als Gewinnerkarten bezeichnen kann.
Allerdings ist RDNA2 ein doppelter Krüppel mit dem miesen RT (Hardware und Treiber) und FSR. Für alten Gammel mit xhundert fps braucht man keine 1000€-Grafikkarte.
Mies ist relativ.
Mies sind für mich nur hardwareseitige 8 GB (kommt man nicht weit mit) , 11 % Performancerückstand in RT@WQHD dagegen weniger.
Ein Freund von FSR oder DLSS bin ich ohnehin nicht. Lassen wir das mal außen vor. ;)
edit@Raff:
Dass man für das Erstellen und Publizieren von Messwerten = Fakten angegangen wird, ist eine Unsitte.
Hinterfragen - auch durchaus unangenehm intensiv - wird man aber schon noch dürfen? Ohne, dass Du dich gleich persönlich angegangen fühlst?
Weder Speicher noch RT-Rechenkerne kann man sich irgendwie "hertakten", sondern muss damit leben. Insofern haben beide Modelle eine Achillesferse = Haltbarkeitsproblem. Man muss gezielt auf Dinge verzichten.
Hinterfragen - auch durchaus unangenehm intensiv - wird man aber schon noch dürfen? Ohne, dass Du dich gleich persönlich angegangen fühlst?
Wenn Person A ein Posting mit "Bullshit" anfängt und Person B mit einem Bias-Vorwurf aufhört, dann ist das zweifellos der falsche - leider hier normale - Ton. Auch hier: Dass ich das überhaupt erwähnen muss, ist völlig kaputt. Ich lasse jeden Fanboy Fanboy sein, solange nicht meine aufwendigen Messungen in den Schmutz gezogen werden. Neutral vorgetragene Kritik, vielleicht sogar mit einem netten Umgangston, den man in der Kinderstube eigentlich mitgegegeben bekommen sollte, beantworte ich sehr gerne. :)
MfG
Raff
GerryB
2021-11-04, 12:28:29
RX 6800 und RTX 3070 sind übrigens ~gleichauf, was Perf/Watt angeht. Ampere kann auch effizient, man sollte nicht die geprügelten Exemplare betrachten.
Bei den kleinen Modellen kann man aber auch mal beim OCen ein mue mehr pushen, ohne gleich auf h2o umrüsten zu müssen.
mimimi2: siehe Anhang
Ich glaube net das ein PCGH-Veteran wie DaHell irgendeine Colour bevorzugt pusht. Er schaut halt nur Was geht.
Und für den 3dC-Thread sollte ja die OCing-Eigenschaft der jeweiligen Architektur ganz interessant sein.
(außer für mimimi=R, der sein Weltbild fertig hat)
btw.
PCGH= Sommer ist ja wohl ein Witz bezgl. aktuell!
und
Bei Perf./W ist Igor etwas anderer Meinung, aber Er misst ja nur ohne die Reviewanleitung von Jensen, die bei R im
Schreibtisch liegt.
aufkrawall
2021-11-04, 12:29:12
Mies sind für mich nur hardwareseitige 8 GB (kommt man nicht weit mit) , 11 % Performancerückstand in RT@WQHD dagegen weniger.
Ich hatte selber eine 6800 für 1440p. RT hat in kaum einem Spiel ohne Fehler oder Schrott-Frame Times funktioniert, einfach nur völliger Müll im Vergleich zu jetzt mit der 3060 + DLSS. Man kauft sich besser eine Konsole anstatt Radeon.
Ätznatron
2021-11-04, 12:38:25
Ich hatte selber eine 6800 für 1440p. RT hat in kaum einem Spiel ohne Fehler oder Schrott-Frame Times funktioniert, einfach nur völliger Müll im Vergleich zu jetzt mit der 3060 + DLSS. Man kauft sich besser eine Konsole anstatt Radeon.
Die 3060 ist für mich eines der ausgewogeneren Produkte der derzeitigen Produktlinien beider Hersteller.
Für mich (neben der 3090) das beste Produkt am Markt.
OpenVMSwartoll
2021-11-04, 13:08:44
[...]
Neutral vorgetragene Kritik, vielleicht sogar mit einem netten Umgangston, den man in der Kinderstube eigentlich mitgegegeben bekommen sollte, beantworte ich sehr gerne. :)
MfG
Raff
Mit allem Respekt, aber ich fürchte, der Post von Dir hat ein paar Leser sicherlich angetriggert. "Aus den Löchern gekrochen", "Pippi Langstrumpf" helfen nicht bei einer sachlichen Diskussion. Ich werfe sicher nicht den ersten Stein, weil ich auch bisweilen übertreibe, aber sei es drum.
Sich zwischen 3070 oder 6800 zu entscheiden, fällt in Bezug auf Zukunftssicherheit schwer. 3070 hat klar zu wenig Speicher. 6800 schwächer bei RT, sie wird evtl. aufgrund der Multiplattform Titel etwas besser altern, aber das ideale Produkt bekommt man heute kaum. Welchen Tod mag man nun sterben?
Mit der 3070 kannst du dir ruckelnd 4K Spiele anschauen
Mit der 6080 kannst du dir ruckelnd RT Spiele anschauen
Mit der 3070 kannst du allerdings auch Spiele wunderbar in 4k ganz flüssig anschauen, weil du dafür nur WQHD Performance benötigst.
Mit allem Respekt, aber ich fürchte, der Post von Dir hat ein paar Leser sicherlich angetriggert. "Aus den Löchern gekrochen", "Pippi Langstrumpf" helfen nicht bei einer sachlichen Diskussion. Ich werfe sicher nicht den ersten Stein, weil ich auch bisweilen übertreibe, aber sei es drum.
Du hast vollkommen recht - ich habe unterschätzt, welche Auswirkungen das in diesem Forum hat. Mein Fehler 1. Wer sich dadurch getriggert fühlt, ist aber prinzipiell nicht in der Position, meine Neutralität in Frage zu stellen. :ugly: Mein Fehler 2: Ich gehe ständig auf das irrationale Zeug ein, anstatt einfach meinen Account löschen zu lassen. Warum tue ich das? Das ist ungefähr so, als wenn man sich absichtlich Telegram installiert und dann in eine Impfgegner-Phalanx reinstürmt. Da geht's auch um Gefühle vs. Wissenschaft. Das sind gottverdammte Grafikkarten und Aktiengesellschaften, nicht eure Mütter, also behandelt sie auch so. :)
MfG
Raff
OpenVMSwartoll
2021-11-04, 13:21:00
Du hast vollkommen recht - ich habe unterschätzt, welche Auswirkungen das in diesem Forum hat. Mein Fehler 1. Wer sich dadurch getriggert fühlt, ist aber prinzipiell nicht in der Position, meine Neutralität in Frage zu stellen. :ugly: Mein Fehler 2: Ich gehe ständig auf das irrationale Zeug ein, anstatt einfach meinen Account löschen zu lassen. Warum tue ich das? Das ist ungefähr so, als wenn man sich absichtlich Telegram installiert und dann in eine Impfgegner-Phalanx reinstürmt. Da geht's auch um Gefühle vs. Wissenschaft.
MfG
Raff
Ich bin froh, Dich hier zu lesen. Aber man braucht wohl immer etwas, bei dem man sich gegenseitig die Schädel spalten kann.
Aber ja, Kompetenz oder Neutralität anzuzweifeln, wenn es gegen das Berufsethos geht, ist relativ schäbig. Ich glaube, den Betreffenden ist nicht klar, was das in einem, der seinen Job so gut wie irgend möglich macht, auslöst.
Also an der Stelle mal ein lautes: Pfui, man kann Dinge anders sehen, ohne auf diese Schiene zu gehen.
Aber zu viel Raum für Mist schon jetzt...
P.S.: Nicht das Impfthema bitte. Beide Seiten haben Ansichten, beide Seiten bestehen aus mehr aus einer Sicht. Beide Haltungen dürfen existieren.
Ich glaube, den Betreffenden ist nicht klar, was das in einem, der seinen Job so gut wie irgend möglich macht, auslöst.
This!
Danke! =)
Meine Frau hält mich übrigens verrückt, weil ich so viel arbeite.
... und wir sind endgültig und unwiederbringlich offtopic, bis sich die Moderation erbarmt und mal ordentlich durchballert.
MfG
Raff
P.S: Ich habe offenbar ein Händchen für besonders brisante Themen. :ugly: [x] Anhänger der Wissenschaft (egal ob Biologie oder Messwerte)
sChRaNzA
2021-11-04, 14:03:35
Aber war das jemals anders? Gut, Raff hat schon recht was den Zeitpunkt angeht. Liegen nVidia und AMD auf Augenhöhe kochen die Gemüter (warum auch immer) gerne über. Allerdings kann ich mich da noch gut an Unterhaltungen zur GeForce FX und dem damaligem ATI-Pendant erinnern. Wirklich „freundlicher“ war das schon damals auch nicht. ;)
MfG
Emil_i_Lönneberga
2021-11-04, 18:18:39
Siehste.
Braucht man bei Luftkühlung nicht. ;)
Siehste.
Dann können die 500W mit Luftkühlung auch nicht so schlimm sein.
necro1970
2021-11-05, 16:52:35
Die Werte werden schon halten (Performance wie Leistungsaufnahme).
Und der rumorte neue 600W 12VHPWR Stecker für Netzteile - ist auch kein Hirngespinst sondern guter Hinweis, dass vllt. die 3090Ti schon damit kommen wird.
Freu mich schon auf 2022, wohlwissend dass ich da einer der wenigen bin.
Denn ich habe so ein dumpfes Gefühl, dass die neuen, noch aufwendigeren, 5nm Spielzeuge zumindest zu Beginn deutlich teurer werden als die 6er/30er Karten jetzt schon sind.
Ich erinnere mich noch zu gut an das Luftschnappen vieler Leute beim Release des iPhone X, das einen Sprung bei Performance, Aufwand usw. vorlegte - der auch bezahlt werden wollte.
Und seitdem sind 1k+ für die jeweils neuesten Top Smartphones schon Standard, Tendenz immer noch steigend.
Warum sollte es gerade bei GPUs anders sein...
Budget oriented gamer oder solche die soviel Perfomance nicht wollen/brauchen, Leute mit von Haus aus unterdimensionierten Netzteilen/kleineren und sparsameren builds, Leute denen die 6er/30er Serie schon zu teuer ist usw. werden da kopfschüttelnd abwinken.
Kann ich alles verstehen/nachvollziehen.
Aber die "Fassungslosigkeit" über so hohe TPDs nicht.
Den Framelimiter auf die max. Refreshrate der Monitore eingestellt, nach unten hin tut GSync das seinige, "heizt" meine alte 1070 den Raum mit schwankenden Frametimes mehr, als meine 3090 und 3080Ti - die das locker, mit buttercremigen Frametimes, und weniger Verbrauch, bei wenig Anspruchsvollem knapp über lüfterlos, rausschütteln.
Einzig bei Dingen ala Furmark kann ich die vollen 350-440W provozieren.
Im Fulltower mit passendem Airflow locker managebar.
Aber da ich keinen Furmark "spiele" - auch irrelevant.
Im echten Leben brauchen die Karten einen Bruchteil - wie auch die neuen Alder Lakes ein schönes Beispiel dafür sind:
Ziehen diese CPUs ständig und andauernd 241W? Nein.
Außer wenn man es mit einem passenden Benchmark drauf anlegt.
Nach Check der vielen reviews ist viel eher die Realität die, dass sie sogar etwas weniger brauchen, bei etwas mehr Performance, als meine heißgeliebten 5000er Ryzens.
Einen Umstieg ist es mir nicht wert - aber finde wirklich gut, was Intel da abgeliefert hat.
Würde ich mich nur und ausschließlich auf die 241W P2 fixieren....wäre es das berühmte Brett vor dem Kopf/den Wald vor lauter Bäumen nicht sehen...
D
Im echten Leben brauchen die Karten einen Bruchteil - wie auch die neuen Alder Lakes ein schönes Beispiel dafür sind:
Ziehen diese CPUs ständig und andauernd 241W?
Da unterscheiden sich CPUs und GPUs aber sehr stark. CPUs brauchen in der Regel wie du sagst in der Praxis meistens deutlich weniger als deren Powerlimit.
GPUs allerdings brauchen in Grafiklimitierten Szenarien, und die herrschen bei einem System das nicht komplett inbalanced ist nunmal im Gaming so gut wie immer, in aller Regel auch konstant ihr eingestelltes Powerlimit.
Wer von den Meckerfritzen hat aktuell eine 3090Ti oder zumindest was ähnliches im Einsatz? Vermutlich so quasi niemand. Ihr seid nicht die Zielgruppe - und offensichtlich nicht in der Lage, euch in die Denke dieser zu versetzen.
Wärmeentwicklung und Lautstärke sind Probleme (neben weniger wichtigen Punkten wie Stromversorgung, Bauform, usw.). Aber offensichtlich lösbar. Ob persönlich akzeptabel, ist andere Frage.
Viel interessanter sind Bang per Buck bzw. Watt. Und zwar um die 60er Modelle rum.
Bedauerlich in dem Zusammenhang, dass es SingleSlot- und HalfHeight-Karten mit ein wenig mehr Wumms nur noch im Workstation-Segment gibt. War früher schon selten (z.B. 7850), inzwischen kann man dahingehend beschränkte Gehäuse nicht mehr für den Zweck einsetzen, weil es äußerst teuer werden würde.
necro1970
2021-11-06, 20:59:54
Da unterscheiden sich CPUs und GPUs aber sehr stark. CPUs brauchen in der Regel wie du sagst in der Praxis meistens deutlich weniger als deren Powerlimit.
GPUs allerdings brauchen in Grafiklimitierten Szenarien, und die herrschen bei einem System das nicht komplett inbalanced ist nunmal im Gaming so gut wie immer, in aller Regel auch konstant ihr eingestelltes Powerlimit.
Ja, stimmt gewiß bei den meisten.
Wobei inbalanced auch das richtige Stichwort ist, dass ich mit Framecap auf Displayrefreshrate andeutete:
klar sind wuchtige Displaygrößen verlockend, und daher verwenden die meisten auch zu hohe Auflösungen.
Wo dann die GPU wie du richtig sagst, oft/immer ins Powerlimit rennt.
Was IMO tatsächlich imbalanced ist - denn eine GPU die IMMER (egal welches Spiel) im Powerlimit rennt, ist ein absolutes bottleneck.
Und wenn sie ständig ohne Framecap mit 400+ FPS läuft - blöde Stromverschwendung.
Oder eine neue Karte zu kaufen, aus Kostengründen keine Top Karte sondern irgendwas lowend/mittelmässig, die jetzt aktuelle Titel gerade mal so, volle Pulle am Limit laufend hinzaubert - a prior ein Fehlkauf den man sich gleich ganz schenken könnte, mit 0 Leistungsreserven für die Zukunft.
Es ist ähnlich der Geschichte Felgen/Reifengrößen/gewichte/Motorisierung.
Wo z.B. fahrdynamisch (1. Richtung Serienentwicklung/Testung/Empfehlung und 2. Richtung Motorsport mit Slalom/Bergrennen gedacht) und motorisch (~150ps), 16 Zoll das sinnvolle Maximum wären - werden oft 18 Zoll + zu breite Bereifung raufgeklatscht. Sieht gut aus - und fährt sich lächerlich schlecht.
Sprich wieder auf GPUs gemünzt:
Die 3070er sind in den Family PCs super 1080p Karten, die 3080ti und 3090 klasse für 1440p/Ultrawide. Für 4k + ständig cremige 3stellige Framerates - sind alle: ja, zu brustschwach.
Deswegen...freu ich mich auf das, was 2022 kommt. :rolleyes:
Derart, und mit Framecap je nach Monitor betrieben (60, 75, 144), brauchen leichte Titel die mit 500+ fps laufen - könnten - gerade mal 100W, oft nahe lüfterlos laufend, und anspruchsvolleres auch entsprechend cremig und bis dreistellig - ohne aber ständig im TDP Limit zu hängen.
Zugegeben: Sachen wie z.b. Metro Exodus "einmal mit alles" - da saugt die 3080ti in Ultrawide alles was geht.
Ob guter/passender Basis/Rundum/Kühlung aber auch überhaupt kein Problem, auch die angedeuteten 500+W der nächste Generation nicht - und die buttercremig laufende Augenweide den Spaß wert.
Aber 4K wäre, was auf der Straße Alltag ist: zu große/schwere Karossen mit ständig am Limit laufenden zu kleinen Motörchen.
Aka eine geil anzusehende Auflösung - ohne die Power sie auch (in aufwendigeren neueren Titeln) adäquat anzutreiben.
Stichwort Haltbarkeit, ist bei Motoren ja auch nicht anders: deswegen halten meine GPUs auch gefühlte Ewigkeiten - nie zu heiß, nie ständig am Limit.
Alle 4-5 Jahre alten 1000er GF Karten und noch ältere 6/7er GF, die ich inzwischen an Family&Freunde verschenkt habe... laufen dort tiptop, noch kein Lüftertausch nötig, und selbst die 670er die ich prophylaktisch zerlegt habe, hätte das repasten gar nicht gebraucht.
Übrigens: sich ein Netzteil zu holen, das gerade mal so das nötige liefert, und nach ein paar Jahren ob Alterung der Bauteile nicht mehr.
Oder ein Netzteil zu holen, das bei "einmal alles" bei rund 50% Last und >90% Effizienz läuft, lüfterlos, und auch die nächsten 2 CPU/GPU Upgrades betreiben kann.
Anderes Thema - genau dieselbe Geschichte.
Immer wenn es "overkill" tönt, hören meine Ohren: ah - ein echtes Up und kein Sidegrade, bringt Spaß, jetzt und dank Reserven auch noch überübermorgen....
Ultron
2021-11-06, 22:08:02
Wenn der Strombedarf weiter in 1000 Watt Regionen anwächst ist der PC der Zukunft ein System das räumlich getrennt vom Benutzer steht. Dann ist Cloud Gaming definitiv eine Option !
Ich hab den Rechner schon seit Jahren im Nebenraum. Displayport und USB geht dann durch die Wand, Lärm und Hitze ist in nem anderen Raum. Das macht doch jeder Profi so?
Wo dann die GPU wie du richtig sagst, oft/immer ins Powerlimit rennt.
Was IMO tatsächlich imbalanced ist - denn eine GPU die IMMER (egal welches Spiel) im Powerlimit rennt, ist ein absolutes bottleneck.
Und wenn sie ständig ohne Framecap mit 400+ FPS läuft - blöde Stromverschwendung.
Im Zeitalter von 240Hz und 360Hz Monitoren sind 400FPS keine Stromverschwendung, genausowenig wie hohe Auflösung und damit eine bessere Qualität.
Eine Verschwendung wäre es eine Grafikkarte zu kaufen die generell in der benutzten Auflösung wesentlich höhere Frames als die Refreshrate bieten kann, nur um diese dann mit Framelimiter zu betreiben.
Platos
2021-11-07, 10:08:44
Ein klares Nein auf deine Frage...
Das weisst du aber auch ;)
Edit: @Ultron
Das macht doch jeder Profi so?
Das ist eigentlich nicht notwendig, es reicht wenn man den Radiator der Wasserkühlung weit genug weg platziert.
necro1970
2021-11-07, 22:10:04
Im Zeitalter von 240Hz und 360Hz Monitoren sind 400FPS keine Stromverschwendung, genausowenig wie hohe Auflösung und damit eine bessere Qualität.
Eine Verschwendung wäre es eine Grafikkarte zu kaufen die generell in der benutzten Auflösung wesentlich höhere Frames als die Refreshrate bieten kann, nur um diese dann mit Framelimiter zu betreiben.
Deine Meinung. Aber sorry: das ist sic....nein danke.
Zu hohe Refreshrates (die die meisten sensorisch/körperlich ohnehin nicht mehr wahrnehmen können), zu große, nicht wirklich gute, Displays mit zu hohen Auflösungen, mit zu schwachen Karten betrieben - die dann ständig an ihrem absoluten Limit laufen.
Limit bedeutet übrigens: Limit. Absolutes Ende - da geht nichts mehr. Und das ist für den Dauer/Vielbetrieb definitiv nicht optimal oder geeignet.
Und in der Situation dann noch über (welche TDP auch immer) zu meckern - doppelt doof.
Die Bildqualität: die wird übrigens mehrheitlich durch das Panel bestimmt.
Und nein, die 4k Low end/Einsteigermonitore für 300€ liefern bei weitem nicht das, was ich unter guter Bildqualität verstehe.
Mach den Preis mal 3, und in 1440p - da gibt's Bildqualität.
Reserven haben ist, wenn man es sich leisten kann, vorsorglich, langfristig günstiger - und definitiv keine Verschwendung.
In der Familie haben wir z.B. 3, stark motorisierte Fzg jedes Antriebstyps (Diesel, Benzin, Elektro).
Ich denke nicht im Traum daran, abgesehen davon dass in Ö verboten und mit massiven Strafen verbunden - diese ständig, immer und andauernd im Lastlimit und irgendwo um die 250km/h zu bewegen.
Sehr gute Ökonomie, i.d. Praxis sehr hohe Kraftreserven für jede Situation, sehr wenig Gesamtbelastung, wenig Verschleiß und hohe Langlebigkeit - das ist es, was "Aber das sind ja viel zu viel PS" in der Realität bringen.
Würde ich einen der üblichen Brot und Butter Wagen - downsize Motor, sch*** Wagen per se, zu schwer und untermotorisiert, Hartplastikwüste innen usw. fahren....
wäre es für manche "vernünftig" - für mich, da ich gerne und oft unterwegs bin, zum Fenster hinausgeworfenes Geld.
Dass ich lieber gleich in etwas ordentliches investiere, dass a) lange hält, und b) über die gesamte Dauer auch tatsächlich Freude/hohen Nutzwert/Wohlfühlfaktor usw. usf. bietet.
Das ist auch der Grund, warum ich mehrere 1000er GF Karten verschenkt habe.
Und nicht auf eBay für maximalen Profit verklopft habe, wie es so viele machen....
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.