PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Von AMD wieder auf Intel (RANT)


Seiten : 1 [2]

Poekel
2021-03-17, 11:02:40
Was sollen das denn für Gurken sein? Selbst das von mir erwähnte Seasonic Gold hat bei 32,5W Last noch 78,2% Effizienz. Da wird jetzt bei bsw. 25W Last nicht plötzlich auf magische Weise die Effizienz unter 50% fallen sondern eher Richtung 70+%.
Das war ja auch keine absolute Aussage, aber ich würde mal sagen, dass das so der Bereich bei konservativer Schätzung ist, wo man schon auf entsprechende Reviews achten sollte, wenn einem die Effizienz wichtig ist und 10-20W sind bei 650W dann mitunter schon bei 50-60% auch bei besseren Netzteilen. Die einzigen, die das konstant testen, scheinen TweakPC und mittlerweile Tomshardware zu sein. Und Cybenetics gibt mittlerweile auch 2%/10 Watt-Werte an

dargo
2021-03-17, 13:19:20
Naja... wir müssen es jetzt nicht übertreiben. Welches Gaming Desktop-System hat denn bitte schön eine Nettolast in Idle von nur 10W? Das haben viele Grafikkarten alleine schon. :freak: Und selbst unter der Annahme, dass 10W Nettolast nur noch 60% Effizienz bedeutet sind es trotzdem nur 6,xW Verluste im NT.

Poekel
2021-03-17, 13:47:22
Naja... wir müssen es jetzt nicht übertreiben. Welches Gaming Desktop-System hat denn bitte schön eine Nettolast in Idle von nur 10W? Das haben viele Grafikkarten alleine schon. :freak: Und selbst unter der Annahme, dass 10W Nettolast nur noch 60% Effizienz bedeutet sind es trotzdem nur 6,xW Verluste im NT.
Moderne 1080p/60hz-Systeme können dahinkommen. Ohne Graka bin ich im Idle aktuell bei 14,5 Watt (ohne RAM-OC dürfte das bei 12-13,xx sein) und bei und hatte halt gehofft, dass die Radeons 6500/6600 da nochmal was bringen könnten (5500 xt war ja schon bei 5 Watt Idle glaube ich und auch die größeren neuen Grakas haben da unter 10W laut Reviews; und der Extra-Verbrauch der iGPU geht natürlich davon auch runter).
Mit den entsprechenden Prozessoren und Grafikkarten dürften 10-15 Watt Netto schon jetzt drin sein. Das die letzten paar Watt individuell nicht zwingend rational sind, sollte wohl klar sein, aber ähnliches gilt auch für RAM OC (oder OC im allgemeinen), um die letzten paar Prozentchen aus einem System rauszuquetschen. Oder 4stellige Summen für einzelne Komponenten auszugeben, damit die Spiele minimal schicker aussehen, ist auch nicht die zwingend sinnvollste Verwendung für das Geld.

Blediator16
2021-03-17, 16:28:59
Moderne 1080p/60hz-Systeme können dahinkommen. Ohne Graka bin ich im Idle aktuell bei 14,5 Watt (ohne RAM-OC dürfte das bei 12-13,xx sein) und bei und hatte halt gehofft, dass die Radeons 6500/6600 da nochmal was bringen könnten (5500 xt war ja schon bei 5 Watt Idle glaube ich und auch die größeren neuen Grakas haben da unter 10W laut Reviews; und der Extra-Verbrauch der iGPU geht natürlich davon auch runter).
Mit den entsprechenden Prozessoren und Grafikkarten dürften 10-15 Watt Netto schon jetzt drin sein. Das die letzten paar Watt individuell nicht zwingend rational sind, sollte wohl klar sein, aber ähnliches gilt auch für RAM OC (oder OC im allgemeinen), um die letzten paar Prozentchen aus einem System rauszuquetschen. Oder 4stellige Summen für einzelne Komponenten auszugeben, damit die Spiele minimal schicker aussehen, ist auch nicht die zwingend sinnvollste Verwendung für das Geld.

Mit einem Officerechner kommt man sicher auf erheblich weniger, als mit einem Gamingrechner inkl. allem drum und dran. Was willst du uns damit sagen?

Poekel
2021-03-17, 17:44:04
Mit einem Officerechner kommt man sicher auf erheblich weniger, als mit einem Gamingrechner inkl. allem drum und dran. Was willst du uns damit sagen?
Der einzige Unterschied zum Office-Rechner ist doch primär die GPU, oder willst du mir jetzt erzählen, dass man nur in 4k mit 120 Herz+ vernünftig spielen kann?
€: Und mittlerweile ist es eben so, dass die ganzen Hochleistungssachen eben bei Niedriglast auch entsprechend sparsam sein können, Selbst ne reine Gaming-Machine mit 5xxx/10xxx CPU, 4000er RAM und dicker moderner GPU dürfte auf gut unter 30 Watt im Idle zu bekommen sein, wenn man die Energiesparmechanismen aktiviert und nicht alle USB-Anschlüsse verwendet (für Gaming?) und das Zimmer mit dem Teil beleuchten will.

Blediator16
2021-03-17, 18:02:05
Der einzige Unterschied zum Office-Rechner ist doch primär die GPU, oder willst du mir jetzt erzählen, dass man nur in 4k mit 120 Herz+ vernünftig spielen kann?
€: Und mittlerweile ist es eben so, dass die ganzen Hochleistungssachen eben bei Niedriglast auch entsprechend sparsam sein können, Selbst ne reine Gaming-Machine mit 5xxx/10xxx CPU, 4000er RAM und dicker moderner GPU dürfte auf gut unter 30 Watt im Idle zu bekommen sein, wenn man die Energiesparmechanismen aktiviert und nicht alle USB-Anschlüsse verwendet (für Gaming?) und das Zimmer mit dem Teil beleuchten will.

Ich dachte der Thread dreht sich um plug and play und nicht herumbasteln bis man evtl. auf 30w idle kommen könnte. :confused:

aufkrawall
2021-03-17, 18:11:27
Bro hat sich einen 5600X besorgt, scheint Plug & Play im X470 Taichi zu funktionieren. Das System lief vorher schon mit dem 3600X problemlos und tut es jetzt seit zwei Tagen offenbar auch mit dem 5600X. Der Stromverbrauch von diesem Board ist aber wirklich bescheiden, ist schon ein Manko. Gibt allerdings schlimmeres und die CPU ist viel kühler als der alte 3600X.

Poekel
2021-03-17, 18:20:53
Ich dachte der Thread dreht sich um plug and play und nicht herumbasteln bis man evtl. auf 30w idle kommen könnte. :confused:
Ist doch mittlerweile quasi Plug and Play. Energiesparoptionen im Bios aktivieren (wenn das schon zu viel ist, müsste man auch von 2133er-RAM ausgehen), den passenden Energiesparplan auswählen, fertig.
Das größte Problem ist mehr oder weniger aktuell, das Netzteil und Mainboard auszusuchen, weil da die großen Unterschiede liegen und der Bereich kaum getestet wird. Die CPUs und GPUs können mittlerweile im Idle und bei Niedriglast extrem sparsam sein, selbst die Flaggschiffe wie 6900xt kommen auf unter 10 Watt laut Reviews.

Geächteter
2021-03-17, 18:35:57
Selbst ne reine Gaming-Machine mit 5xxx/10xxx CPU, 4000er RAM und dicker moderner GPU dürfte auf gut unter 30 Watt im Idle zu bekommen sein, wenn man die Energiesparmechanismen aktiviert und nicht alle USB-Anschlüsse verwendet (für Gaming?) und das Zimmer mit dem Teil beleuchten will.
Unter 30 Watt mit nem GPU-Boliden halte ich aktuell eher für nicht möglich. Schon um unter 35 Watt zu bleiben, ist ne kleine Herausforderung.
Eher noch mit Intel möglich, bei AMD bestenfalls mit Renoir und Cezanne.
Nicht umsonst gibt es Optimus und das AMD-Gegenstück bei Laptops. Es ist ja nicht nur die GPU, die nuckelt, auch die CPU verbollert mehr Strom, wenn der PCIe aktiv ist.

Hakim
2021-03-17, 19:00:11
Nur eine AMD Grafikkarte alleine schluckt doch schon im Multimoni Mode oft über 30 Watt, wie will man hier Total auf um den dreh kommen? Außer CPU und GPU schlucken halt noch die Ganzen Lüfter, Waku Pumpe, SSDs, Ram Module und die ganzen USB Gerätschaften auch was. Also kann mir echt schwer vorstellen das man sowas auf unter 30 Watt zusammen prügeln kann.

Cubitus
2021-03-19, 13:35:48
Also das Intel System ist fertig :D

Es ist wie erwartet sehr gut geworden.
Der 10900F ist echt eine solide, gute und sehr schnelle CPU.

All-Core auf 4,6GHz garantiert immer, stellenweise auch auf knappe 5-Ghz

Günstig, schneller als mein 3900x Stock bei Spielen, und sehr stromsparend und leise im Desktop, Verbrauch unter 15 Watt.

Auch bei meinem Use-Case (zoggen) scheint die CPU lt HW-Info weniger Energie zu fressen,
Spiele sind eben kein Cine-Bench :wink:

Und die Einrichtung, easy peasy...

Bios geladen, XMP Profil geladen (welches sehr gut läuft)
oh Wunder :rolleyes:

Stromsparmechanismesen rein, Chipsatztreiber installiert und fertig.
Genauso wie ich es haben wollte :biggrin:

Jasch
2021-03-19, 13:40:47
Bekommst jetzt Deinen Gutschein von Intel :wink:?

15 Watt idle klar. :rolleyes:

Hauptsache du bist so zufrieden, aber den Thread hättest Dir schenken können, wirklich Hilfe wolltest Du nicht, nur Bestätigung.

MartinRiggs
2021-03-19, 13:41:30
Viel Spaß damit, ich kann dich verstehen.

Hab beim Kumpel das Gefummel mitbekommen bei Zen/Zen+ und Speichertakt, bei seinem Zen2 war es dann schon besser aber weit weg von reinstecken, läuft.
Vor allem viel Spaß beim Zocken, den haben viele nämlich schon gar nicht mehr vor OSD-Einblendungen und der Jagd nach Frametimes und Low-Level Apis :biggrin:

Cubitus
2021-03-19, 13:56:21
Hauptsache du bist so zufrieden, aber den Thread hättest Dir schenken können, wirklich Hilfe wolltest Du nicht, nur Bestätigung.

Nope nicht wirklich, wollte eben nur aufzeigen das AMD nicht der allerwerlts Heilsbringer ist.
Und es eben durchaus Use-Cases gibt, wo der Intel tatsächlich richtig gut Punkten kann.

Ja und zudem war ich auf das AMD System angepisst aus diversen Gründen,
war ne Mischung aus Pech und schlechten Entscheidungen beim HW-Kauf..

Viel Spaß damit, ich kann dich verstehen.

Hab beim Kumpel das Gefummel mitbekommen bei Zen/Zen+ und Speichertakt, bei seinem Zen2 war es dann schon besser aber weit weg von reinstecken, läuft.
Vor allem viel Spaß beim Zocken, den haben viele nämlich schon gar nicht mehr vor OSD-Einblendungen und der Jagd nach Frametimes und Low-Level Apis

Danke, Spaß ist definitiv vorhanden. Und die gefühlte Smoothness vom System ist auch wieder da :D

Ich hoffe echt Intel fängt sich wieder... Wäre schade, wie gesagt die Plattformen sind aktuell sehr ausgereift und solide.
Gestern kam zufälligerweise das neue AGESA für das Gigabyte Aorus x570, habe ich doch glatt verpasst. ;D

dildo4u
2021-03-19, 13:57:08
Warum 10900k der 10850k ist bei 380€ das ist wirklich gut.

Cubitus
2021-03-19, 14:03:28
Warum 10900k der 10850k ist bei 380€ das ist wirklich gut.

10900F für knappe 329 Euro ist aber besser gewesen, okay war tray aber dennoch. Ich brauche zudem kein K, die 4,6 Ghz all Core Turbo sind völlig ausreichend.
Und wie gesagt bei Spielen taktet dieser auch gern mal vereinzelt auf +5 Ghz.. halt nicht all-Core

https://ark.intel.com/content/www/de/de/ark/products/199329/intel-core-i9-10900f-processor-20m-cache-up-to-5-20-ghz.html

Dazu kommt. der 10900F hat wirklich ein sehr angenehmes Idle verhalten..

dildo4u
2021-03-19, 14:04:23
Oh ok hatte k gelesen, der Preis für F ist echt Hammer.

Cubitus
2021-03-19, 14:11:30
Oh ok hatte k gelesen, der Preis für F ist echt Hammer.

Ja war echt Glück, hatte den bei ebay (Klarsicht) gesehen und direkt zugeschlagen...
Ansonsten sind die Preise mit ~350 Euro aber auch noch sehr gut.

dargo
2021-03-19, 14:35:49
Hauptsache du bist so zufrieden, aber den Thread hättest Dir schenken können, wirklich Hilfe wolltest Du nicht, nur Bestätigung.
Der ganze Thread ist Comedy pur.

Also das Intel System ist fertig :D

Es ist wie erwartet sehr gut geworden.
Der 10900F ist echt eine solide, gute und sehr schnelle CPU.

All-Core auf 4,6GHz garantiert immer, stellenweise auch auf knappe 5-Ghz

Bei 200+W wenn alle 20 Threads beschäftigt sind? Ansonsten... was genau ist jetzt so besonders an diesen 4,6Ghz Allcore? Das schafft der 5800X hier auch spielend sogar mit UV. Naja... immerhin bist du jetzt zufrieden.

aufkrawall
2021-03-19, 14:36:14
Dazu kommt. der 10900F hat wirklich ein sehr angenehmes Idle verhalten..
Was ist denn so schrecklich unangenehm bei den Ryzens? Dass man sich zwanghaft an den Zacken im Temperatur-Graph hochziehen muss?
Als ob da bei typischer Desktop-Nutzung ständig der Lüfter hochdreht. Wenn doch, sitzt das Problem vorm PC...

Screemer
2021-03-19, 14:40:54
aaabder 15w im idle.

Benutzername
2021-03-19, 14:55:06
Was ist denn so schrecklich unangenehm bei den Ryzens? Dass man sich zwanghaft an den Zacken im Temperatur-Graph hochziehen muss?
Als ob da bei typischer Desktop-Nutzung ständig der Lüfter hochdreht. Wenn doch, sitzt das Problem vorm PC...


Naja, die Mobo-Hersteller stellen auch nur 08/15 Kurven ein. Aber stimmt, man kann das einfach ändern, dann dreht der Lüfter auch nciht so sinnlos hoch und runter.

w0mbat
2021-03-19, 14:55:18
Das Problem ist doch, Intel Systeme fühlen sich halt langsamer an. Die "Schwuppsität" ist schlechter. Die Ryzen takten sich sehr schnell hoch und liefern volle Power, Intel CPU brauchen gefühlt einiges an Anlauf.

Immer wenn ich am System von nem Kumpel sitze (8700K), merkt man, dass das System langsamer ist. Also nicht wirklich langsam, aber ein wenig so, wie wenn man von SSD auf HDD geht.

Ist halt immer noch das alte Skylake-Design, was nur ein optimierter Sandy Bridge ist. Mal sehen, vielleicht wird es mit .cove besser.

WedgeAntilles
2021-03-19, 14:58:46
Die CPUs und GPUs können mittlerweile im Idle und bei Niedriglast extrem sparsam sein, selbst die Flaggschiffe wie 6900xt kommen auf unter 10 Watt laut Reviews.
Aber nur solange du nur einen Bildschirm verwendest.
Sowie du 2 dran hast säuft AMD.

dildo4u
2021-03-19, 15:07:33
Das Problem ist doch, Intel Systeme fühlen sich halt langsamer an. Die "Schwuppsität" ist schlechter. Die Ryzen takten sich sehr schnell hoch und liefern volle Power, Intel CPU brauchen gefühlt einiges an Anlauf.

Immer wenn ich am System von nem Kumpel sitze (8700K), merkt man, dass das System langsamer ist. Also nicht wirklich langsam, aber ein wenig so, wie wenn man von SSD auf HDD geht.

Ist halt immer noch das alte Skylake-Design, was nur ein optimierter Sandy Bridge ist. Mal sehen, vielleicht wird es mit .cove besser.

Der 8700k hat sich was SC angeht nicht verbessert gegenüber 7700k, die neueren Intel haben aggressivere Boost Algorithmen.

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/55649-prozessor-non-grata-rocket-lake-s-als-core-i7-11700k-im-vorab-test.html?start=11

BlacKi
2021-03-19, 15:26:01
Das Problem ist doch, Intel Systeme fühlen sich halt langsamer an. Die "Schwuppsität" ist schlechter. Die Ryzen takten sich sehr schnell hoch und liefern volle Power, Intel CPU brauchen gefühlt einiges an Anlauf.

Immer wenn ich am System von nem Kumpel sitze (8700K), merkt man, dass das System langsamer ist. Also nicht wirklich langsam, aber ein wenig so, wie wenn man von SSD auf HDD geht.

Ist halt immer noch das alte Skylake-Design, was nur ein optimierter Sandy Bridge ist. Mal sehen, vielleicht wird es mit .cove besser.


ist halt die frage ob man das will. also das wenn ich den arbeitsplatz öffne, gleich 5ghz anliegen. dehalb auch der höhere verbrauch. das ist halt persönliche preferenz. falls einem der stromverbrauch komplett egal ist, kann man auch bei intel dauerhaft max boost einstellen. dann gibts bei intel auch den schwupsiditäts boost.



bei intel gibts auch den vorteil, den cpu boost per preset zu limitieren. das mach ich zb, beim minen, dann stelle ich die cpu auf 1ghz max, weil sonst die cpu bei geringer last fröhlich zwischen 2 und 3,8 ghz hin und herspringt. mit max 1 ghz bleibt der cpu verbrauch sehr niedrig, auf jedenfall niedriger als ohne limit.

DeadMeat
2021-03-19, 15:27:16
Beim 10900f zu 5800x gibt es zumindest keinen Unterschied bei der "Schwuppsität", wenn es das gibt dann wohl jetzt nicht mehr.

w0mbat
2021-03-19, 15:29:10
Naja, die Ryen takten sich dann auch extrem schnell wieder runter. Merkt man mMn halt schon positiv und die Ryzen CPUs sind ja sparsamer.

Nur manche lassen sich durch die krassen Temperatursprünge etwas abschrecken. Das Teil geht halt von 30C auf 80C in ner Sekunde, dann aber genau so schnell wieder runter :D

aufkrawall
2021-03-19, 15:30:44
Das Problem ist doch, Intel Systeme fühlen sich halt langsamer an. Die "Schwuppsität" ist schlechter. Die Ryzen takten sich sehr schnell hoch und liefern volle Power, Intel CPU brauchen gefühlt einiges an Anlauf.

Immer wenn ich am System von nem Kumpel sitze (8700K), merkt man, dass das System langsamer ist. Also nicht wirklich langsam, aber ein wenig so, wie wenn man von SSD auf HDD geht.

Ist halt immer noch das alte Skylake-Design, was nur ein optimierter Sandy Bridge ist. Mal sehen, vielleicht wird es mit .cove besser.
Das ist eine völlig schwachsinnige Verallgemeinerung, bei Bros 3600X vs. meine 6700k war es genau anders herum (meinte er auch selber).
Jetzt mit dem 5600X sieht es natürlich anders aus.

Cubitus
2021-03-19, 15:38:14
Der ganze Thread ist Comedy pur.


Bei 200+W wenn alle 20 Threads beschäftigt sind? Ansonsten... was genau ist jetzt so besonders an diesen 4,6Ghz Allcore? Das schafft der 5800X hier auch spielend sogar mit UV. Naja... immerhin bist du jetzt zufrieden.

Naja es sind 170 Watt ^^
Aber dennoch, wie oft lässt man Cinebench laufen?

Wie oft spielt man oder ist im Idle unterwegs?
Unter Strich sind die Intel CPUs nicht so effizient wie die AMD CPUs das ist definitiv richtig!

Nur beim Spielen und für daily Desktop Use, ist der Stromverbrauch beim Intel sogar nicht zwangsweise höher.
teilweise liegt er lt HW-Info sogar noch unter dem was sich mein 3900X genommen hatte (gut fairerweise muss man sagen, hat der ja auch 2 Kerne mehr)..

Aber 12 Threads waren für mein Use-Case too much..
Der 5800 wäre eine Option gewesen sicher....

Aber ja bin mit dem Intel-System sehr zufrieden, wirklich minimaler Aufwand bei Inbetriebnahme und mein schäbiger Speicher funktioniert genauso wie er auf der Packung beworben wird.

Bzw. ich konnte mit meinem 3900x leider nicht mal 4,2Ghz All-Core stable bekommen :(

Beim 10900f zu 5800x gibt es zumindest keinen Unterschied bei der "Schwuppsität", wenn es das gibt dann wohl jetzt nicht mehr.

Bei mir war es genau andersherum, also das Intel System fühlt sich für mich deutlich flüssiger an.
Gut mein System hatte ja den 3900x und lt vielen Beiträgen hier im Forum war mein PC eh komplett verritten :usad:

gnomi
2021-03-19, 15:47:49
Der 8700k hat sich was SC angeht nicht verbessert gegenüber 7700k, die neueren Intel haben aggressivere Boost Algorithmen.

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/55649-prozessor-non-grata-rocket-lake-s-als-core-i7-11700k-im-vorab-test.html?start=11

Dort steht, dass hinsichtlich IPC noch nachgetestet wird.
Finde das ohne Angleichung mit DDR Takt und MHz Frequenz jetzt nicht optimal.
9900k hat doch auch selbe IPC Power wie 8700k taktbereinigt AFAIK.
Gab da doch schon bessere Tests über die Generationen zu. :confused:

Ben Carter
2021-03-19, 15:54:21
Wenn man 4 oder mehr Threads hat und sich ein System im normalen Office + Internetbetrieb nicht absolut flüssig anfühlt, dann ist auch was im Argen. Ganz gleich ob AMD oder Intel. Entweder katastrophal konfiguriert oder - wahrscheinlicher - irgendwelche Mistsoftware am laufen.

DeadMeat
2021-03-19, 16:35:38
Bei mir war es genau andersherum, also das Intel System fühlt sich für mich deutlich flüssiger an.
Gut mein System hatte ja den 3900x und lt vielen Beiträgen hier im Forum war mein PC eh komplett verritten :usad:

Wie man hier im Forum sieht sind pauschale Aussagen auch nur schwer zu treffen bei so einer kleinen Nutzer menge. Unterschiedliche Kentnisse kommen eben verstärkt noch dazu.

Cruxx mit seinem -20% Handicap 5800er, die kaputten Whea Modelle siehe Dargo der ewig auf Fehlersuche war. Oder auch meinem 5800er der Problemlos lief, in jedem Punkt.

Ich hab den 10900f (+günstiges Z590) aus purerm Basteltrieb gekauft da ich ohnehin keine der neuen GPUs dieses Jahr kaufen werde und die 10er Reihe so Presiwert ist.
Der Unterschied ist wirklich denkbar gering, das Intel Board startet etwas schneller aber das wars dann auch schon beim normalen Betrieb.

Einzig das der Intel sich viel einfacher Kühlen lässt ist schon praktisch. (Im vergleich zum 5800x, alle anderen betrifft das nicht)
Bei mir läuft der im Spec spricht 65w PL1 ist aktiv, 45w bei Handbrake Encoding lässt sich halt vollkommen lautlos per Luft Kühlen. Das Z590 hatte übrigens Preset "4000w - Wasserkühlung" als Default ;D .
Bei 250w kam ich nichtmal auf die Temperaturen vom 5800x, nicht das es eine Rolle spielen würde da die Temperaturen innerhalb der Specs sind.
Keinen Lüfter in der nähe von 1000rpm zu haben ist ansich aber ganz nett.


Wenn keine Speziellen Anforderung vorliegen würde ich das Preiswertere empfehlen, es macht ansonsten halt keinen nennenswerten Unterschied zur Zeit. Sich an schlechte Erfahrungen zu klammern weil mal was nicht lief ist halt nicht clever, jeder hat Pech, siehe die WHEA Fehler Leute oder die Intel Lan Betroffenen.

Langlay
2021-03-19, 16:37:25
Aber nur solange du nur einen Bildschirm verwendest.
Sowie du 2 dran hast säuft AMD.

https://abload.de/img/amdxik8e.png

Ja, ich geh schonmal im Park Flaschen sammeln. die 7W im Idle kann ich sonst nicht finanzieren.

Savay
2021-03-19, 16:44:12
Hangt ja auch nur vom Framebuffer ab...wenn der in die 128MB passt und der IMC Idlen kann ist der Verbrauch phänomenal niedrig. Mit der Menge der Monitore hat das natürlich nichts zu tun.

2*UHD@60Hz+ passt aber definitv nicht mehr. ;)
Die Vega hat das aber bspw. in 15W gemacht dank des HBM. Der GDDR Controller ist einfach ein wenig versoffen.

Cubitus
2021-03-19, 18:34:43
https://abload.de/img/amdxik8e.png

Ja, ich geh schonmal im Park Flaschen sammeln. die 7W im Idle kann ich sonst nicht finanzieren.

Stell mal deinen Monitor auf 144hz falls möglich ;)

Opprobrium
2021-03-19, 18:51:10
Stell mal deinen Monitor auf 144hz falls möglich ;)

144Hz sind vor allem im Idle unverzichtbar ;D

aufkrawall
2021-03-19, 18:56:55
Sind sie auch, weil mehr als eine verfügbare Refreshrate unter Windows einen gigentischen Riss im Arsch bei der Auswahl in Spielen verursachen.
Wobei es auch bekloppt ist, wegen den vll. 25W an der Steckdose eine Grafikkarte mit entsprechenden Mehrverbrauch auszuschließen. Das lässt sich immer noch problemlos mit unhörbaren ~500rpm kühlen...

Birdman
2021-03-19, 19:21:31
Günstig, schneller als mein 3900x Stock bei Spielen, und sehr stromsparend und leise im Desktop, Verbrauch unter 15 Watt.
Na ja, Zen2 ist halt auch kein Vergleich - das ist im Bereich Spiele halt nunmal ein "Performancekrüppel" wenn mans mit der Intel Core Architektur oder Gott bewahre mit Zen3 vergleicht. (gerade in den Spielen in denen Zen3 auch einen RocketLake abzieht, ist Zen2 so weit hinten da sieht man den kleinen Balken am linken Bildrand gar nicht mehr...)

OCmylife
2021-03-19, 19:24:32
Bekommst jetzt Deinen Gutschein von Intel :wink:?

15 Watt idle klar. :rolleyes:

Hauptsache du bist so zufrieden, aber den Thread hättest Dir schenken können, wirklich Hilfe wolltest Du nicht, nur Bestätigung.

Sonst ist es auch in Ordnung, wenn gegen Intel oder Nvidia wegen irgendeinem Problem gebashed wird. Bei Missständen gegen ein System von AMD sollte man lieber die Klappe halten, eh klar. Das erinnert mich an die Diskussionen der Apple gegen die Android-Jünger vor einigen Jahren.
Gibt es Probleme, sollten es kein Problem sein, über diese auch reden zu dürfen. Egal welche Firma dahinter steckt. Hätte mir AMD eine 6900XT und 5900X zu einem vernünftigen Preis liefern können, hätte ich vielleicht die selben Probleme wie der Threadersteller gehabt. Bei Intels Plattform gibt es dafür einen hohen Verbrauch unter Volllast, genauso wie bei NV.

Jeder sollte das nutzen dürfen, mit dem er glücklich ist, ohne das einem gleich verboten wird über seine Erfahrungen zu berichten.

dargo
2021-03-19, 19:29:08
Jeder sollte das nutzen dürfen, mit dem er glücklich ist, ohne das einem gleich verboten wird über seine Erfahrungen zu berichten.
Erfahrungen ist das eine. Es als allgemeingültig hinzustellen das andere.

w0mbat
2021-03-19, 19:38:27
Vor allem nicht im AMD oder Intel Subforum, sondern im allgemeinen CPU-Forum und als "RANT". Dabeiist klar, dass das BS ist weil hier jeder zweite nen Ryzen-System hat und selber weiß, dass die wenn sogar besser laufen als Intel.

OCmylife
2021-03-19, 19:46:42
Erfahrungen ist das eine. Es als allgemeingültig hinzustellen das andere.

Das kann man so stehen lassen. Dennoch finde ich den Ton hier teilweise ganz schön harsch und man muss sich immer gleich an die Gurgel gehen, falls man mit der Meinung oder Erfahrung des anderen nicht übereinstimmt.
Und Dargo das war jetzt nicht gegen Dich sondern das ist mir im Forum hier schon häufiger aufgefallen.

MiamiNice
2021-03-19, 19:50:13
Vor allem nicht im AMD oder Intel Subforum, sondern im allgemeinen CPU-Forum und als "RANT". Dabeiist klar, dass das BS ist weil hier jeder zweite nen Ryzen-System hat und selber weiß, dass die wenn sogar besser laufen als Intel.

;D;D;D

w0mbat
2021-03-19, 21:55:49
Ist da jemand verbittert, weil er nen lahmen 9900K hat? ;)

aufkrawall
2021-03-19, 22:03:42
Da haben sich zwei auf ihrer ganz exklusiven Niveau-Stufe gefunden. (y)

Langlay
2021-03-19, 22:28:54
Doppelpost bitte löschen.

Langlay
2021-03-19, 22:31:00
Stell mal deinen Monitor auf 144hz falls möglich ;)

Der läuft auf 144Hz. Der 2. Monitor läuft allerdings nur mit 60Hz.

https://abload.de/img/amd0hjj1.png

MiamiNice
2021-03-19, 22:48:27
Ist da jemand verbittert, weil er nen lahmen 9900K hat? ;)

Ne, gerade belustigt weil Du mir Deinem 6 Kerner gegen meinen Intel stichelst :wink:

w0mbat
2021-03-19, 22:53:54
7nm ist doppelt so gut wie 14nm, solltest du wissen :P

-=Popeye=-
2021-03-19, 23:38:10
So ein Schwachsinn. :facepalm:

MiamiNice
2021-03-19, 23:49:53
7nm ist doppelt so gut wie 14nm, solltest du wissen :P

Deine 60 Watt vs. meine 250. Mehr ist immer besser, solltest Du wissen :P
Und überhaupt, ne 6800? Wo hasen die geshoppt? Toys "R" Us?!?

:biggrin:;D

-=Popeye=-
2021-03-20, 00:52:26
Dieser Beitrag ist übrigens auch Käse.

Badesalz
2021-03-20, 09:21:22
Es gibt wohl eine neue "Idee" der viralen Maulwürfe, mit welcher man jetzt die Schwachen und die Zombies mitzunehmen versucht und wie immer mit Marionetten auf bisschen Eigendynamik hofft: Man wechselt jetzt von schneller auf problemloser. Wie drollig.

Ich sag euch das merkt niemand. Niemand merkt das... :ulol:

x-force
2021-03-20, 09:23:04
hauptsache meine posts werden am ende hier als offtopic gelöscht ;D

Opprobrium
2021-03-20, 09:32:04
Es gibt wohl eine neue "Idee" der viralen Maulwürfe, mit welcher man jetzt die Schwachen und die Zombies mitzunehmen versucht und wie immer mit Marionetten auf bisschen Eigendynamik hofft: Man wechselt jetzt von schneller auf problemloser. Wie drollig.

Ich sag euch das merkt niemand. Niemand merkt das... :ulol:

Naja, der große, alles wettmachende Vorteil von Intel CPUs scheint diesem Thread zufolge die Tatsache zu sein, daß AMD GPUs im Idle mit mehreren 4K 144Hz Monitoren mehr Strom verbrauchen als nVidia GPUs ;)

Cubitus
2021-03-20, 09:35:31
Ja ist mir auch schon aufgefallen, wollte auf nen Comment von dir antworten und der war dann plötzlich weg :(


Es gibt wohl eine neue "Idee" der viralen Maulwürfe, mit welcher man jetzt die Schwachen und die Zombies mitzunehmen versucht und wie immer auf bisschen Eigendynamik hofft. Man wechselt jetzt von schneller auf problemloser. Wie drollig...

Ich warte immer noch auf mein Gutschein von Intel ;D

Naja, der große, alles wettmachende Vorteil von Intel CPUs scheint diesem Thread zufolge die Tatsache zu sein, daß AMD GPUs im Idle mit mehreren 4K 144Hz Monitoren mehr Strom verbrauchen als nVidia GPUs ;)

Das hat nix miteinander zu tun, bei den AMD-GPUs greifen die Low-Power Stromsparmechanismen nicht wenn man auf 144hz stellt..
Aber wie gesagt anderes Thema...

Badesalz
2021-03-20, 10:31:30
Ich warte immer noch auf mein Gutschein von Intel ;DDU? :rolleyes: Du sollst nur bezahlen. Das reicht :wink:

Gipsel
2021-03-20, 10:44:44
Offensichtlich geht es hier nicht anders zu als im Kindergarten.

Hier ist erstmal zu, damit ihr Euch beruhigt.