Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Rocket Lake (Core i-11000) Review-Thread
aufkrawall
2021-04-11, 22:30:16
du sagst bödsinn, aber bietest keine andere lösung an.
Was soll in dem Zusammenhang eine "Lösung" sein? Die Hardware-Stromsparmodi funktionierten bis zumindest Chiplet-Zen 2 einfach schlechter als bei Skylake, simple as that.
VooDoo7mx
2021-04-11, 23:46:16
Ich find das süß wie hier über idle Verbräuche diskutiert wird.
Ganz ehrlich gegen den Apple M1 stinkt doch auch Zen3 sowas von ab.
Das verbraucht der M1 in meinen MacBook Pro idle (nichts offen):
https://abload.de/img/bildschirmfoto2021-04rykp3.png
Hier Safari offen, 5 Tabs ein YouTube Video wird mit 1080p 30fps abgespielt:
https://abload.de/img/bildschirmfoto2021-048ejn1.png
In beiden Fällen war an das Macbook auch ein 27" UHD zusätzlich zum 2560x1600 Panel aktiv.Also Dual Display wo einige Grafikkarten gerne nochmal zig W extra saufen.
Ich mache meinen Windows PC nur noch zum spielen an. Alles andere macht die Apple Kiste. Nicht nur wegen Stromverbrauch, weil auch immer komplett passiv, nicht einmal spulen fiepen.
Fusion_Power
2021-04-11, 23:57:01
Du kannst in einem Intel-Thread doch nicht die M1 Karte ziehen! Das verstört nur die Leser und vor allem Intel selber! :freak:
Ben Carter
2021-04-12, 00:22:04
das ist race to idle. während intel sich kaum von den 800mhz löst, legt amd hier max clocks an. äussert sich oft im sägezahnlüftermodus, wenn man den nicht manuell konfiguriert.
Mal ehrlich, wann hast du das selbst das letzte Mal an einem AMD System gesehen? Ich kann das weder am R7 3700X noch am R9 5950X nachvollziehen (Anzeige im Ryzen Master). Beim Browsen geht der Takt hier und da mal auf 1,6 GHz hoch, aber das war es auch schon. Die Temperatur zuckt dabei kein Bisschen, obwohl die Lüfter und die Pumpe der AiO im idle nahe am Minimum laufen.
EDIT:
Hier läuft im Hintergrund sogar noch Black Desert.
https://i.imgur.com/kbNhvvW.png
BlacKi
2021-04-12, 00:24:50
@fusion
und total OT weil es nichtmal ein pc ist^^
Legendenkiller
2021-04-12, 17:01:58
waste of sand
Badesalz
2021-04-12, 17:08:50
Du kannst in einem Intel-Thread doch nicht die M1 Karte ziehen! Das verstört nur die Leser und vor allem Intel selber! :freak:Warum nicht? In einem Qnap vs. Synology Thread können doch auch Leute kommen und alle mit TrueNAS oder XigmaNAS (oder Unraid) vollsülzen. Ist doch ein legitim sachliches Verhalten... :uclap:
rentex
2021-04-12, 17:28:18
Mal ehrlich, wann hast du das selbst das letzte Mal an einem AMD System gesehen? Ich kann das weder am R7 3700X noch am R9 5950X nachvollziehen (Anzeige im Ryzen Master). Beim Browsen geht der Takt hier und da mal auf 1,6 GHz hoch, aber das war es auch schon. Die Temperatur zuckt dabei kein Bisschen, obwohl die Lüfter und die Pumpe der AiO im idle nahe am Minimum laufen.
EDIT:
Hier läuft im Hintergrund sogar noch Black Desert.
https://i.imgur.com/kbNhvvW.png
Solche Aussagen können nur Leute bringen, die sich nicht näher mit ZEN beschäftigt haben.
Dazu kommt ja noch, das der Takt nichts über die Last aussagt.
Es ist einfach AMD Bashing.
Badesalz
2021-04-12, 20:14:59
@rentex
Ich glaub du interpretierst da viel zu viel rein. Sie haben eine Teilahnung, von ihrem Microversum. Woher soll da die Kenne kommen?
Bashen ist, wenn man was trotz besseren Wissens alles so lange verdreht bis es vermeindlich zurecht gedreht ist. Das sehe ich hier nicht. Nirgendwo.
rentex
2021-04-13, 06:54:33
https://www.igorslab.de/intel-core-i9-11900k-leistungsaufnahme-und-vesteckte-lastspitzen-warnung-und-entwarnung/
Ebenfalls nicht berauschend.
BlacKi
2021-04-13, 12:05:05
Solche Aussagen können nur Leute bringen, die sich nicht näher mit ZEN beschäftigt haben.
Dazu kommt ja noch, das der Takt nichts über die Last aussagt.
Es ist einfach AMD Bashing.
bashing ist es, wenn ich es besser wüsste und absichtlich so was äussern würde.
tatsächlich habe ich meine infos nur aus dem netz und nur eine unterstellung. von daher, nice try.
ich würde sagen, das der unterschied wohl abhängig vom windows energieplan ist, warum der genannte ryzen beim browsen deutlich mehr zieht. gleichzeitig wird bei performance problemen empfohlen auf höchstleistung zu setzen, falls man mit dem eigenen energie plan oder balanced probleme hat.
das thema gibts bei intel schlichtweg nicht.
Ben Carter
2021-04-13, 12:19:20
;D
Bei Performance-Probleme mal auf Höchstleistung stellen, ist in etwa genauso ein generischer Tipp, wie "mal neustarten". Zu Anfangszeiten von Zen 2 scheint es hier und da ein paar Schwierigkeiten mit dem Windows Scheduler gegeben zu haben, welche auf das CCX Design zurückzuführen war. Aber das ist schon längst wieder Geschichte und bei Zen 3 gab es da gar nichts. Man muss auch nichts am Energiesparplan rumbasteln, es funktioniert einfach out of the box, genauso wie auch bei Intel.
rentex
2021-04-13, 12:23:38
@BlacKi Das macht es jetzt auch nicht besser ;-D
BlacKi
2021-04-13, 12:40:52
ich hab vor ein paar posts schonmal gefragt, ohne das eine lösung kam. ich hab zumindest mal eine these aufgestellt, die man dann ausschließen kann, falls falsch. und was passiert? ich werd hier schräg von der seite angekotzt. alles normal bei euch?
welche erklärung habt ihr denn dafür? wenn ihr jetzt fragt wofür, dann kringel ich mich auf dem boden;D
Zu Anfangszeiten von Zen 2 scheint es hier und da ein paar Schwierigkeiten mit dem Windows Scheduler gegeben zu haben, welche auf das CCX Design zurückzuführen war. Aber das ist schon längst wieder Geschichte und bei Zen 3 gab es da gar nichts. Man muss auch nichts am Energiesparplan rumbasteln, es funktioniert einfach out of the box, genauso wie auch bei Intel.
danke für die erläuterung. auch wenn er hier noch basteln muss mitte 2020. https://youtu.be/QA84hwqLUWs?t=18
wär das nicht auch normal gegangen ohne hier gleich von bashing zu reden?
und hast du eine erklärung für das ausgangsproblem?
Ben Carter
2021-04-13, 12:45:45
Ich hab eben die letzten Seiten durchgesehen, was hast du denn gefragt, wofür du keine Lösung bekommen hast?
Edit erst jetzt gesehen. Das Video kann ich mir bei der Arbeit nicht ansehen, erst am Abend.
BlacKi
2021-04-13, 12:46:03
Ich hab eben die letzten Seiten durchgesehen, was hast du denn gefragt, wofür du keine Lösung bekommen hast?;D
mich wunderts nicht, ist hier ja standard, ständig neue nebenkriegsschauplätze zu schaffen. diskreditierung anderer hat natürlich vorrang.
aber weil ich nicht so bin, hier:
70W klingt aber noch äusserst tief, wenn man sich die Peaks der Ryzens ansieht beim einfachen Surfen etc. (geht schnell mal bis bzw. über 100W).
Ben Carter
2021-04-13, 12:50:11
Aber link doch bitte auf den Post, worauf du keine Lösung bekommen hast und nur dumm angemacht wurdest.
Das einzige, worauf ich reagiert habe, waren Aussagen, die auf Zen 3 einfach nicht zutreffen, aber gerne mal gebetsmühlenartig von Leuten, die selbst keinen Zen 3 betreiben, wiederholt werden.
Edit War :D
---------
Bei dem Screen aus Ryzen Master, den ich gepostet habe, lieg ich konstant bei ~52W (schwankt zwischen 50W und 53W) bei einer CPU Auslastung von ca. 10%, da im Hintergrund eben noch ein Spiel läuft. Nur mit surfen peakt bei mir definitiv nichts und schon gar nicht bis 70W.
BlacKi
2021-04-13, 12:51:10
ich musste mich erstmal kringeln^^ weißt du, diskreditierung first^^ ist oben editiert.
Ben Carter
2021-04-13, 13:02:13
Also vielleicht nochmals zusammenfassend wegen der ganzen Edits.
Mein erster Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12649029#post12649029) zu dem Thema bezog sich auf die Äußerung, dass der Takt bei Zen 3 immer wieder auf max clock geht, was ich direkt davor auch zitiert habe, um zu verdeutlichen, auf welche Aussage ich mich beziehe. Weil das eben Unsinn ist.
Das mit den Peaks auf 70W kenne ich, wie eben geschrieben auch überhaupt nicht von meinen Systemen. Allgemein haben sich meine CPUs (9900k, 3700X, 5950X) nicht wirklich unterschiedlich im idle verhalten. Und keine der CPUs hat irgendeinen speziellen Energieplan bekommen oder sonst irgendwelche komischen Einstellungen. Und keine der CPUs hatte je Probleme die Leistung zu erbringen, wenn es notwendig war (1 (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12501936&postcount=55), 2 (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12584010&postcount=97)). Auch mit dem 1700X und 2700X hatte ich keine Probleme, allerdings liefen die nur unauffällig als Server und standen von mir nie wirklich unter Beobachtung (wie der 3700X, den ich allerdings während der Wartezeit auf Zen 3 eine Weile im Hauptsystem hatte).
Aus der Anfangszeit von Zen 2 kann ich mangels eigener Erfahrung leider nichts sagen. Ich hatte das erste Mal Anfang November 2020 einen Zen 2 selbst in Betrieb.
dildo4u
2021-04-13, 13:02:50
Ryzen stellt ständig neue Akku Rekorde für x86 auf das Ginge nicht wenn unnötige Takt/Spannungen genutzt werden.
https://youtu.be/kleUYxR6LqI?t=726
aufkrawall
2021-04-13, 13:04:38
Bei Zen 3 gibt es ja keinen spezifischen Energieplan mehr.
OS-Governor wie "ausbalanciert" sind aber immer Crap, das erhöht die Chance für verpasste Vblanks im Browser etc. Unter Linux sind die Governor sowieso der größte Mist.
Ob RKL mit dem Gear 1-Murks mit Höchstleistung aber überhaupt besser als Zen 3 ist, würd ich nicht als gesetzt sehen. Würde fast vom Gegenteil ausgehen, wenn beim Zen das Board mitspielt...
BlacKi
2021-04-13, 13:05:34
@ben danke für deinen sachlichen post und einblick, das ist leider nicht mehr selbstverständlich.
Ben Carter
2021-04-13, 13:12:31
Gerne, mir geht's ja auch nicht darum, irgendwelchen Leuten eines reinzudrücken, sondern einfach zu verhindern, dass falsche Fakten verbreitet werden - zumindest soweit möglich. Oder Irrtümer aufzeigen, wenn es System gibt, die Probleme machen, aber eigentlich nur, weil sie kaputt-"optimiert" sind.
Falls dich noch irgendwas spezifisches interessiert, ich kann Tests vom 2700X und 3700X auf B350 (da muss ich ggf. hin und her bauen) oder 5950X auf Z570 oder i7 9750H im Laptop anbieten. Wobei letzterer sich wirklich etwas eigenartig verhält, aber da hab ich die XMG Software im Visier. Da muss ich mir mal die Mühe machen, das System neu aufzusetzen.
Ansonsten ist es mir auch vollkommen egal ob AMD oder Intel. Sind beides nur Firmen. Wenn ein Produkt gut ist, mag ich es, wenn eines Fehler hat, dann ist das so. Z.B. die vermehrten Blue Screens zu Beginn mit Zen 3 ist etwas, das durchaus nicht verschwiegen werden sollte, auch wenn der Austausch immer ohne Probleme klappte, soweit ich es gehört habe.
aufkrawall
2021-04-13, 13:16:09
Habe gerade unter Linux eine Zoom-Session in Firefox am laufen: Mit intel_pstate powersave governor 16W Package-Verbrauch, mit performance 25W. Mit Skylake war da in meinen Tests fast nie ein nennenswerter Unterschied, im Positiven. :freak:
Ben Carter
2021-04-13, 18:44:52
So, zu Abschluss noch mal richtiges idle. Browsen, Discord, Spotify
https://i.imgur.com/b3RX2uo.png
Temperatur schwankt zwischen 44°C und 49°C.
Takt bleibt unter 1300 MHz. CPU Wattage <= 15W, SoC <= 20W.
Da ich glaube (aber nicht sicher weiß), dass der SoC-Verbrauch auch mit dem Speicher zusammenhängt: 4x Dual Rank.
lg Ben
SKYNET
2021-04-14, 13:04:47
dumdidum.... und da sagt wer grakas verbrauchen viel :ulol:
https://www.igorslab.de/intel-core-i9-11900k-leistungsaufnahme-und-vesteckte-lastspitzen-warnung-und-entwarnung/
Twodee
2021-04-14, 13:06:56
dumdidum.... und da sagt wer grakas verbrauchen viel :ulol:
https://www.igorslab.de/intel-core-i9-11900k-leistungsaufnahme-und-vesteckte-lastspitzen-warnung-und-entwarnung/
wurde schon auf der vorherigen Seite gepostet....
r3ptil3
2021-04-14, 13:13:59
Bevor ich wieder angefeindet werde, weil ich irgendetwas aus neutraler Sicht bewerte und daraus noch hitzige Diskussionen entstehen, poste ich folgendes einfach kommentarlos hierhin:
(übrigens genau das Gleiche auch damals im Ryzen Thread...)
https://i.ibb.co/mRLMcPr/1.png
https://i.ibb.co/JyBQbTG/2.png
https://i.ibb.co/CMRYQ7S/3.png
https://i.ibb.co/DtvSNmf/4.png
https://www.computerbase.de/2021-04/intel-core-i5-11400f-test/
SKYNET
2021-04-14, 13:22:18
tjo, das was man bei der CPU einspart an geld, muss man mehr ins NT & kühler investieren... aber die CPU ist ja billiger als nen 5600X :ulol: X-D
arcanum
2021-04-14, 13:36:17
rocket lake ist definitiv die falsche cpu für leute die mit offenem tdp limit den ganzen tag CB benches und prime95 laufen lassen.
Undertaker
2021-04-14, 13:40:39
Ein 160€ geringerer Kaufpreis gegenüber einem in Spielen ~10% schnelleren 5600X sieht auch bei 20€ mehr für Netzteil und Kühler noch extrem attraktiv aus. :) 5600X und 11600K haben bei objektiver Betrachtung keine Daseinsberechtigung mehr, wer ist so blöd und greift da noch zu. :freak:
r3ptil3
2021-04-14, 14:11:25
Ein 160€ geringerer Kaufpreis gegenüber einem in Spielen ~10% schnelleren 5600X sieht auch bei 20€ mehr für Netzteil und Kühler noch extrem attraktiv aus. :) 5600X und 11600K haben bei objektiver Betrachtung keine Daseinsberechtigung mehr, wer ist so blöd und greift da noch zu. :freak:
Wer keine Kompromisse eingehen will kauft einen 5600X.
Als Empfehlung ist der 11400f definitiv einen Blick Wert, jedoch zwingend nur innerhalb der vorgesehenen Spezifikationen nutzbar.
Für ein ITX Case, aufgrund der sehr guten Temps, sogar vorteilhaft.
Aber für mich ist die Generation nichts, da muss schnellstens Alder Lake her.
dildo4u
2021-04-14, 14:54:14
Jetzt ist die Frage warum nur RL mit 3733 Ram gebencht wurde?
Die Kombo macht sowieso kein Sinn was Preis/Leistung angeht.
Undertaker
2021-04-14, 15:09:34
Wer keine Kompromisse eingehen will kauft einen 5600X.
Wer keine Kompromisse eingehen will, kauft heute keinen 6-Kerner mehr und damit auch keinen 5600X oder 11600K. Reicht das Budget für den 5800X nicht, gibt es in der 300€-Preisklasse den 11700F mit nahezu identischer ST-Performance, deutlich höherer MT-Performance und besserer Zukunftssicherheit.
aufkrawall
2021-04-14, 15:21:51
Als Empfehlung ist der 11400f definitiv einen Blick Wert, jedoch zwingend nur innerhalb der vorgesehenen Spezifikationen nutzbar.
Wieso das denn? :freak:
r3ptil3
2021-04-14, 15:41:48
Wieso das denn? :freak:
Weil du mit offenen Limits extreme Lastspitzen erzeugen könntest, welche im schlimmsten Fall gar Systemabstürze hervorrufen.
Und bitte nicht mit komischen Sachen Argumentieren wie 700W+ Netzteil vorausgesetzt. Jemand der einen 11400f kauft, hat in der Regel ein 400-600W Netzteil.
Wir reden hier von 250W+ für eine 65W CPU bei offenen Limits und Worst Case Szenario.
@Undertaker
Ging eigentlich um die 6-Cores und ein 5600X ist einem 11700f in Spielen praktisch durchgehend überlegen.
Lass mal einen 5600X mit offenen Limits laufen, welcher immer noch weniger als die Hälfte als des 11700f (auch mit offenen Limits) zieht und in Spielen uneinholbar vorne liegt.
Zukunftssicherheit... längst bekannt, dass keine 8-Kern CPU der aktuellen Generation, mit einem 6 Kerner der nächsten Generation mithalten kann.
Alles über 6 Kerne in Games bringt auch heute praktisch nichts und wenn du das anders siehst, zeig es (und damit meine ich keine Benchmarks in 640x480).
Linmoum
2021-04-14, 15:45:11
Wer keine Kompromisse eingehen will, kauft heute keinen 6-Kerner mehr und damit auch keinen 5600X oder 11600K. Reicht das Budget für den 5800X nicht, gibt es in der 300€-Preisklasse den 11700F mit nahezu identischer ST-Performance, deutlich höherer MT-Performance und besserer Zukunftssicherheit.Welche deutlich höhere MT-Leistung? Der 10700K liegt gerade einmal 7% vor dem 5600X. Wenn 10400F = 11400F innerhalb der offiziellen Limits auch für 10700 und 11700 gelten (und die non-K logischerweise immer langsamer sind), dann wird der 11700F maximal 5600X-Performance erreichen. Wenn er nicht sogar noch härter eingebremst wird.
Es sei denn, man lässt ihn saufen. Sieht man ja beim 11400F.
aufkrawall
2021-04-14, 15:49:36
Prime95 ist kein realer Worst Case, sondern ein Synthie. Den 11400 auf die 65W zu verkrüppeln, ist trotzdem eine unsinnige Leistungsbremse. Die realen MT-Tasks mit hohem Stromverbrauch ziehen mit Gear 1 + RAM-OC 90-120W Package. Die kann man ihm geben, ohne dass die Welt unter geht...
rentex
2021-04-14, 16:03:32
Lustig wie hier RKL, als rundes Produkt angepriesen wird.
aufkrawall
2021-04-14, 16:04:11
Unlustig, wie du wiederholt ignorante Einzeiler ablässt, die nichts zum Thema beitragen.
Auch witzig, wer sich hier über Effizienz mokiert, aber eine RTX 3090 in der Signatur hat. :freak:
The Heuchelei is strong in this one...
Twodee
2021-04-14, 16:08:12
Weil du mit offenen Limits extreme Lastspitzen erzeugen könntest, welche im schlimmsten Fall gar Systemabstürze hervorrufen.
Und bitte nicht mit komischen Sachen Argumentieren wie 700W+ Netzteil vorausgesetzt. Jemand der einen 11400f kauft, hat in der Regel ein 400-600W Netzteil.
Wir reden hier von 250W+ für eine 65W CPU bei offenen Limits und Worst Case Szenario.
Diese "Lastspitzen" liegen aber immer nur wenige Millisekunden an. Nicht umsonst haben NT's dicke Elkos verbaut, diese "glätten" diese Spitzen bis zu einem gewissen Punkt.
Linmoum
2021-04-14, 16:09:00
Prime95 ist kein realer Worst Case, sondern ein Synthie. Den 11400 auf die 65W zu verkrüppeln, ist trotzdem eine unsinnige Leistungsbremse. Die realen MT-Tasks mit hohem Stromverbrauch ziehen mit Gear 1 + RAM-OC 90-120W Package. Die kann man ihm geben, ohne dass die Welt unter geht...Es ging auch nicht um Prime. Und was sind reale MT-Tasks? Offene Limits + Gear1 und das Delta in CB zwischen Idle/Full Load liegt bei 150W laut TPU.
aufkrawall
2021-04-14, 16:19:03
Es ging auch nicht um Prime.
Ich meinte das auf bardh bezogen:
Weil du mit offenen Limits extreme Lastspitzen erzeugen könntest, welche im schlimmsten Fall gar Systemabstürze hervorrufen.
Und bitte nicht mit komischen Sachen Argumentieren wie 700W+ Netzteil vorausgesetzt. Jemand der einen 11400f kauft, hat in der Regel ein 400-600W Netzteil.
Wir reden hier von 250W+ für eine 65W CPU bei offenen Limits und Worst Case Szenario.
Und was sind reale MT-Tasks? Offene Limits + Gear1 und das Delta in CB zwischen Idle/Full Load liegt bei 150W laut TPU.
Etwa CB MT. Wobei ich aber auch vor einigen Seiten schon GCC genannt hatte, das ist laut gedrosseltem Takt noch schlimmer (3,8 vs. 3,6GHz bei 95W Limit).
Ungedrosselt zieht GCC laut Package-Sensor ~113W. Ich war auch schon auf TPUs Werte eingegangen, inkls. abfotografiertem Wattmeter.
Anyhow, 115W Package sind problemlos und günstig zu kühlen und für jedes halbwegs taugliche NT kein Problem.
Savay
2021-04-14, 16:32:21
Probiert mal DeepPrime aus. ;)
Härteste Realworld Workload der mir bisher untergekommen ist, zumal hier intermittierend GPU und CPU wirklich (kurzzeitig parallel) bis an die 100% Auslastung und in die limiter peaken.
Und ja...das triggert die OCP bei nem grenzwertigen NT in nem Batch nahezu sofort wenn man mit den Powerlimits zu großzügig ist, selbst wenn es beim sonstigen Betrieb nicht oder fast nie auffällt.
Das Spielchen hab ich hier mittlerweile mehrfach durch weshalb ich in den letzten Jahren erst von 500 auf 650W (mit Vega64 & 2700X) und jetzt auf 1000W (mit Stock 6900XT&5950X - eigentlich geplant 850) gegangen bin. (Keine Chinaböller!)
Spaß machen OCP bedingte crashes jedenfalls nicht, vor allem wenn man womöglich noch die Limits bis zur kotzgrenze aufreißt
Und da sollte man dann wenn man keinen realen Workload hat der die Belastung gut simulieren kann das durchaus besser mit irgendwelchen Synthies einmal durchtesten. (am besten mehrere)
Es kann nämlich durchaus sein, dass es in der einen Situation nie auffällt und dann plötzlich mit nem anderen Workload/Spiel oder whatever doch auf einmal ein "Problem" ist.
rentex
2021-04-14, 16:40:45
Unlustig, wie du wiederholt ignorante Einzeiler ablässt, die nichts zum Thema beitragen.
Auch witzig, wer sich hier über Effizienz mokiert, aber eine RTX 3090 in der Signatur hat. :freak:
The Heuchelei is strong in this one...
Ja ja...geh weinen.
aufkrawall
2021-04-14, 16:40:59
Geht dann die Welt unter, wenn man das in die Drosselung laufen lässt? ;)
Ich predige btw. schon seit Jahren, dass Geiz bei PSUs völlig idiotisch ist und sich irgendwann immer rächt. Für wen Workstation-Leistung derart wichtig ist, wird sich aber ohnehin nicht mit 6C/8C zufrieden geben. Die Zielgruppe für RKL ist eher Gaming + etwas nebenher, nicht Numbercrunching + etwas Gaming. Für Letzteres tat es schon Zen 2 prächtig.
Ja ja...geh weinen.
Wieso? Ich hab mein Geld ja nicht das Klo runtergespült. Habe für 130€ geupgradet, worauf nochmal besserer Wiederverkaufswert als für die alte Hardware kommt. Günstig, schnell und leise. :cool:
Savay
2021-04-14, 17:05:09
Geht dann die Welt unter, wenn man das in die Drosselung laufen lässt? ;)
Nö. ;)
Sollte man nur durchaus auch mal vermehrt drauf hinweisen.
Grade und nicht zuletzt auch weil opportunistische Boost Algorithmen ja langsam auch bei Intel ein Ding werden. (Und da RKL ohne Limits halt schon echt vglw. hart saufen kann...nicht muss...aber kann. :whistle:)
Dadurch werden Lastspitzen auch durchaus etwas unkalkulierbarer als sie eh schon sind.
Die Zielgruppe für RKL ist eher Gaming + etwas nebenher, nicht Numbercrunching + etwas Gaming. Für Letzteres tat es schon Zen 2 prächtig.
Wie gesagt...das ist ein Problem das dich auch bei Games kalt erwischen kann.
Die lasten die HW ja nicht alle gleich aus.
Der Anteil der GPU Last ist da zwar vglw. gut einschätzbar vor allem im GPU Limit, aber wenn du mit ner zusätzlich komplett offenen CPU spielst würde ich nicht garantieren wollen, dass du mit nem beliebigen Game einfach den Worst Case erwischen wirst und das nicht irgendwann doch in einem neueren Titel zum Problem werden könnte.
Ich hatte auch schon Spiele die mit dem 500W NT super liefen, dann kam nen Treiber der die Auslastung erhöht hat und plötzlich fing an sporadisch die OCP zu triggern.
Super nervig, grade weil Games meist sehr unregelmäßig in die absoluten Lastspitzen spiken.
Schnoesel
2021-04-14, 21:55:04
Der 11400 (f/k/xy) ist definitv einen Blick wert, wenn man performant und günstig unterwegs sein will (Gaming) und das ist auch gut so. AMD kann einfach auch gar nicht diesen Markt und die Nachfrage bedienen und belässt es bei den hochpreisigen Produkten. Mag nicht jedem gefallen macht aus ihrer Perspektive aber einfach Sinn. Diesmal muss eben Intel über den Preis kommen, denn ganz oben können sie nicht mitspielen. Man wünscht sich fast Intel wäre einen ähnlichen Weg gegangen wie AMD bei den GPUs (Navi1) und hätte nur die Mittelklasse released (anstatt so einen Witz wie den 11900k) aber da war wohl der Stolz im Weg.
Marscel
2021-04-14, 22:21:11
Der 11400 (f/k/xy) ist definitv einen Blick wert, wenn man performant und günstig unterwegs sein will (Gaming) und das ist auch gut so. AMD kann einfach auch gar nicht diesen Markt und die Nachfrage bedienen und belässt es bei den hochpreisigen Produkten. Mag nicht jedem gefallen macht aus ihrer Perspektive aber einfach Sinn. Diesmal muss eben Intel über den Preis kommen, denn ganz oben können sie nicht mitspielen. Man wünscht sich fast Intel wäre einen ähnlichen Weg gegangen wie AMD bei den GPUs (Navi1) und hätte nur die Mittelklasse released (anstatt so einen Witz wie den 11900k) aber da war wohl der Stolz im Weg.
Hab ich heute auch gesehen. Nach all dem Terz mit AMD (Stabilität, USB) stand jetzt bei Intel für mich im Weg, dass es z. B. kein Pendant, preislich wie leistungsfähig, zum 5/3600 gab. Aber der 11400 könnte das jetzt wirklich drehen.
Der 11400 und B560. Bei den Boards ist Intel bislang abgestunken.
Thunder99
2021-04-15, 10:09:39
Der 11400 ist nur stark ohne Fesseln. Intel erkauft sich die Performance vor allem durch eine höheren Energieverbrauch.
Und ja, leider hat AMD kein Angebot in der Preisklasse bzw in der Performance. Es fehlen 5600 und darunter mit Zen 3 Technik.
Intel kann wohl auch den Vorteil der eigenen Fertigung nutzen, sofern die Zulieferung vom Material gewährleistet wird.
Die Probleme bei AMD werden aber derzeit (hoffentlich komplett) gelöst und sind daher auch wieder stabil. Hab als Vergleich keine USB Probleme auf einem X570 und 3600.
robbitop
2021-04-15, 10:18:52
Ich stelle mal eine kritische Frage: Ist der Energieverbrauch, der außerhalb von Powerviren (also in Games und normalen Anwendungen), wirklich so viel höher? Wie viel macht das an der Gesamtstromrechnung schon aus?
Wie viele Jahre bräuchte man, um mit den Ersparnissen der Stromrechnung die Differenz zwischen 11400 und 5600X zusammenzusparen?
IMO, solange sich die Differenz in Grenzen hält, ist das eine Schattendiskussion.
aufkrawall
2021-04-15, 10:25:12
Ich stelle mal eine kritische Frage: Ist der Energieverbrauch, der außerhalb von Powerviren (also in Games und normalen Anwendungen), wirklich so viel höher?
Da wird es je nach Kern-Auslastung natürlich deutliche Unterschiede geben. Im Schnitt in Spielen scheint das laut Package Power-Sensor so in etwa auf ~15W beim getunten 11400F vs. 5600X mit RAM-OC/Tuning hinaus zu laufen.
robbitop
2021-04-15, 10:47:08
Das wären so um die 30 kWh im Jahr (8h zocken pro Tag; 5 Tage die Woche). Also knappe 10 €.
Es braucht also ~15 Jahre die Preisdifferenz zurück zu verdienen. Ich würde sagen, der Einfluss der Energieverbrauchsdifferenz ist nicht groß genug, um den Preisunterschied wett zu machen.
IMO ist der 11400 schon ein attraktives P/L Produkt für Gamer die nicht die letzten 10% zum absoluten High End unbedingt brauchen. Das kann man nicht bestreiten.
Lehdro
2021-04-15, 11:36:08
Das fand ich ja richtig autsch (https://www.computerbase.de/2021-04/intel-core-i5-11400f-test/2/#diagramm-total-war-troy-1280-720-bildpunkte):
In der Vergangenheit war bei kleinen CPUs das feste Powerlimit, sofern gewählt, in Spielen nicht bemerkbar, denn „dank“ niedriger Auslastung konnte der Prozessor den maximalen Takt auch in den engeren Grenzen voll ausfahren. Doch beim neuen Prozessor ist das anders. Denn wenn dieser schon in Anwendungen fast 40 Watt mehr verbraucht als ein Vorgänger, kann sich das in fordernden Spielen auch bemerkbar machen.
Am deutlichsten sichtbar ist es in Total War, einem echten „CPU-Fresser“. Hier verliert der Core i5-11400F mit vollem Powerlimit in 720p- und auch 1080p-Auflösung 7 FPS und viele ms bei den Frametimes, was bei einem Ausgangswert von 54 FPS direkt 15 Prozent ausmacht. In keinem anderen Spiel ist es so deutlich ausgeprägt. Doch das Fazit ist klar: Der Core i5-11400F verliert mit Powerlimit-Referenzvorgaben erstmals auch in extrem CPU-lastigen Titeln deutlich, im Durchschnitt sind es 5 Prozent.
Und das gerade in dem Bereich wo man eigentlich hinmöchte: ~60 FPS. Wäre natürlich noch schön zu wissen gewesen, wie hoch der Realverbrauch in dem Game denn wirklich ist, um das entsprechene Limit richtig setzen zu können. Aber bitter ist das schon irgendwie, solche Games wird es ja auch weiterhin geben, sogar eher mehr davon und vielleicht sogar noch CPU-intensiver.
Geächteter
2021-04-15, 11:40:47
Das wären so um die 30 kWh im Jahr (8h zocken pro Tag; 5 Tage die Woche). Also knappe 10 €.
Zudem haben die Zen-Plattformen meist noch einen höheren Grundlastverbrauch, der die Vorteile der extrem sparsamen Kerne bei hoher und Volllast wieder bisschen schmälert. Im Prinzip aktuell keine optimale Zeit für Desktop-User, die dank Knappheiten, Kosten und mieser Yields quasi von beiden Vendors (teilweise) altes Silizium vorgesetzt bekommen statt (komplett) state of the art.
aufkrawall
2021-04-15, 11:44:56
Mal ein eher fieses Beispiel: Legion mit ~80fps (3467 Gear 1):
https://abload.de/thumb/watchdogslegion_2021_r5kjr.jpg (https://abload.de/image.php?img=watchdogslegion_2021_r5kjr.jpg)
80W sind schon Strom. Wenn ich dazu aber die Drehzahl vom 5€-Lüfter am 30€-Kühler sehe, muss ich bei der Debatte nur noch lachen. So etwas weltfremdes, sorry. ;D
Badesalz
2021-04-15, 11:46:30
Ich stelle mal eine kritische Frage: Ist der Energieverbrauch, der außerhalb von Powerviren (also in Games und normalen Anwendungen), wirklich so viel höher?Ist ein Thema. Check. Jetzt kommt die große Frage:
CPUs wegen Gaming werden mit 720 und GFX auf Min. getestet, weil man will die Graka aus der Rechnung raushalten. und dann werden auch die Watts gemessen.
UND DANN schalten die Leute die Kiste zuhause ein und fahren FHD mit allem was geht oder eben 1440 und mehr, mit GFX was halt so geht bevor die FPS zu tief werden.
Und schauen wieviel mehr FPS sie durch die neue CPU bekommen... Schauen aber nicht mehr was das Ding NUN aus dem Netzteil zieht.
Deine "Schattendiskussion", der Schatten davon, ist wesentlich Größer als du eigentlich andeuten wolltest :uup:
p.s.:
CB fällt übrigens echt nichts ein womit man Single messen könnte und sie nehmen CB und Povray dafür?
Lehdro
2021-04-15, 11:47:31
Zudem haben die Zen-Plattformen meist noch einen höheren Grundlastverbrauch, der die Vorteile der extrem sparsamen Kerne bei hoher und Volllast wieder bisschen schmälern.
Der CB Test zeigt zumindest für den RKL eher ein Gleichauf (https://www.computerbase.de/2021-04/intel-core-i5-11400f-test/3/#abschnitt_mit_limits_kann_rocket_lake_auch_stromsparend_sein), wenn man von RAM OC beim RKL ausgeht. Mit B550 bei Zen 3 (https://www.computerbase.de/2020-11/amd-ryzen-5000-test/6/#abschnitt_leistungsaufnahme_von_leerlauf_bis_volllast) wird es aber direkt noch einmal viel effizienter im idle.
Von daher wäre ich vorsichtig mit solchen veralteten Generalisierungen. Das Board (Z590/B560, X570/B550) und die Konfiguration (RAM OC?) spielen mittlerweile die größte Rolle, nicht die CPU an sich.
Geächteter
2021-04-15, 12:10:01
Der CB Test zeigt zumindest für den RKL eher ein Gleichauf (https://www.computerbase.de/2021-04/intel-core-i5-11400f-test/3/#abschnitt_mit_limits_kann_rocket_lake_auch_stromsparend_sein), wenn man von RAM OC beim
Ja, RKL lässt wohl grundsätzlich paar Watt zusätzlich fliegen, ohne dass Mehrleistung rumkommt. Aber dafür hat man jetzt das checklist feature PCIe 4.0.
aufkrawall
2021-04-15, 12:27:31
Ja, RKL lässt wohl grundsätzlich paar Watt zusätzlich fliegen, ohne dass Mehrleistung rumkommt. Aber dafür hat man jetzt das checklist feature PCIe 4.0.
Das braucht man übrigens mindestens bei einigen (allen?) Boards, damit der PCIe 4.0 NVMe-Anschluss überhaupt genutzt werden kann. Mit CML schaut man dann in die Röhre.
BlacKi
2021-04-15, 12:34:46
Das wären so um die 30 kWh im Jahr (8h zocken pro Tag; 5 Tage die Woche). Also knappe 10 €.
Es braucht also ~15 Jahre die Preisdifferenz zurück zu verdienen. Ich würde sagen, der Einfluss der Energieverbrauchsdifferenz ist nicht groß genug, um den Preisunterschied wett zu machen.
IMO ist der 11400 schon ein attraktives P/L Produkt für Gamer die nicht die letzten 10% zum absoluten High End unbedingt brauchen. Das kann man nicht bestreiten.
das ist es was viele nicht verstehen wollen, bei grafikkarten ist die diskussion um effizienz eine ganz andere, weil dort der mehrverbrauch erheblich größer ist/war.
wenn eine cpu 10-20w in gaming mehr frist und dann die leute mit der effizienz kommen, kann ich mich nur;D
y33H@
2021-04-15, 12:53:58
Ich hab mal alle 14 nm Modelle verglichen:
https://scr3.golem.de/screenshots/2104/Intel-14-nm-Games/thumb620/Games-Stacking-14nm.png
https://scr3.golem.de/screenshots/2104/Intel-14-nm-Apps/thumb620/Apps-Stacking-14nm.png
https://www.golem.de/news/core-i7-i9-generationen-im-test-was-intel-aus-14-nm-herausgeholt-hat-2104-155714.html
Dr.Doom
2021-04-15, 13:05:05
Sind die Zahlen Stück, Kilogramm oder Payback-Punkte?
y33H@
2021-04-15, 13:07:34
Normiert ... die eigentlichen Werte sind Fps, Zeit, Rays etc.
Mit einem 8700K braucht man also für Gaming immer noch nicht aufrüsten und kann auf DDR5 warten.
Lehdro
2021-04-15, 13:30:44
Ich hab mal alle 14 nm Modelle verglichen:
Geil, danke!
Da sieht man mal wieder was Skylake eigentlich für eine Gurke war im Gaming. Selbst KBL ist teilweise kaum besser, mit CFL wurde aber direkt die Bremse gelöst.
Geil, danke!
Da sieht man mal wieder was Skylake eigentlich für eine Gurke war im Gaming. Selbst KBL ist teilweise kaum besser, mit CFL wurde aber direkt die Bremse gelöst.
Ja denk mal nach, mehr Kerne mehr Strom etc...:freak:
aufkrawall
2021-04-15, 13:46:45
Da sieht man mal wieder was Skylake eigentlich für eine Gurke war im Gaming.
Wenn Skylake eine Gurke im Gaming war, müssen Zen 1/+ durch Relation dazu kompletter Schrott gewesen sein. Also manchmal... :freak:
@Lehdro, musst schon das ganze sehen. Also nix Bremse...:facepalm:
Was passiert nach KL? Richtig die Kern Kriege beginnen...ansonsten noch TAU PL2 betrachten...
i7-5775C i7-6700K i7-7700K i7-8700K i9-9900K i9-10900K i9-11900K
Codename Broadwell Skylake Kaby Lake Coffee Lake Coffee Lake R Comet Lake Rocket Lake
Fertigung 14 nm 14 nm 14+ nm 14++ nm 14++ nm 14+++ nm 14++++ nm
Die-Size* ~170 mm² ~120 mm² ~130 mm² ~150 mm² ~180 mm² ~200 mm² ~270 mm²
μArch Broadwell Skylake Kaby Lake Kaby Lake Kaby Lake Kaby Lake Cypress Cove
CPU-Kerne 4 + SMT 4 + SMT 4 + SMT 6 + SMT 8 + SMT 10 + SMT 8 + SMT
Takt 3,3 bis 3,7 GHz 4,0 bis 4,2 GHz 4,2 bis 4,5 GHz 3,7 bis 4,7 GHz 3,6 bis 5,0 GHz 3,7 bis 5,3 GHz 3,5 bis 5,3 GHz
L3-Cache 6 MByte 8 MByte 8 MByte 12 MByte 16 MByte 20 MByte 16 MByte
Grafik GT3e, Gen8 GT2, Gen9 GT2, Gen9.5 GT2, Gen9.5 GT2, Gen9.5 GT2, Gen9.5 GT2, Gen12 (Xe)
Speicher DDR3-1600 DDR4-2133 DDR4-2400 DDR4-2666 DDR4-2933 DDR4-2933 DDR4-3200
TDP (PL1) 65 Watt 91 Watt 91 Watt 95 Watt 95 Watt 125 Watt 125 Watt
PL2, TAU 81W, 28 sec 114W, 28 sec 114W, 28 sec 119W, 28 sec 119W, 28 sec 250W, 56 sec 251W, 56 sec
Ex3cut3r
2021-04-15, 14:41:42
Ja, und warum kamen mit CL dann plötzlich mehr als 4C im Mainstream an? Na, weil Ryzen 1 kam....Konkurrenz ist immer für uns gut.
Lehdro
2021-04-15, 14:44:47
Ja denk mal nach, mehr Kerne mehr Strom etc...:freak:
Die Kernskalierung ist dann aber relativ unterdurchschnittlich im Schnitt, wenn man sich anschaut wie z.B. Total War skaliert. GTA 5 sollte so zum Beispiel kaum über 4/6 Kerne hinaus skalieren. Und verbrauchsmäßig ist die größte Eskalation erst mit CML zu finden, kann also auch nicht die einzige Ausrede sein. Es ist halt nur so, dass erst mit CFL wirklich wieder etwas gemacht wurde, KBL ist eben nur SKL mit mehr Takt - was halt sehr traurig gegenüber BDW aussieht in den Gamingbenches.
Wenn Skylake eine Gurke im Gaming war, müssen Zen 1/+ durch Relation dazu kompletter Schrott gewesen sein. Also manchmal... :freak:
Natürlich in Relation zu BDW. Sollte dir aber klar sein, schließlich ist das dort die Referenz mit 100%... :freak:
Was hat AMD übrigens damit zu tun? Ist Intel ohne AMD zu doof? Oder ist es nicht viel eher jemand der SKL und KBL als "gut genug" befindet, selbst wenn die Steigerung von BDW aus lächerlich war? Warum muss AMD herhalten wenn Intel Probleme hat sich zu verbessern? Baut AMD jetzt Intels CPUs? Oder ist das halt die bequeme Ausrede dafür, dass das ja so reicht, weil es der Pöbel, ah Entschuldigung, die Kundschaft, frisst?
Wenn dass die Aussage ist die ich daraus ziehen soll, dann kann man Intel für nichts danken, ist ja alles AMDs Schuld/Verdienst.
Intel CPU schlecht = AMD Schuld, die sind noch schlechter, reicht also.
Intel CPU gut = AMD ist zu danken, Wettbewerb!
Aber AMD CPU schlecht = AMD Schuld?
Ergo: Intel kann und will nix, außer Geld verdienen. Oh, welch Erkenntnis.
Dann fassen sich dann hier aber lieber mal alle KBL und SKL Jubelperser selbst an die Nase, warum dass denn so ist. Aber nee, könnte ja die eigene überlegene Position als Intelverteidiger gefährden. SKL ist objektiv im Gaming eine Gurke gegenüber BDW - wer was anderes sagt, ist im erweiterten Sinne Schuld daran dass das so war. Denn wer sich mit so etwas vom Technologieführer zufrieden gibt, hat es auch nicht besser verdient, als als Melkvieh dem man alles verkaufen kann angesehen zu werden. Der eigene Anspruch und so...
@Lehdro, musst schon das ganze sehen.
Habe ich, aber ich rede es halt nicht schön, anders als ihr. Weil es das halt einfach nicht ist. Im Schnitt wurden "uns" durch Intels Schneckentempo zwei komplette Generationen vorenthalten. Wo hätten wir nur sein können, wenn Intel nicht immer mit der Handbremse agiert und sich selbst betrogen hätte (10nm coming...soon)? Mal ernsthaft, 2 neue Architekturen in 6 Jahren ist schon genau das was "das Ganze" ist, was man da sehen kann. Eine Architektur war mit minimalen Änderungen halt 5 Jahre(!) aktuell durch Nodefortschritte und Kernerweiterungen der Puls der Zeit. Dass das eigentlich nicht genug ist, sollte wohl jedem hier Einleuchten. Da geht es auch gar nicht um das was AMD macht, weil es einfach nicht der Maßstab sein kann, an dem sich Intel als selbsternannte Firma mit Leaderfunktion messen lassen will. Quittung gibt es jetzt von jedem in der Branche der nicht Intel heißt ;D
Wenn man es teilweise nicht einmal schafft sich außerhalb der Meßungenauigkeit bzw. des merkbaren Rahmens von den eigenen Produkten der letzten Generation abzusetzen, ist das peinlich. Aber anscheinend muss ich das ja noch bejubeln. :eek:
BlacKi
2021-04-15, 14:51:55
bis 2017 konntest du mit mehr als 4 kernen/8 threads nichts in spielen anfangen. das musste ich mit meinem fehlkauf selbst leider feststellen, der zu früh auf 6 kerne umgestiegen ist. der 8700k wäre auch ohne amd mit 6 kernen gekommen. sieht man sehr schön an den benchmarks wie wichtig plötzlich die zusatz kerne werden können. das war der ausschlag für intel mehr kerne zu bringen, nicht hauptsächlich amd.
aufkrawall
2021-04-15, 14:55:59
Denn wer sich mit so etwas vom Technologieführer zufrieden gibt
Wer hat denn gesagt, dass die Marktsituation Pre-Zen zufriedenstellend war? Es gab halt nichts anderes als Intel zu kaufen, verstehe den Sinn der Debatte (insbesondere in diesem Thread) nicht. :confused:
Ich komme übrigens direkt von einem 6700k zum 11400F. Völlig egal, ob du das im Zusammenhang mit BDW meintest oder nicht: Erst Zen 2 konnte über vier Jahre später halbwegs bei der Spiele-Leistung aufschließen bzw. hat dafür mitunter zwei zusätzliche Kerne gebraucht. "Gurke". :freak:
Lehdro
2021-04-15, 15:04:08
Wer hat denn gesagt, dass die Marktsituation Pre-Zen zufriedenstellend war? Es gab halt nichts anderes als Intel zu kaufen, verstehe den Sinn der Debatte (insbesondere in diesem Thread) nicht. :confused:
Aus meiner Sicht der Dinge sollte man Intel dafür (SKL/KBL) halt nicht verteidigen im Sinne von: "Kann nicht schlecht sein, gab ja nichts Besseres." Selbst wenn das Produkt dass Beste ist, sollte ein Rückschritt gegenüber dem Vorgänger in dieser Branche ein Grund sein das Produkt nicht noch über den Klee zu loben. Kritisch sein, mehr verlange ich nicht.
Ich komme übrigens direkt von einem 6700k zum 11400F. Völlig egal, ob du das im Zusammenhang mit BDW meintest oder nicht: [...]"Gurke". :freak:
Wärst du vom 5775C auf den 6700K gewechselt? Nein, wäre oft ein Rückschritt gewesen. Also: Gurke vom BDW aus gesehen.
BlacKi
2021-04-15, 15:08:47
Wärst du vom 5775C auf den 6700K gewechselt? Nein, wäre oft ein Rückschritt gewesen. Also: Gurke vom BDW aus gesehen.
auch blödsinn, mit dem richtigen speicher konntest du den l4 cache vorteil von broadwell ausgleichen und durch die höheren taktraten (core oc) richtig von broadwell absetzen der ein OC krüppel war.
aufkrawall
2021-04-15, 15:12:36
Wärst du vom 5775C auf den 6700K gewechselt? Nein, wäre oft ein Rückschritt gewesen. Also: Gurke vom BDW aus gesehen.
Das ist jetzt arg konstruiert. Der 5775C war ein Nischenprodukt und erschien nur wenige Monate vor dem 6700k. Außerdem waren mit Skylake dann 3200MHz via DDR4-RAM möglich...
Lehdro
2021-04-15, 15:21:21
auch blödsinn, mit dem richtigen speicher konntest du den l4 cache vorteil von broadwell ausgleichen und durch die höheren taktraten (core oc) richtig von broadwell absetzen der ein OC krüppel war.
Auch BDW schafft zwischen 4 und 4.3 GHz OC was man so liest, ebenso kann auch BDW Speicher OC und auch den eDRAM kannst du übertakten. Bitte mal als prozentuale Relation zueinander betrachten:
BDW: Von 3.7 Boost auf 4.2 OC (https://www.3dcenter.org/news/gesammelte-overclocking-resultate-zu-intels-broadwell) macht: +13,5%
SKL: Von 4.2 Boost auf 4.8 OC (https://www.hardwareluxx.de/community/threads/intel-skylake-sockel-1151-oc-ergebnis-thread-kein-quatschthread.1087164/) macht: + 14,3 %
Das reisst jetzt gerade SKL nicht wirklich raus.
Das ist jetzt arg konstruiert. Der 5775C war ein Nischenprodukt und erschien nur wenige Monate vor dem 6700k.
Und dein Argument ist jetzt nochmal genau welches...?
Außerdem waren mit Skylake dann 3200MHz via DDR4-RAM möglich...
Klar mit BDW war natürlich gar kein RAM Tuning möglich. Übrigens lustig das jetzt mit OC alles rechtfertigen zu müssen, nachdem ich der "Konstruktion von Argumenten" beschuldigt werde ;)
aufkrawall
2021-04-15, 15:44:03
Ist dir schon mal aufgefallen, dass hier kaum jemand einen Broadwell hat, aber diverse Leute noch Skylake? Könnte das Gründe haben, oder ist das rein zufällig bedingt?
Es mutet jetzt sehr danach an, dass der einzige Grund, weshalb diese Diskussion stattfindet, der ist, weil du unbedingt diskutieren willst...
Man braucht auch gar keinen BDW, um aufzuzeigen, dass Skylake kein toller Sprung war. Dafür tut es auch schon Haswell...
Heute lässt sich übrigens eine andere Firma winzige Dies vergolden...
Lehdro
2021-04-15, 15:52:53
Ist dir schon mal aufgefallen, dass hier kaum jemand einen Broadwell hat, aber diverse Leute noch Skylake? Könnte das Gründe haben, oder ist das rein zufällig bedingt?
Ich führe da keine statistische Erhebung. Könnte aber auch damit zusammenhängen dass das von Intel nicht gepushed wurde im Vergleich zu SKL, da definitiv teurer zu produzieren und massiv verspätet.
Es mutet jetzt sehr danach an, dass der einzige Grund, weshalb diese Diskussion stattfindet, der ist, weil du unbedingt diskutieren willst...
Klar, ich diskutiere ja mit mir selbst...dachte bisher immer dass dazu zwei gehören.
Man braucht auch gar keinen BDW, um aufzuzeigen, dass Skylake kein toller Sprung war. Dafür tut es auch schon Haswell...
Jop.
Benutzername
2021-04-15, 15:56:23
Sind die Zahlen Stück, Kilogramm oder Payback-Punkte?
"six times the soldiers!" sind das bei Total War:Troy ;D
aber etws ernsthafter, danke y33H@ für die Zusammenstellung. eine Aufstellung zurück bis zum ersten Skylake wäre eigentlich auch ganz nett gewesen, aber das wird dann bisschen viel.
BlacKi
2021-04-15, 16:14:06
Klar mit BDW war natürlich gar kein RAM Tuning möglich.
dann hast du es nicht verstanden. denn ein großer cache reduziert die performance gewinne von schnellem ram.
davidzo
2021-04-15, 16:18:59
Ich hab mal alle 14 nm Modelle verglichen:
https://scr3.golem.de/screenshots/2104/Intel-14-nm-Games/thumb620/Games-Stacking-14nm.png
https://scr3.golem.de/screenshots/2104/Intel-14-nm-Apps/thumb620/Apps-Stacking-14nm.png
https://www.golem.de/news/core-i7-i9-generationen-im-test-was-intel-aus-14-nm-herausgeholt-hat-2104-155714.html
Vielen Dank für den Test :up:
Das ist tatsächlich der perfekte Beitrag zu dem was wir hier in den letzten Monaten diskutiert haben.
Noch besser wäre natürlich taktnormiert und auf 4C/8T beschränkt, aber da man dann sowieso zwischen 6700k und 10900k eine gerade Linie einzeichnen kann ist das schon okay. Eine weitere problematik die den neueren skylake basierten designs dann vielleicht sogar einen vorteil verschafft wären die hardware mitigations.
@Lehdro, musst schon das ganze sehen. Also nix Bremse...:facepalm:
Was passiert nach KL? Richtig die Kern Kriege beginnen...ansonsten noch TAU PL2 betrachten...
i7-5775C i7-6700K i7-7700K i7-8700K i9-9900K i9-10900K i9-11900K
Codename Broadwell Skylake Kaby Lake Coffee Lake Coffee Lake R Comet Lake Rocket Lake
Fertigung 14 nm 14 nm 14+ nm 14++ nm 14++ nm 14+++ nm 14++++ nm
Die-Size* ~170 mm² ~120 mm² ~130 mm² ~150 mm² ~180 mm² ~200 mm² ~270 mm²
μArch Broadwell Skylake Kaby Lake Kaby Lake Kaby Lake Kaby Lake Cypress Cove
CPU-Kerne 4 + SMT 4 + SMT 4 + SMT 6 + SMT 8 + SMT 10 + SMT 8 + SMT
Takt 3,3 bis 3,7 GHz 4,0 bis 4,2 GHz 4,2 bis 4,5 GHz 3,7 bis 4,7 GHz 3,6 bis 5,0 GHz 3,7 bis 5,3 GHz 3,5 bis 5,3 GHz
L3-Cache 6 MByte 8 MByte 8 MByte 12 MByte 16 MByte 20 MByte 16 MByte
Grafik GT3e, Gen8 GT2, Gen9 GT2, Gen9.5 GT2, Gen9.5 GT2, Gen9.5 GT2, Gen9.5 GT2, Gen12 (Xe)
Speicher DDR3-1600 DDR4-2133 DDR4-2400 DDR4-2666 DDR4-2933 DDR4-2933 DDR4-3200
TDP (PL1) 65 Watt 91 Watt 91 Watt 95 Watt 95 Watt 125 Watt 125 Watt
PL2, TAU 81W, 28 sec 114W, 28 sec 114W, 28 sec 119W, 28 sec 119W, 28 sec 250W, 56 sec 251W, 56 sec
Danke für die Tabelle!
Vielleicht sollte man noch dazu sagen dass ab Coffee lake die PL2 und Tau nicht mehr das Papier wert sie im PDF Viewer angezeigt werden.
28sek TAU steht zwar immer noch im specsheet, ist nur noch "empfohlen", laut spec voll okay sind aber bis zu 448sek. In der Praxis haben die mainboardhersteller spätestens mit coffee lake refresh dann alle Hosen fallen lassen.
Intels eigene Review Kits für den 9900k hatten 210W PL2 voreingestellt :eek: und Tau außer Kraft gesetzt: https://www.anandtech.com/show/13400/intel-9th-gen-core-i9-9900k-i7-9700k-i5-9600k-review/21
Also eine echte Tabelle sähe etwas anders aus nach rechts hin.
Für mich war die falsche Abzweigung imo bereits Skylake. Das war gegenüber BDW eine reine Kostenoptimierung, zur Gewinnmaximierung, aber Architekturell ein Rückschritt was sich aber erst ein halbes Jahrzehnt später gezeigt hat.
Hätte Intel damals den L4 weiterentwickelt und echte no copy cache kohärenz mit der GPU ermöglicht, wäre man schon nah an dem wo Apple mit dem M1heute steht.
Wie man an G1 vs G2 Tests sieht verbrauchen Rocketlake, aber auch schon Comet Lake einfach zu viel Power budget im Speichercontroller. Der Vorteil von Broadwells L4 Design ist nur nur eine bessere Hitrate bzw. Latenzen und höhere Bandbreite für die IGP, sondern vor allem ermöglicht es mehr Powerbudget für die Cores weil viel Energie vom Gang zum DRAM erspart wird.
Schon Skylake hätte mit edram besser ausgesehen, da der Hit auf die Latnzen durch den frühen, langsamen DDR4 abgemildert würde. So war der 6700K in vielen Launchreviews sogar langsamer als der zwei Generationen alte 4790K.
Der Geiz bei der DIE-size hat letztendlich auch dazu geführt dass Intel seine Fabs viel zu spät ausgebaut hat. Während Coffee lake noch als 6C mainstream CPU geplant war, ist der frühe Launch von Comet lake als 8C DIE schon auf die zunehmende competitive Umgebung zurückzuführen. Damit gatte Intel so nicht gerechnet und der Pfad des geringsmöglichen DIE den man mit Skylake eingeschlagen hat hat sich mit coffee lake refresh gerächt, was man in den bienahe ein jahr währenden Lieferschwierigkeiten gesehen hat.
BTW, der edram war ein 22nm produkt, hat also nicht die 14nm kapazitäten belastet, ähnlich wie AMD beim i/o die noch auf 12nm setzt statt N7 beim compute Die.
Lehdro
2021-04-15, 16:36:35
dann hast du es nicht verstanden. denn ein großer cache reduziert die performance gewinne von schnellem ram.
Ja, reduziert, nicht nullifiziert, gut erkannt.
Für mich war die falsche Abzweigung imo bereits Skylake.
Sind wir schon mal zwei Leute die das so sehen.
aufkrawall
2021-04-15, 16:43:26
Ja, reduziert, nicht nullifiziert, gut erkannt.
Und wer sagt dir, dass Broadwell mit gemaxtem RAM immer noch schneller als Skylake mit eben solchem ist?
Das ist mal wieder so eine hypothetische Diskussion, die völlig davon ablenkt, was der Kunde von Produkt X für einen Benefit gegenüber Y haben kann. Es zählt das, was hinten rauskommt, und anders als BDZ war das bei SKL nicht braun und eklig. ;)
davidzo
2021-04-15, 16:52:52
Und wer sagt dir, dass Skylake mit gemaxtem RAM nicht trotzdem schneller als Broadwell mit eben solchem ist?
Das ist mal wieder so eine hypothetische Diskussion, die völlig davon ablenkt, was der Kunde von Produkt X für einen Benefit gegenüber Y haben kann. Es zählt das, was hinten rauskommt, und anders als BDZ war das bei SKL nicht braun und eklig. ;)
Wenn ich heutzutage sehe wie ein 5775C bei Anandtech on point vrglichbare Leistung wi ein 10600K abliefert, in nur 65W - echten 65W ohne 3mal höhere Pl2, tau, sondern Realverbrauch - dann kommen mir fast Tränen in die Augen.
Da kannst du gerne mit gemaxtem ram kommen oder nicht ganz braunen benefits. Wenn man sieht was Broadwell im TDP budget in der ersten Generation 14nm in 2015 abgeliefert hat, dann kann man nur mutmaßen was eine verbesserte Broadwellarchitektur mit 8+ kernen in 14nm++++ in 2021 abliefern würde.
robbitop
2021-04-15, 17:02:41
Ich denke, dass der L4 die entscheidende Komponente war und nicht zwangsweise die BDW uArch selbst. Hätte Skylake auch den L4 im Desktop bekommen (gab es im Notebook ja), hätte der sich sicherlich besser entwickelt.
aufkrawall
2021-04-15, 17:09:42
Bei Anand setzt sich BDW in nicht wenigen Anwendungen kaum vom 4790S mit gleicher TDP und älterer Fertigung ab und in Spielen ist ein 6700k auch mit RAM-OC dauerhaft weit unterhalb von 90W. Klar ist L4 geil, aber mit vielen Cores dürfte der Platzverbrauch unangenehm sein (Intel packt ja auch noch immer die GPU dazu...) und lässt sich schlecht shrinken (ok, 10nm war gefloppt, aber trotzdem).
Geächteter
2021-04-15, 17:14:42
Ist dir schon mal aufgefallen, dass hier kaum jemand einen Broadwell hat, aber diverse Leute noch Skylake? Könnte das Gründe haben, oder ist das rein zufällig bedingt?
Lag daran, dass kaum ein Mainboardhersteller und Intel den richtig mit vernünftigen Biossen unterstützt hat. Und wenn, dann immer nur ein oder ganz wenige Boards vom jeweiligen Hersteller. Keiner von denen wollte wirklich Broadwell etabliert sehen. Skylake hätte einfach zu schlecht dagegen in einigen Games ausgesehen.
Und dann noch der Nachteil, nur DDR3 und Z97 nutzen zu können.
y33H@
2021-04-15, 17:18:46
eine Aufstellung zurück bis zum ersten Skylake wäre eigentlich auch ganz nett gewesen, aber das wird dann bisschen viel.Meinst du Sandy Bridge?
Vielen Dank für den Test :up:Gerne doch, war spannend!
Intels eigene Review Kits für den 9900k hatten 210W PL2 voreingestellt :eek: und Tau außer Kraft gesetzt:Mir ist nicht klar, was du mit Review Kit meinst - Intel hat ja keine eigenen Boards mehr, die samplen wenn ein Asus/MSI/Gigabyte mit. Vermutlich meint Ian hier, dass Intel ein PL2 von 210W empfiehlt.
Badesalz
2021-04-15, 17:53:47
Die Kernskalierung ist dann aber relativ unterdurchschnittlich im Schnitt, wenn man sich anschaut wie z.B. Total War skaliert.Ich denke wichtig ist es nicht, ob du nun dem DC- oder dem Marvel-Universum entstammst, aber deine Superkräfte, Gehirne auch aus Hunderten Kilometern Entfernung für Minuten in Matsche zu verwandeln, sind schon extrem. Muss das wirklich jedes Mal so eine Fremdschämnummer sein... Du glaubst du kannst das anschliessend immer mit 5KB Ascii beseitigen? Das hat noch nicht einmal funktioniert. Check das endlich.
Wenn du die Kernskalierung "relativ" sehen willst und auch nicht den Einfluss von Bandbreiten außerhalb des Packages, sondern nur rein das sehen willst was Intel an den Kernen bis dahin verbessert hat, dann darfst du dir ausschliesslich Planet Zoo anschauen. Haste das geschnallt jetzt? Das ist DEIN Benchmark zu innerhalb der Dies gelösten Bremsen.
@all
Wäre das nicht sowas von affengeil, wenn das gleiche nochmal - oder eben gleich jeweisl doppelt getestet - bei allen, mit obenrum festen 3.7Ghz gelaufen wäre?
Von Glücksgefühlen übermannt hätte ich wahrscheinlich gar kurz geheult :tongue: Ich hätte dafür dem Sauter ;) echt ALLES bisherige verziehen. Der hätte gar noch einen Gutschein von mir bekommen für 3x Kaka bauen, ohne daß ich was dazu sage :up:
davidzo
2021-04-15, 17:59:35
Bei Anand setzt sich BDW in nicht wenigen Anwendungen kaum vom 4790S mit gleicher TDP und älterer Fertigung ab und in Spielen ist ein 6700k auch mit RAM-OC dauerhaft weit unterhalb von 90W.
BS, der 4790 hat nicht die gleiche TDP wie der 5775C, sondern eine vom 4770k angehobene 88W TDP und im spielebetrieb auch einen viel höheren realverbrauch.
EDIT: Es ist die S-Variante. In den Verbrauchstests trotzdem 45% mehrverbrauch (95Watt) als die 65W des 5775c.
Was soll der vergleich mit einem lahmarschigen 6700K? Ich bezog mich auf den 10600K der in einer ähnlichen Leistungsklasse wie der 5775C liegt, aber dafür viel mehr schluckt.
Klar ist L4 geil, aber mit vielen Cores dürfte der Platzverbrauch unangenehm sein (Intel packt ja auch noch immer die GPU dazu...) und lässt sich schlecht shrinken (ok, 10nm war gefloppt, aber trotzdem).
Dir ist schon klar dass der L4 ein extra Die in 22nm war und das die Diesize des Compute Dies kein bisschen ändert?
Im Gegenteil, ein Shrink ist viel einfacher, da man entscheiden kann ob man den Cache überhaupt mit shrinkt und sogar SKU Abstufungen einfach durch verschiedenem cache bauen kann ohne dass man neue Maskensets braucht. Beides hat Intel auch genutzt, denn der 128mb L4 in 22nm war bereits bei Haswell GT4 verwendet worden und 64mb Abstufungen gab es ebenfalls.
Mir ist nicht klar, was du mit Review Kit meinst - Intel hat ja keine eigenen Boards mehr, die samplen wenn ein Asus/MSI/Gigabyte mit. Vermutlich meint Ian hier, dass Intel ein PL2 von 210W empfiehlt.
Intel wird aber schon bewusst gewesen sein wie das BIOS vom reviewboard eingestellt ist. Das finde ich imo wichtiger als irgendwelche theoretischen 119W/28s Werte die in der Praxis nicht zu finden warn.
In this case, for the new 9th Generation Core processors, Intel has set the PL2 value to 210W.
y33H@
2021-04-15, 18:08:38
Ich behaupte aufgrund meiner Erfahrung das Gegenteil :ulol:
aufkrawall
2021-04-15, 18:12:47
Bullshit, der 4790 hat nicht die gleiche TDP wie der 5775C, sondern eine vom 4770k angehobene 88W TDP und im spielebetrieb auch einen viel höheren realverbrauch.
Hier steht 65W und in der Anand-Tabelle auch:
https://ark.intel.com/content/www/de/de/ark/products/80808/intel-core-i7-4790s-processor-8m-cache-up-to-4-00-ghz.html
Man beachte das S, wenn man schon "BS" raushaut...
Was soll der vergleich mit einem lahmarschigen 6700K? Ich bezog mich auf den 10600K der in einer ähnlichen Leistungsklasse wie der 5775C liegt, aber dafür viel mehr schluckt.
Weil der auch 4C hat und mit RAM-OC gar nicht so lahmarschig ist.
Dir ist schon klar dass der L4 ein extra Die in 22nm war und das die Diesize des Compute Dies kein bisschen ändert?
Im Gegenteil, ein Shrink ist viel einfacher, da man entscheiden kann ob man den Cache überhaupt mit shrinkt und sogar SKU Abstufungen einfach durch verschiedenem cache bauen kann ohne dass man neue Maskensets braucht. Beides hat Intel auch genutzt, denn der 128mb L4 in 22nm war bereits bei Haswell GT4 verwendet worden und 64mb Abstufungen gab es ebenfalls.
Und der Cache wird dann, anders als on-chip, mit neuer Fertigung genau so viel kleiner wie die Cores?
davidzo
2021-04-15, 19:15:13
Weil der auch 4C hat und mit RAM-OC gar nicht so lahmarschig ist.
Dir ist schon klar dass der 6700K schon ohne OC 60% mehr verbraucht und mit RAM-OC das nochmal durch die Decke geht?
Der Memory Controller säuft doch bei OC wie ein Loch, das musst du dann vom Core Power-Budget abziehen.
Das ist doch der Grund wieso Intel bei RKL einen Teiler für den Speichercontrollertakt ingeführt hat. Der 11600(K) muss für OEMs mit G2 laufen, weil das im TDPlimit die schnellere Konfiguration ist. Mit G1 wäre die CPU langsamer weil der Speicherconroller das Power budget für den boost begrenzt.
aufkrawall
2021-04-15, 19:33:32
Dir ist schon klar dass der 6700K schon ohne OC 60% mehr verbraucht und mit RAM-OC das nochmal durch die Decke geht?
Der Memory Controller säuft doch bei OC wie ein Loch, das musst du dann vom Core Power-Budget abziehen.
Dazu hatte ich schon etwas gesagt, scheint leider nicht zu verfangen.
Was hier für ein Blödsinn bez. des Verbrauchs in Spielen geglaubt wird, geht echt auf keine Kuhhaut. :freak:
BlacKi
2021-04-15, 19:44:31
was ich nicht bestreiten will, das sich der vorteil von l4 cache in luft auflöst(bis auf einige titel), aber, gerade mit ddr5, erheblich einbüßt. das kann man machen, aber es kostet. und scheinbar ist es wohl intels entscheidung nach zu urteilen, nicht rentabel.
Badesalz
2021-04-15, 20:02:38
was ich nicht bestreiten will, das sich der vorteil von l4 cache in luft auflöst(bis auf einige titel), aber, gerade mit ddr5, erheblich einbüßt.Ich glaub aus dem Thread check ich mal komplett aus. Könnten wir im Regelwerk vielleicht etwas über geistigen Sadismus hinzufügen?
Redest du auch so oder nimmst du dir Zeit dafür? Dürfte man mal verlangen, daß die Beiträge wenigstens so ausgearbeitet sind wie die prunkvolle Signatur?
Achtung:
Du möchtest nicht bestreiten, daß sich der Vorteil vom L4-Cache bis auf einige Titel in der Luft auflöst, aber grad mit DDR5 erheblich einbüßt?
WAS IST DAS? Halbverdautes? Ein Vorteil, der sich bereits in der Luft auflöste, büßt später noch was ein? Richtig?
Ok, Heinz Ehrhardt hat auch schonmal sowas erzählt (nur O-Ton aus dem Kopf):
Ein Auto schleichte blitzschnell um die Ecke. Drinnen saßen stehend 2 Leute die schweigend in ein Gespräch vertieft waren, während von der regennassen Straße der Staub empor wirbelte.
Bei dem weiß man aber, daß er draus Jokes gebaut hat und nicht einfach nur immer voll zugekifft war.
BlacKi
2021-04-15, 20:11:22
ich habs vorhin schon einmal einfach versucht, aber vl hilfts verschwurbelt ja^^
je schneller der ram, desto weniger häufig kann der l4 seine stärke ausspielen und wird dann zum waste of sand.
Badesalz
2021-04-15, 20:19:20
Aha. "vl hifts" wars. Hat das Ding eine amoklaufende KI oder wie macht "vl hilfts" das?
Wegen deiner Erkenntnis: Kennst du diesen Typen der Binse heißt? Und die - ebenfalls - Binsenweisheit, daß es seit Jahren nicht einen Thread auf 3DC gab wo man die Erinnerung an ihn hochhalten müsste?
Hast du einen Wert für die Geschwindigkeit/Latenz des L4, den du DDR5 gegenüber stellst um ihn zu beurteilen?
Oder hast du einfach 1:1 den vom 5775C genommen?
Liegt dir echt nichts daran, daß deine Beiträge wenigstens Spuren von Informationen enthalten?
Lehdro
2021-04-15, 20:56:38
Ich denke wichtig ist es nicht, ob du nun dem DC- oder dem Marvel-Universum entstammst, aber deine Superkräfte, Gehirne auch aus Hunderten Kilometern Entfernung für Minuten in Matsche zu verwandeln, sind schon extrem. Muss das wirklich jedes Mal so eine Fremdschämnummer sein... Du glaubst du kannst das anschliessend immer mit 5KB Ascii beseitigen? Das hat noch nicht einmal funktioniert. Check das endlich.
Also wenn, dann will ich aus dem The Boys Universum sein.
Wenn du die Kernskalierung "relativ" sehen willst und auch nicht den Einfluss von Bandbreiten außerhalb des Packages, sondern nur rein das sehen willst was Intel an den Kernen bis dahin verbessert hat, dann darfst du dir ausschliesslich Planet Zoo anschauen. Haste das geschnallt jetzt? Das ist DEIN Benchmark zu innerhalb der Dies gelösten Bremsen.
Toll, danke! Nur bezog sich das eigentlich auf die Leute die meinen jegliche Steigerung abseits des Taktes kam von der Coreanzahl. Aber schön dass du es bestätigst, dass dem eben nicht so ist.
robbitop
2021-04-15, 21:12:43
was ich nicht bestreiten will, das sich der vorteil von l4 cache in luft auflöst(bis auf einige titel), aber, gerade mit ddr5, erheblich einbüßt. das kann man machen, aber es kostet. und scheinbar ist es wohl intels entscheidung nach zu urteilen, nicht rentabel.
DDR5 bringt selbst nichts in Bezug auf Gesamtmemorylatenz. Und genau darauf kommt es in Spielen primär an.
Dazu kommt, dass bei Intel vermutlich in Zukunft (ggf ab ADL) eine andere Fabric zum Einsatz kommen werden muss (16 Cores). Skalierbarkeit steht diametral zu Latenz. Wahrscheinlich wird man da eher Federn lassen. Um das zu kompensieren, erhöht man ja seit SC sukzessive den Cache auf allen Levels. L1-L3. Das spricht Bände.
Ich würde mich nicht wundern wenn künftig via Stacking doch so etwas wie ein L4 woeder modern wird.
x-force
2021-04-15, 21:17:30
bei der menge an cpus die intel verkauft sollte sich ein chip ohne igp für gamer und workstations eigentlich rentieren. dann wäre auch wieder platz für l4 vorhanden.
BlacKi
2021-04-15, 21:19:15
DDR5 bringt selbst nichts in Bezug auf Gesamtmemorylatenz. Und genau darauf kommt es in Spielen primär an.
Dazu kommt, dass bei Intel vermutlich in Zukunft (ggf ab ADL) eine andere Fabric zum Einsatz kommen werden muss (16 Cores). Skalierbarkeit steht diametral zu Latenz. Wahrscheinlich wird man da eher Federn lassen. Um das zu kompensieren, erhöht man ja seit SC sukzessive den Cache auf allen Levels. L1-L3. Das spricht Bände.
Ich würde mich nicht wundern wenn künftig via Stacking doch so etwas wie ein L4 woeder modern wird.du kannst nicht ddr4 4000 mit ddr5 4800 vergleichen. das wird eher ein nullsummenspiel. mit ddr5 8000 und cl20er latenz wirst du in der gesammtmemorylatenz schneller sein als alle ddr4 riegel zuvor. der latenznachteil wird durch die hohe geschwindigkeit ausgeglichen. der vorteil kommt durch den neuen standard, davon bin ich überzeugt, weil es mit ddr4 damals genau dieselbe thematik gab.
x-force
2021-04-15, 21:26:17
du kannst nicht ddr4 4000 mit ddr5 4800 vergleichen. das wird eher ein nullsummenspiel. mit ddr5 8000 und cl20er latenz wirst du in der gesammtmemorylatenz schneller sein als alle ddr4 riegel zuvor. der latenznachteil wird durch die hohe geschwindigkeit ausgeglichen. der vorteil kommt durch den neuen standard, davon bin ich überzeugt, weil es mit ddr4 damals genau dieselbe thematik gab.
nein. die absolute latenz ist seit ewigkeiten im besten fall bei ~7,5 ns
robbitop
2021-04-15, 21:28:48
Richtig. Zunehmender Takt wird mit höherer CL kompensiert. So war es schon immer. Warten wir mal auf reale kaufbare Produkte ab.
Thunder99
2021-04-15, 22:27:12
Robi, zu deiner Strom Diskussion noch was angemerkt. Es mag zwar wenig in den Kosten sein.
Es gibt aber auch die Punkte wie erhöhten Kühlaufwand, Geräusch und insbesondere Faden Beigeschmack das es keine 65W CPU ist wenn man nicht alle Grenzen aktiviert sondern eher 100W +
Schade, dass bei GPU und CPU es derzeit nur eine Richtung kennt die Leistung zu steigern, mit höherer Energieaufnahme...
aufkrawall
2021-04-15, 22:31:03
Temps und Drehzahl in Legion mit vier Jahre alter 35€ Kühlung:
IYGZ2SrKy9U
-> Das Verbrauchsargument ist für Gaming einfach nur komplett lächerlich.
arcanum
2021-04-15, 23:01:30
Temps und Drehzahl in Legion mit vier Jahre alter 35€ Kühlung:
https://youtu.be/IYGZ2SrKy9U
-> Das Verbrauchsargument ist für Gaming einfach nur komplett lächerlich.
hoffentlich hängt die cpu an einem separaten netzteil. bei dem stromverbrauch rutscht du in die großabnehmertarife /i
klar ist die ganze diskussion lächerlich. offene tdp hin oder her: selbst wenn man irgendwo im bereich 125-180 watt limitiert sollte die leistung nicht empfindlich sinken bei akzeptablen mehrverbrauch. vor 2 jahren hat jeder zweite seine cpu bis zum anschlag übertaktet und jetzt sind verbräuche über 70watt plötzlich ein problem. würde den aufstand ja verstehen wenn die cpus immer ungedrosselt laufen würden aber wer lust hat, kann selbst die günstigsten cpus "übertakten" und etwas leistung rauskitzeln ohne sich gleich ein k-modell zu kaufen.
Ben Carter
2021-04-15, 23:44:32
Verbrauch ist immer im Vergleich zu erbrachten Leistung zu sehen. Und darum muss RKL eben Kritik einstecken, zumindest die großen Modelle. Die kleineren Modelle oder im Teillastbereich ist es bei weitem nicht dramatisch bzw. imho sogar vernachlässigbar. Aber wenn ein entfesselter 8 Kerner unter Volllast mehr zieht als ein entfesselter 16 Kerner und dabei deutlich(!) weniger Leistung erbringt, dann kann und darf das auch kritisiert werden.
Die Unterschiede beim Gaming, vor allem bei 4k sind vernachlässigbar. Da spielen 10-15W auf oder ab zwar relativ gesehen eine Rolle, praktisch bei der Kühlung jedoch kaum, sofern man nicht gerade Spezialfälle (sehr kleine Gehäuse, etc.) hat.
arcanum
2021-04-15, 23:49:47
dass der 11900 für >550€ schrott stellt hier im thread niemand in frage. auf den letzten seiten geht es überwiegend um non-k cpus wie den 11400 aus denen mit einer tdp-anhebung mehr leistung rausgeholt werden kann. total paradoxe reaktionen, dass man den stromverbrauch einer übertakteten budget-cpu mittels budget-chipsatz kritisiert.
MiamiNice
2021-04-16, 00:20:22
Ich liebe diese Verbrauchs Diskussionen:
Nehmen wir mal an der CPU verbraucht durchgehend 200 Watt mehr und wir spielen 4 Stunden pro Tag "volle Pulle":
200 Watt * 4 Stunden = 0,8 kWh
0,8 kWh * 364 Tage = 292 kWh.
292 kWh * 0,28 Euro = knapp 81€ / Jahr.
Wohlgemerkt bei Volllast die in Spielen niemals und schon gar nicht auf allen Kernen anliegt.
Real kommt nicht mal die Hälfte von dem Wert dabei rum.
Erst recht nicht wenn man bedenkt das die 200 Watt mehr Schwachsinn sind.
Jetzt rechnen wir mal HW Kosten dagegen oder den Kinobesuch mit der liebsten oder den letzten Edeka Einkauf ;D
Tolle Diskussion :up:
Der Verbrauch ist schon unglaublich wichtig, gerade bei den aktuellen HW Preisen.
Noch wichtiger ist er in Zeiten in denen auf jedem 2. Dach ne Photovoltaikanlage montiert ist ;)
Absolut DAS Merkmal für eine Anschaffung ^^
x-force
2021-04-16, 00:42:59
Ich liebe diese Verbrauchs Diskussionen:
worauf würdest du dich denn versteifen, wenn das objekt(oder die firma), mit dem du dich identifizierst, von seinem imaginären thron gestoßen wird?
ich bitte dich... da brechen welten zusammen, menschen müssten ihr leben überdenken.
alternativ zündet man bequem eine nebelkerze, hatet ein wenig und lenkt ab.
hauptsache es geht weiter wie bisher, oder bis der nächste heiland neues wohl verspricht.
einfach ne runde spielen, oder sich auf cinebench einen runterholen befriedigt dich nach kurzer zeit einfach nicht mehr:freak:
Daredevil
2021-04-16, 00:46:45
Vor allem sind die letzten 10-20w der CPU wichtig, wenn man 250-300-350w GPUs nebenher noch betreibt. ( Oder man kastriert sie halt :< )
rentex
2021-04-16, 05:36:58
@Daredevil Danke und das ist eben ein Thema, was man verstärkt beobachtet. Da werden vornehmlich der hohen Verbräuche, der neueren Graka und CPU Generation, Netzteile mit noch höherer Leistung( 850 Watt <) beschafft oder eben ein Verbraucher in der Leistung reduziert (in den meisten Fällen die Graka).
Badesalz
2021-04-16, 06:52:00
@aufkrawall
Naja... Das ist halt ein Sonderfall :D Wie siehts unter NV aus? ;) (Joke)
@MiamiNice
Durch welche halbwegs aktuellen Passagen hast du rausgefunden, daß Leute die das mit dem Verbrauch bisschen kritischer begutachten, es rein wegen Stromkosten tun?
Also wenn, dann will ich aus dem The Boys Universum sein.Du warst auch nicht gemeint. Misch dich nicht überall ein. Und die heißen auch nicht The Boys, sondern Fan Boys.
Toll, danke! Nur bezog sich das eigentlich auf die Leute die meinen jegliche Steigerung abseits des Taktes kam von der Coreanzahl. Aber schön dass du es bestätigst, dass dem eben nicht so ist.Du mischt dich schon wieder ein. Diese Leute sind von dir herbeifantasiert. Alle machten sich nur darüber lustig, daß bei dem Gelaber wegen "Sprung" und der Leistungsentfesselung (LOL), nicht geschnallt wurde, daß da plötzlich mehr Kerne im Spiel sind.
Dein Vernebelungsversuch ist also genauso gescheitert wie seins.
Eure Arroganz, zu glauben, hier gibts genug Leute die man ganz primitiv für blöd verkaufen kann, geht mir langsam richtig auf den Keks. D.h. ihr beiden Spezialisten legt euch am besten schonmal Asbestunterwäsche zu.
Ben Carter
2021-04-16, 07:10:26
Du warst auch nicht gemeint. Misch dich nicht überall ein. Und die heißen auch nicht The Boys, sondern Fan Boys.
Dann solltest du deinen Satz aber nicht direkt unter ein Zitat von ihm schreiben.
Ich kann dir zwar inhaltlich wirklich oft zustimmen, aber die Art und Weise, wie du hier schreibst, war anfangs noch erheiternd, mittlerweile aber nur noch nervend.
Thunder99
2021-04-16, 07:29:48
Temps und Drehzahl in Legion mit vier Jahre alter 35€ Kühlung:
https://youtu.be/IYGZ2SrKy9U
-> Das Verbrauchsargument ist für Gaming einfach nur komplett lächerlich.
Soweit bin ich bei dir :).
Dennoch hat es einen Faden Beigeschmack wenn für die Performance massiv über TDP erreicht wird :freak:
Damit will ich die CPU nicht schlechter machen wie sie ist. Aber da bin ich wohl ziemlich alleine mit der Ansicht hier :usad:
Badesalz
2021-04-16, 07:41:59
Ich kann dir zwar inhaltlich wirklich oft zustimmen, aber die Art und Weise, wie du hier schreibst, war anfangs noch erheiternd, mittlerweile aber nur noch nervend.Das ist eine Nebelkerze... Real, haben wir ausreichend oft konträre Meinungen, daß man es für den Versuch halten darf den anderen bisschen zu diskreditieren. Bemüh dich nicht...
basix
2021-04-16, 08:34:08
Ich hab mal alle 14 nm Modelle verglichen:
https://scr3.golem.de/screenshots/2104/Intel-14-nm-Games/thumb620/Games-Stacking-14nm.png
https://scr3.golem.de/screenshots/2104/Intel-14-nm-Apps/thumb620/Apps-Stacking-14nm.png
https://www.golem.de/news/core-i7-i9-generationen-im-test-was-intel-aus-14-nm-herausgeholt-hat-2104-155714.html
Danke! Wäre es noch möglich, CPUs ab Sandy Bridge dort reinzunehmen?
Ben Carter
2021-04-16, 09:04:13
Das ist eine Nebelkerze... Real, haben wir ausreichend oft konträre Meinungen, daß man es für den Versuch halten darf den anderen bisschen zu diskreditieren. Bemüh dich nicht...
Inwiefern sollte es diskreditieren? Ich persönlich, ohne Anspruch darauf zu erheben, dass es auch für andere so gilt, finde es eben nervig, da es einer ordentlichen Diskussion über ein Thema, bei dem sowieso schon bei so manch Beteiligten die Gemüter hochkochen zu scheinen, nicht wirklich förderlich ist. Das ist auch schon alles.
Badesalz
2021-04-16, 09:22:16
Witzbold. Weswegen sollten bei dem Ding die Gemüter hochkochen?? Was gibt es da für den desktop außer dem 11400F wo sich wer mit einem Schutzschild davor stellen sollte?
Fanboys bekommen was sie verdienen. Muss man da immer Rücksciht drauf nehmen, weil sie sonst einen Thread trashen? Nö, muss man nicht.
Mit dem Rest - wie z.B. mit aufkrawall - kann man sich immer normal unterhalten.
Du möchtest über die Bande der vermeintlichen Vernunft, den Leuten die Schnute zuhalten? Weil alle anderen dich nicht nerven und deswegen hast du das hier noch keinem außer mir erzählt? Ist klar...
Komm mal zurück zum Topic. Danke.
Lehdro
2021-04-16, 10:59:01
Du warst auch nicht gemeint. Misch dich nicht überall ein. Und die heißen auch nicht The Boys, sondern Fan Boys.
Dann lern mal richtig zu quoten. Vielleicht mal ein bisschen den Grips anstrengen und der Diskussion folgen und nicht immer nur einzelne Sachen rauspicken, so ganz ohne Sinnzusammenhang.
Du mischt dich schon wieder ein.
Du hattest mich schon wieder zitiert. Wenn du das nicht möchtest, mach es halt nicht. So einfach, aber dein Problem.
Diese Leute sind von dir herbeifantasiert. Alle machten sich nur darüber lustig, daß bei dem Gelaber wegen "Sprung" und der Leistungsentfesselung (LOL), nicht geschnallt wurde, daß da plötzlich mehr Kerne im Spiel sind.
Dein Vernebelungsversuch ist also genauso gescheitert wie seins.
Ich verweise einfach mal hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12652487&postcount=568) und hier drauf (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12652544&postcount=573). Das steht da sogar 1:1 so, nix Vernebelung.
Eure Arroganz, zu glauben, hier gibts genug Leute die man ganz primitiv für blöd verkaufen kann, geht mir langsam richtig auf den Keks. D.h. ihr beiden Spezialisten legt euch am besten schonmal Asbestunterwäsche zu.
Ich weiß zwar nicht was für ein Problem du hast, aber dass du eines hast, das steht fest. Vielleicht weniger von sich aus projizieren?
aufkrawall
2021-04-16, 11:36:46
Neuer Worstcase RDR2 mit 720p 50% RS: Die kurzen Momente, die es mit 6800 ins komplette CPU-Limit geht, lassen die CPU 90-95W saufen (und das bei mittlerweile -50mV UV, wobei -70mV schon garantiert instabil sind [das Legion-Video war noch ohne UV]):
https://abload.de/thumb/rdr2_2021_04_16_11_27lmjsy.png (https://abload.de/image.php?img=rdr2_2021_04_16_11_27lmjsy.png)
Aber dafür sind die Dinger ja verlötet. :D Ich hab aber auch den Eindruck, dass UV so ziemlich gar nichts am Verbrauch ändert.
Wer einen 5600X hat, kann nachprüfen, dass es damit an der Stelle auch nicht schneller läuft (bzw. nur durch RAM-OC).
y33H@
2021-04-16, 11:54:21
Danke! Wäre es noch möglich, CPUs ab Sandy Bridge dort reinzunehmen?Ja, ich gucke nachher nach dem 2600K und mache den vll als Retro :D einen 3770K habe ich auch da, nen 4790K muss ich erst suchen :freak:
SKYNET
2021-04-16, 15:18:46
Temps und Drehzahl in Legion mit vier Jahre alter 35€ Kühlung:
https://youtu.be/IYGZ2SrKy9U
-> Das Verbrauchsargument ist für Gaming einfach nur komplett lächerlich.
ohne auslastungsanzeige der kerne total unbrauchbar... desweiteren 4k.... stell mal auf 1440p oder 1080p runter, womit die meisten spielen... dann fängt die CPU an zu glühen
aufkrawall
2021-04-16, 15:24:27
ohne auslastungsanzeige der kerne total unbrauchbar
Wenn man keine Ahnung hat. Windows schiebt die Threads ständig hin und her, an der vermeintlichen Auslastung einzelner Threads kann man so ziemlich gar nichts ausmachen.
An der Gesamtauslastung hingegen schon (wenn sich diese plausibel verhält). Wenn die mit HT ständig ~50% oder drüber ist, werden sämtliche Cores anständig bis hoch ausgelastet sein. Was im GPU-Limit natürlich nicht die ganze Zeit der Fall ist...
Ist auch nicht 4k und da fängt gar nichts an zu glühen, wenn das schon in MT-Anwendungen wie GCC nicht der Fall ist. :facepalm:
dildo4u
2021-04-16, 15:29:08
ohne auslastungsanzeige der kerne total unbrauchbar... desweiteren 4k.... stell mal auf 1440p oder 1080p runter, womit die meisten spielen... dann fängt die CPU an zu glühen
Ist doch logisch das sich das Ding deutlich einfacher kühlen lässt als Zen 3 die Kerne sind deutlich größer als AMD Chiplets und Coffelake Dies.
50€ Kühler sollten selbst bis 150Watt drüber lachen und natürlich wird das mit Games nicht erreicht.
gnomi
2021-04-16, 15:30:27
Leider verfälschen offizielle Taktraten beim Ram und den Prozessoren die Ergebnisse.
Hätte mir mal einen Vergleich mit allen Chips am gesunden Limit gewünscht.
Bei Sandy Bridge konnte ich noch super viel rausholen.
Hier hat Intel einem doch ein Sahnestück gegeben. Und viele wollten trotzdem 80€ wegen HT sparen.
Beim 8700K immerhin noch einiges über schnellen Speicher.
50% mehr Kerne rechtfertigen auch den Verbrauch noch irgendwo.
Taktraten waren Allcore noch einigermaßen zu steigern, da nicht so extrem angesetzt.
Mit 9900K hat man quasi schon nur noch die zusätzlichen Kerne und nochmals steigenden Verbrauch. (Brechstange, aber der Prozessor ist dann endlich 2x so schnell wie 2600k)
Die beiden letzten haben entweder mehr Kerne oder Pro Mhz Leistung bei nochmal mehr Verbrauch.
Also da ist Intel zurecht nicht mehr vorne finde ich. (die kleinen aktuellen sind zu den Preisen allerdings sehr gut und der 10850 im Abverkauf oder ein 11700 auch schwer okay)
Bin sehr gespannt auf die nächste Plattform .
MiamiNice
2021-04-16, 18:04:22
@MiamiNice
Durch welche halbwegs aktuellen Passagen hast du rausgefunden, daß Leute die das mit dem Verbrauch bisschen kritischer begutachten, es rein wegen Stromkosten tun?
Ja, ich habe natürlich unsere Umwelt vergessen. Waren das die selben Typen die sich einen Tesla kaufen anstatt einer Photovoltaikanlage und meinen sie hätten einen sauberen Energieabdruck?
Für die meisten auf dieser Welt dürfte Strom = Geld sein. Entweder das was sie zahlen müssen oder das, was sie von den Stadtwerken, fürs einspeisen bekommen.
Btw:
https://www.energiezukunft.eu/fileadmin/user_upload/Bilder/Wirtschaft/wirtschaft_nettostromerzeugung_deutschland_2020_energy-charts_Faunhofer-ISE.jpg
Ich würde meinen Mehrverbrauch schadet unserer Umwelt kaum da wir immer mehr Energie aus erneuerbaren Quellen generieren. Und das sogar jedes Jahr mehr und mehr.
Aber vielleicht habe ich auch was übersehen und wir beuten z.b. unsere Sonne schneller aus als gedacht und sie erlischt daher Millionen Jahre früher ... Oder wir haben bald keinen Wind mehr und alle Pflanzen gehen ein. Wäre natürlich eine Katastrophe.
x-force
2021-04-16, 18:58:10
Ja, ich habe natürlich unsere Umwelt vergessen .
bleibt alles milchmädchen, da nirgendwo erfasst ist wie viel energie die herstellung einer grafikkarte überhaupt kostet.
da sind außerdem im erheblichen maße nicht internalisierte kosten enthalten, für die die allgemeinheit aufkommt.
https://de.wikipedia.org/wiki/Externer_Effekt#Negativer_externer_Effekt
daher lohnt sich sich in den meisten fällen eh nicht aufzurüsten, da ausbleibender kauf die umwelt am meisten schont.
das gilt insbesondere für autos, die man einfach auf >30jahre haltbarkeit konstruieren könnte und damit die mit abstand geringste umweltverschmutzung erreichen würde, auch wenn der alte hobel 2l mehr auf 100km braucht.
BlacKi
2021-04-16, 19:06:13
bleibt alles milchmädchen, da nirgendwo erfasst ist wie viel energie die herstellung einer grafikkarte überhaupt kostet.
da sind außerdem im erheblichen maße nicht internalisierte kosten enthalten, für die die allgemeinheit aufkommt.
https://de.wikipedia.org/wiki/Externer_Effekt#Negativer_externer_Effekt
daher lohnt sich sich in den meisten fällen eh nicht aufzurüsten, da ausbleibender kauf die umwelt am meisten schont.
das gilt insbesondere für autos, die man einfach auf >30jahre haltbarkeit konstruieren könnte und damit die mit abstand geringste umweltverschmutzung erreichen würde, auch wenn der alte hobel 2l mehr auf 100km braucht.das stimmt nur, wenn jemand dann auf ein produkt verzichten muss. dasselbe mit der pc hardware. das muss man als ganze kette sehen. nicht nur der erstkäufer erzeugt co2.
x-force
2021-04-16, 19:17:45
das stimmt nur, wenn jemand dann auf ein produkt verzichten muss. dasselbe mit der pc hardware. das muss man als ganze kette sehen. nicht nur der erstkäufer erzeugt co2.
was juckt mich co2? man sollte umweltschutz nicht mit klimaerhaltung verwechseln!
davon ab entsteht natürlich nur bei der produktion und dem recycling, sollte es überhaupt stattfinden, bzw der entsorgung eine umweltverschmutzung.
wie stark das benutzen die umwelt verschmutzt, hängt von der art der energieerzeugung ab.
Badesalz
2021-04-16, 22:43:16
@Lehdro
Hast du echt versucht mich totzuquatschen? Und, hats funktioniert? (sorry habs nicht mitgekriegt)
Ja, ich gucke nachher nach dem 2600K und mache den vll als Retro :D einen 3770K habe ich auch da, nen 4790K muss ich erst suchen :freak:Schön. Den 2600k auch mal mit mind. 4.4 laufen lassen. Anders benutzt den eh keiner mehr ;)
@x-force
Eigentlich meinte ich die Folgekosten, falls man auf den Schwachsinn nicht vorbereitet ist. Aber der F wie gesagt ist garnichtmal so schlecht, wenn man bedenkt, was er bringt und das dies noch in 14nm gemacht ist (oder 12nm? ;))
Umwelt... Ich hab mal meinen ersten Beitrag ever geleistet :D Hab mir zum Ende des Jahres ein Lab aus gebrauchter Ware bzw. Abverkauf von uralten Lagerbeständen, eine HomeLab gebaut. 3x "Server" + Workstation. Erledigt wofür es gedacht ist in "feudal".
Als die Sachen zwischen 2014 und 2017 aktuell waren, hätte das alles einen Wert um die 8000€ :usweet: Jetzt hat es nichtmal 1/8 davon gekostet. Mit u.a. so feiner Ware wie 17W und 45W Ivy Xeons...
Ich glaub ich steig aus dem Spielzeuggeschäft komplett aus. Das bockt irgendwie auch nicht mehr, dieser ewige Kampf. Und die Clientel lässt wie ich schon andeutete auch stark zu wünschen übrig. Da fällt schon selbst die gewöhnliche Satzbildung ins Wasser und mit solchen über Prozessortechnik diskutieren? Gra-uen-voll.
Machts gut Jungs.
Thunder99
2021-04-16, 22:50:18
Viele verstehen nicht was u.a. ich mit meiner Kritik sagen wollte. Es geht um der massiven höheren Leistungsaufnahme im Vergleich zur Angabe bzw der TDP Klassen.
Unter Spiele mag das egal sein aber bei Anwendungen schlägt das voll durch. Mag zwar für viele egal sein, sogar feiern sie das. Es sugerriet mehr Performance was sie haben.
Alles theoretisch aber die Auswirkungen hier bei den Anwendern, dennoch aus meiner Sicht nicht gut.
Lehdro
2021-04-16, 23:14:56
@Lehdro
Hast du echt versucht mich totzuquatschen? Und, hats funktioniert? (sorry habs nicht mitgekriegt)
Hm...
Machts gut Jungs.
Anscheinend schon :P
Es sugerriet mehr Performance was sie haben.
Solange dass sich eine selbst verstärkende Spirale ist, fällt dass dem Hersteller irgendwann auf die Füße, spätestens wenn es wirklich nicht tragbar ist: Dieses Mittel zu Performancesteigerung ist dann halt einfach ausgeschöpft, andere Wege müssen gegangen werden. Endlos funktioniert das zumindest mit derzeitigen Mitteln nicht, aber Abhilfe kommt ja mit neuen Nodes und anderen Architekturen.
versus10000
2021-04-17, 00:00:26
Die CPU ist nicht schlecht. Trotz allem würde ich zum 5600x greifen. Klar der ist deutlich teurer, aber man wird später länger was von der CPU haben. Dazu hat man einen Sockel der viel zukunftssicherer ist.
Fakt ist auch das der 5600x teils fixer ist als der Intel.
SKYNET
2021-04-17, 00:42:55
@Lehdro
Hast du echt versucht mich totzuquatschen? Und, hats funktioniert? (sorry habs nicht mitgekriegt)
Schön. Den 2600k auch mal mit mind. 4.4 laufen lassen. Anders benutzt den eh keiner mehr ;)
@x-force
Eigentlich meinte ich die Folgekosten, falls man auf den Schwachsinn nicht vorbereitet ist. Aber der F wie gesagt ist garnichtmal so schlecht, wenn man bedenkt, was er bringt und das dies noch in 14nm gemacht ist (oder 12nm? ;))
Umwelt... Ich hab mal meinen ersten Beitrag ever geleistet :D Hab mir zum Ende des Jahres ein Lab aus gebrauchter Ware bzw. Abverkauf von uralten Lagerbeständen, eine HomeLab gebaut. 3x "Server" + Workstation. Erledigt wofür es gedacht ist in "feudal".
Als die Sachen zwischen 2014 und 2017 aktuell waren, hätte das alles einen Wert um die 8000€ :usweet: Jetzt hat es nichtmal 1/8 davon gekostet. Mit u.a. so feiner Ware wie 17W und 45W Ivy Xeons...
Ich glaub ich steig aus dem Spielzeuggeschäft komplett aus. Das bockt irgendwie auch nicht mehr, dieser ewige Kampf. Und die Clientel lässt wie ich schon andeutete auch stark zu wünschen übrig. Da fällt schon selbst die gewöhnliche Satzbildung ins Wasser und mit solchen über Prozessortechnik diskutieren? Gra-uen-voll.
Machts gut Jungs.
also mein 2600k läuft @ default :tongue:
BlacKi
2021-04-17, 00:47:07
Die CPU ist nicht schlecht. Trotz allem würde ich zum 5600x greifen. Klar der ist deutlich teurer, aber man wird später länger was von der CPU haben. Dazu hat man einen Sockel der viel zukunftssicherer ist.
Fakt ist auch das der 5600x teils fixer ist als der Intel.der sockel ist tot. und der preis liegt deutlich darüber. da würd ich lieber zum 5800x greifen.
arcanum
2021-04-17, 00:56:36
Die CPU ist nicht schlecht. Trotz allem würde ich zum 5600x greifen. Klar der ist deutlich teurer, aber man wird später länger was von der CPU haben. Dazu hat man einen Sockel der viel zukunftssicherer ist.
Fakt ist auch das der 5600x teils fixer ist als der Intel.
der gegner vom 5600x ist der 11700f. mit dem 11400(f) hat der 5600x für >300€ im direkten vergleich gar keine daseinsberechtigung außerhalb von anwendungen. mobo+cpu kosten bei intel schon merklich weniger als der 5600x allein und selbst in full hd liegt der 5600x im schnitt nur im messbaren bereich vor dem 11400(f) und das auch nur weil valorant auf zen3 mit drölftausend fps rennt.
Prinzenrolle
2021-04-17, 08:28:24
tjo, das was man bei der CPU einspart an geld, muss man mehr ins NT & kühler investieren... aber die CPU ist ja billiger als nen 5600X :ulol: X-D
Witzig, Der 5600X leistet ohne Valorant bei CB gerade mal 5% mehr in Spielen.
Der Verbrauch wird in der Regel von der Grafikkarte gedeckelt, da die CPU im GPU Limit kaum Strom verbraucht.
Ein 500 Watt NT reicht spielend dafür aus.
Unlimitiert nimmt sich die CPU in Spielen höchstens 100 Watt, dann muss man aber rein cpu limitiert sein, absoluter worst case.
Ansonsten beziffert sich das auf meinetwegen 20 oder 30 Watt.
Wie soll man 160 Euro hier in Kühler und Netzteil verprassen? Rechne da mal 15 Euro ein. So ein Fanboyquark wiedermal.
Du bezahlst das doppelte für die AMD CPU, für gerade mal 5% mehr Gameperformance....
Man kann sich heutzutage wirklich alles schönreden.
Denniss
2021-04-17, 09:02:01
und unser Forentroll muß sich wieder mal Intel schönsaufen.
rentex
2021-04-17, 09:49:29
Der Sockel AM4 ist am Ende seiner Laufzeit angelangt. Das wäre ein Argument gegen einen aktuellen Wechsel. Wer jetzt ein neues Sys zusammenstellt, sollte das im Hinterkopf behalten.
AM4 ist m.M.n. nicht am Ende, solange man keinen 16Kerner drinnen hat ^^
Da ist Intel weit mehr am Ende, da sie sogar von 10 auf 8 zurück gegangen sind...
Frage an alle 11 Besitzer: Was können die so in 100% AC stabil halten ?
M.f.G. JVC
BlacKi
2021-04-17, 12:24:48
AM4 ist m.M.n. nicht am Ende, solange man keinen 16Kerner drinnen hat ^^
Da ist Intel weit mehr am Ende, da sie sogar von 10 auf 8 zurück gegangen sind...
Frage an alle 11 Besitzer: Was können die so in 100% AC stabil halten ?
M.f.G. JVCzen4 wird nicht auf am4 laufen. kein pcie5.0, kein ddr5. der sockel ist tot. genau wie der aktuelle von intel.
aufkrawall
2021-04-17, 12:31:26
Kannst halt noch auf 16C Zen 3 upgraden. Halte ich allerdings auch nicht für sonderlich realistisch, weil sie noch längere Zeit teuer bleiben bleiben werden (wie auch 12C) und der Gebrauchtmarkt auch sehr klein bleiben dürfte.
Bei RKL wird man ggf. für einen Appel und ein Ei wenigstens von 6 auf 8C aufrüsten können. Insbesondere, falls ADL gut ankommen und verfügbar sein wird.
davidzo
2021-04-17, 14:38:21
Witzig, Der 5600X leistet ohne Valorant bei CB gerade mal 5% mehr in Spielen.
(...)
Du bezahlst das doppelte für die AMD CPU, für gerade mal 5% mehr Gameperformance....
Man kann sich heutzutage wirklich alles schönreden.
geil, dann habe ich mit meinem Gebrauchten 1230 v3 ja ein Riesenschnäppchen gemacht! Der hat nur 40€ gekostet, das ist weniger als in Viertel des 11400F.
Ohne Warzone und Cyberpunk hat der auch nur 30-40% weniger game performance als ein 11400F und meine gtx980 ist da eh meistens schon im GPUlimit.
zen4 wird nicht auf am4 laufen. kein pcie5.0, kein ddr5. der sockel ist tot. genau wie der aktuelle von intel.
Und was ist mit Warhol? Im Gegensatz zu kaby, coffee lake, coffee refresh und comet lake ist das immerhin eine verbesserte architektur und vermutlich mit 6nm sogar eine neue Fertigungsstufe. So ein Upgrade innerhalb eines Sockels hats bei Intel in den letzten sieben Jahren nicht gegeben.
aufkrawall
2021-04-17, 14:59:39
geil, dann habe ich mit meinem Gebrauchten 1230 v3 ja ein Riesenschnäppchen gemacht! Der hat nur 40€ gekostet, das ist weniger als in Viertel des 11400F.
Ohne Warzone und Cyberpunk hat der auch nur 30-40% weniger game performance als ein 11400F und meine gtx980 ist da eh meistens schon im GPUlimit.
Wenn du meinst, dass die Polemik darüber hinweg täuscht, dass der unleashed 11400F in den meisten Spielen im reinen CPU-Limit fast auf 5600X-Niveau ist, muss ich dich leider enttäuschen.
BlacKi
2021-04-17, 15:23:18
Und was ist mit Warhol? Im Gegensatz zu kaby, coffee lake, coffee refresh und comet lake ist das immerhin eine verbesserte architektur und vermutlich mit 6nm sogar eine neue Fertigungsstufe. So ein Upgrade innerhalb eines Sockels hats bei Intel in den letzten sieben Jahren nicht gegeben.
fertig mit deinem bashing? ja? sehr schön. denn ich hab dem gesagten nichts hinzuzufügen.
Ich plane schon damit, irgendwann mal einen 16Kerner günstig hinein zu klemmen...
8Kerne hab ich jetzt... also noch gut Luft zum Aufrüsten auf AM4 ;)
Verrückt, ich kenn keinen der sich nen 11Intel gekauft hat...
Was schaffen die jetzt so bei 100% AC ? 5Ghz 5,2 ? ...
M.f.G. JVC
arcanum
2021-04-17, 17:02:50
laut reviewern der ungecappte maximale takt auf allen kernen:
11400 - 4,2ghz
11600k - 4,6ghz
11700 - 4,4ghz
11700k - 4,6ghz
update: übersicht mit allen modellen:
https://www.guru3d.com/articles-pages/intel-core-i5-11400f-processor-review,2.html#:~:text=Its%20Base%20%2F%20Turbo%20frequency%20is,support%2C%20and %20a%20125W%20TDP.
MiamiNice
2021-04-17, 17:57:03
Ich kenne auch keinen der sich einen RKL gekauft hat. Alle warten auf ADL oder den Nachfolger. Selbst den besseren Zen3 will keiner mehr weil die Plattform tot ist.
Hardware ist gerade derart uninteressant wie schon lange nicht mehr.
Ich halte auch erst mal bis Raptor Lake die Füße still.
aufkrawall
2021-04-17, 18:07:17
Ja, für CML/CFL-Besitzer ist RKL völlig uninteressant. So weit waren wir schon Monate vor Eröffnung dieses Threads, Glückwunsch zu dieser erneuten scharfsinnigen Schlussfolgerung nun auch zu diesem Zeitpunkt. :freak:
Anderes Beispiel: Legion läuft mit NV-GPU + Zen 1/+ wie kompletter Müll. Mit dem 11400F bekommt man das durch Verkauf der alten Hardware für fast kein Geld anständig ans Laufen. Wer so eine Aufrüst-Faulheit bei so geringen Ausgaben an den Tag legt, hat die Rückelorgie auch nicht anders verdient. :cool:
Edit: Sieht man hier auch ganz gut: https://youtu.be/jirbVlc82Lc?t=119
89fps 1% low mit 11400F unleashed vs. 71fps mit R5 3600 OC (bei vermutlich 3433 vs. 3600 RAM). Wo Zen 1/+ liegen muss, kann man sich dann denken.
Prinzenrolle
2021-04-17, 19:30:32
geil, dann habe ich mit meinem Gebrauchten 1230 v3 ja ein Riesenschnäppchen gemacht!
Ein uralter Haswell Prozessor mit ganzen 8 Threads.
Nicht mal halb so schnell, würde ich nicht mehr als 20 Euro für bezahlen.
Ohne Warzone und Cyberpunk hat der auch nur 30-40% weniger game performance als ein 11400F und meine gtx980 ist da eh meistens schon im GPUlimit.
Polemisieren bis der Arzt kommt.
https://abload.de/img/wdwd92kc8.png
Es ist eine Tatsache, dass man für ~ 5600x Gaming Performance bei Intel im Moment einfach 160 Euro weniger zahlt.
Bisschen RAM Tuning und man erreicht fast nen stock 5800x.
SKYNET
2021-04-17, 19:34:10
Ja, für CML/CFL-Besitzer ist RKL völlig uninteressant. So weit waren wir schon Monate vor Eröffnung dieses Threads, Glückwunsch zu dieser erneuten scharfsinnigen Schlussfolgerung nun auch zu diesem Zeitpunkt. :freak:
Anderes Beispiel: Legion läuft mit NV-GPU + Zen 1/+ wie kompletter Müll. Mit dem 11400F bekommt man das durch Verkauf der alten Hardware für fast kein Geld anständig ans Laufen. Wer so eine Aufrüst-Faulheit bei so geringen Ausgaben an den Tag legt, hat die Rückelorgie auch nicht anders verdient. :cool:
Edit: Sieht man hier auch ganz gut: https://youtu.be/jirbVlc82Lc?t=119
89fps 1% low mit 11400F unleashed vs. 71fps mit R5 3600 OC (bei vermutlich 3433 vs. 3600 RAM). Wo Zen 1/+ liegen muss, kann man sich dann denken.
auch geil, 3600 auf 4.3GHz genagelt... also meiner boostet ja schon auf 4550 :freak: oder anders gesagt: klasse, ne untertaktete CPU zu benchen :ulol:
aufkrawall
2021-04-17, 19:36:49
auch geil, 3600 auf 4.3GHz genagelt... also meiner boostet ja schon auf 4550 :freak: oder anders gesagt: klasse, ne untertaktete CPU zu benchen :ulol:
Bei zig 3600er der ersten Produktionsmonate kann man von 4,3 Allcore nur träumen. Ist dir eigentlich gar nichts zu blöd? Kommt dann gleich wieder die Weltrekord-Platte mit Sprung, die schon beim ersten Mal niemand hören wollte?
Prinzenrolle
2021-04-17, 19:43:19
Mit 4,3Ghz ac ist der 3600er also "untertaktet"? Interessant.
Da lebt einer in ner Parallelwelt.
x-force
2021-04-17, 19:53:40
Ist dir eigentlich gar nichts zu blöd? Kommt dann gleich wieder die Weltrekord-Platte mit Sprung, die schon beim ersten Mal niemand hören wollte?
Da lebt einer in ner Parallelwelt.
seid doch froh, daß ihr nichts kompensieren müsst :wink:
wenns zu sehr nervt, gibts ja noch die ignore.
w0mbat
2021-04-17, 22:13:20
Ein uralter Haswell Prozessor mit ganzen 8 Threads.
Nicht mal halb so schnell, würde ich nicht mehr als 20 Euro für bezahlen.
Polemisieren bis der Arzt kommt.
https://abload.de/img/wdwd92kc8.png
Es ist eine Tatsache, dass man für ~ 5600x Gaming Performance bei Intel im Moment einfach 160 Euro weniger zahlt.
Bisschen RAM Tuning und man erreicht fast nen stock 5800x.
Bisschen RAM Tuning beim 5800X und die lahmen Intel CPUs sehen nur die Rücklichter ;D
Was ich auch geil finde ist, dass du Spiele die auf Zen3 sehr gut laufen einfach nicht werten willst. Das ist schon Realitätsverweigerung. Bist du Querdenker? :freak:
BlacKi
2021-04-17, 22:22:19
^
wenns zu sehr nervt, gibts ja noch die ignore.gegen eine echt ignore funktion hätte ich echt nichts. aber so?
Bisschen RAM Tuning beim 5800X und die lahmen Intel CPUs sehen nur die Rücklichter
Was ich auch geil finde ist, dass du Spiele die auf Zen3 sehr gut laufen einfach nicht werten willst. Das ist schon Realitätsverweigerung. Bist du Querdenker?
mit welcher cpu reichen die fps nicht? imho sollte csgo selbst in esport titeln nichtmehr enthalten sein um eine cpu performance bewertung negativ zu beeinflussen. oder reichen dir 300fps nichtmehr?^^
SKYNET
2021-04-17, 23:23:00
Bei zig 3600er der ersten Produktionsmonate kann man von 4,3 Allcore nur träumen. Ist dir eigentlich gar nichts zu blöd? Kommt dann gleich wieder die Weltrekord-Platte mit Sprung, die schon beim ersten Mal niemand hören wollte?
ja, und bei intel kann man nur davon träumen ne CPU zu bekommen die nicht soviel wie ne graka säuft :ulol:
btw. meiner ist aus der ersten charge :freak:
robbitop
2021-04-18, 08:27:50
Es gab doch genug reviews, die zeigen dass der 11400 die im Moment beste P/L CPU für gaming ist. Ich verstehe die Diskussion nicht.
Für 160€ muss man zugeben, dass das eine interessante cpu ist. Ja ein paar % langsamer als der 5600x - aber kostet nur die hälfte. Wer jetzt eine CPU braucht und primär zockt und auf P/L achtet ist das eigentlich ein no brainer.
Wer auf CFL oder Zen (oder neuer) sitzt braucht aber aktuell auch für Spiele nicht wirklich aufzurüsten. Entsprechend interessant für Haswell/Sandy/Bulldozer Besitzer. Leute die jetzt aufrüsten wollen.
Ram Timings kann man dich sicherlich auf allen Plattformen tunen.
Für mehr als 6 oder 8 Kerne ist Zen 3 wieder vom P/L besser aufgestellt.
Was die Plattform angeht. Ja 16C ist ein upgradepfad. Aber wahrscheinlich ist es so, dass wenn man upgraden muss in 4-5 Jahren, man mit einer neuen Plattform ohnehin besser fahren wird. Entsprechend ist diese Option IMO nicht so stark zu gewichten. Die Performance wird dann einfach pro Kern wesentlich besser sein. Man schaue sich mal heute einen Threadripper 1 an und setze ihn gegen Zen3. Der wird auseinander genommen.
Prinzenrolle
2021-04-18, 10:29:45
Was ich auch geil finde ist, dass du Spiele die auf Zen3 sehr gut laufen einfach nicht werten willst. Das ist schon Realitätsverweigerung. Bist du Querdenker? :freak:
Spiele? Ein Spiel von 10. Warum sollte man ein Spiel mit 1000 FPS werten? Wer ist hier der Querdenker? 😂
robbitop
2021-04-18, 10:50:45
Naja 1 von 10 Spielen sollte mit einer Gewichtung von 10% gewichtet werden wenn man objektiv bleiben will. Man kann statt einem einfachen Mittelwert aber auch den Median wählen oder das geometrische Mittel um Ausreißer etwas unterzugewichten. Und natürlich: je mehr Spiele im Parcours, desto mehr Substanz für das Gesamtergebnis. Auch da sind einzelne Ausreißer weniger relevant.
Allerdings muss man die Ergebnisse pro Spiel auf jeweils 1 normieren wenn man einen sinnvollen Mittelwert berechnen will. Es gibt ja Spezialisten die den Durchschnitt von den fps mehrer Spiele nehmen. Spiele mit hohen fps (zb cs:go) würden dann unsinnigerweise höher gewichtet werden als welche mit niedrigen fps (zb cyberpunk). Das wäre natürlich Unsinn.
MiamiNice
2021-04-18, 11:01:03
Wer ist hier der Querdenker?
Dir ist aber schon bewusst das Querdenker etwas positives ist und nur Medienopfer das Wort so dämlich in den Mund nehmen?
w0mbat
2021-04-18, 12:08:58
Früher war es was positives, heute ist es da nicht mehr.
Distroia
2021-04-18, 12:46:15
Es gab doch genug reviews, die zeigen dass der 11400 die im Moment beste P/L CPU für gaming ist. Ich verstehe die Diskussion nicht.
Für 160€ muss man zugeben, dass das eine interessante cpu ist. Ja ein paar % langsamer als der 5600x - aber kostet nur die hälfte. Wer jetzt eine CPU braucht und primär zockt und auf P/L achtet ist das eigentlich ein no brainer.
Ich finde es auch unnötig, sich darüber zu steiten. Heute braucht man eben nicht mehr viel Geld für eine CPU auszugeben, wenn man nur damit Spielen will, weil sich die Performance kaum noch unterscheidet. Wenn jemand auf die letzten paar Prozent verzichten kann und viel Geld sparen will, sind die billigen Intel CPUs daher eine gute Wahl. Wenn man Leistung für Multithreading braucht, muss man investieren.
Vor ein paar Jahren galt als Argument für AMD, dass man ähnliche bzw. ausreichende Leistung für viel weniger Geld haben kann. Heute gilt das selbe für Intel, die Rollen sind vertauscht. Damit kann AMD gut leben. TSMC kann sowieso nicht genug produzieren, warum sollte AMD dann also unbedingt mit den billigen CPUs von Intel konkurrieren, wenn man die Waferkapazität statt dessen in teure Produkte investieren kann? Wer nicht viel Geld investieren, kauft heutzutage eben Intel. ;D
BlacKi
2021-04-18, 12:54:17
Dir ist aber schon bewusst das Querdenker etwas positives ist und nur Medienopfer das Wort so dämlich in den Mund nehmen?das ist so nicht richtig. man war aber tolerant gegenüber querdenkenden. da hat sich geändert, als die querdenker plötzlich ihr denken über das von anderen gestellt haben. mal davon abgesehen, das einfach das gegenteil zu behaupten weil man etwas nicht will, kein querdenken ist.
MiamiNice
2021-04-18, 13:18:50
Da hätte ich doch deutlich mehr Kompetenz erwartet. Aber was schreib ich das überhaupt, bin selbst in anderen Dingen kein Stück besser. :biggrin:
Ich finde es auch unnötig, sich darüber zu steiten. Heute braucht man eben nicht mehr viel Geld für eine CPU auszugeben, wenn man nur damit Spielen will, weil sich die Performance kaum noch unterscheidet. Wenn jemand auf die letzten paar Prozent verzichten kann und viel Geld sparen will, sind die billigen Intel CPUs daher eine gute Wahl. Wenn man Leistung für Multithreading braucht, muss man investieren.
Das würde ich so unterschreiben.
Ich persönlich finde die Diskussionen der letzten Seiten relativ schwach. Als ob sich noch irgendwer um RKL oder Zen3 schert. Das ist alles Kram von gestern. Man streitet sich quasi welche Plattform sinnloser ist :freak:
aufkrawall
2021-04-18, 13:41:19
Putziges Argument, als ob bei Intel in der Vergangenheit die Plattform irgendeine Langlebigkeit gehabt hätte. :freak:
Skysnake
2021-04-18, 14:06:08
Also die "Plattformen" sind doch an sich langlebig wie nie. So lange man keinen Defekt hat muss man doch eigentlich nicht mehr updaten, oder kann sich was gebrauchtes kaufen.
Früher war der Druck zu wechseln ja echt da, weil es über nutzbar und nicht nutzbar entschieden hat. Aber wenn ich heute ne pcie4 nvme habe, werde ich keinen Unterschied zu 5 spüren. Und so geht es doch mit allen möglichen Bereichen gerade weiter.
Wer nicht heute schon quasi das schnellste kauft, der hat auch keinen echten Bedarf und wird auch nicht aufrüsten müssen.
MiamiNice
2021-04-18, 17:24:02
Putziges Argument, als ob bei Intel in der Vergangenheit die Plattform irgendeine Langlebigkeit gehabt hätte. :freak:
Wer sprach von Langlebigkeit?
Ich bezog mich eher auf die technischen Aspekte.
aufkrawall
2021-04-18, 17:55:23
Und ich dachte schon, du erfindest einen opportunistischen Aspekt, um das Produkt allgemein für unsinnig erklären zu können, weil es dir persönlich nichts bringt. Mensch, da lag ich ja völlig falsch.
MiamiNice
2021-04-18, 18:01:39
Da suhlt sich aber einer im Sarkasmustrog ;)
arcanum
2021-04-18, 18:22:47
habe jetzt ein wenig zeit in den 11700 investiert:
@bios default ddr4-2666 braucht der rechner ~60w bei 12.x watt package power im idle
@tdp 288w (leider lässt das msi-board keine genaue einstellung zu sondern hat nur 3 presets), 102,9 mhz bclk und ddr4@3574mhz sind es 15.x watt package power und ~65w idle
ich habe nur time spy extreme zum vergleich laufen lassen und dort hat sich durch die neuen einstellungen die average simulation time von 85,7ms auf 60,6ms reduziert. cpu temp hatte ich nicht im blick, da eine aio drauf sitzt und die temps selten 60°c überschreiten.
nur zum vergleich: mein 8700k @4.7ghz all core und ddr4@4000mhz kam auf 93ms und hat im idle-betrieb mit mining-config (alles auf minimum) ~50w bei <10w package power verbraten (allerdings mit einer 3080, bei wechsel auf eine 3090 habe ich nicht mehr den idle-verbrauch geprüft).
bin mit dem performance-sprung insgesamt sehr zufrieden, auch wenn der 8700k noch ausgereicht hätte aber allein wegen dem neuen feature set und zwei zusätzlichen kernen hat sich der wechsel gelohnt. den aufpreis gegenüber dem 11400 hingegen finde ich recht unverschämt.
eine sache auf die man unbedingt achten sollte: wenn man die voltages auf auto lässt und den speicher übertaktet gibt das msi bei mir z.b. 1.45/1.55v auf vccsa/vccio obwohl jeweils 0,2v weniger ausreichen. die beiden einstellungen haben bei meinem alten 8700k mit board-defaults drastisch die temperatur erhöht und zu instabilitäten geführt.
aufkrawall
2021-04-20, 12:47:58
eine sache auf die man unbedingt achten sollte: wenn man die voltages auf auto lässt und den speicher übertaktet gibt das msi bei mir z.b. 1.45/1.55v auf vccsa/vccio obwohl jeweils 0,2v weniger ausreichen. die beiden einstellungen haben bei meinem alten 8700k mit board-defaults drastisch die temperatur erhöht und zu instabilitäten geführt.
wtf, die spinnen doch. :freak:
Mit dem B560 Pro4 sind es mit XMP jeweils 1,35V. Ich hatte schon mal versucht, mit höheren Spannungen 3733 Gear 1 zu fahren, aber da war nichts zu machen.
Ex3cut3r
2021-04-20, 14:16:49
Also ich finde momentan die beste P/L CPU bei Intel, den hier:
https://geizhals.de/intel-core-i9-10850k-bx8070110850k-a2341363.html
Wer sich da einen 11er 8C/16T kauf, ist einfach nur......
vorallem, da er in Spielen gleich schnell ist, und mit DDR4 RAM Tuning sogar noch schneller wird, und 2C/4T mehr hat. Für die 11er Serie sehe keinen Sinn. Außer für den 6C/12T.
BlacKi
2021-04-20, 15:17:08
Also ich finde momentan die beste P/L CPU bei Intel, den hier:
https://geizhals.de/intel-core-i9-10850k-bx8070110850k-a2341363.html
Wer sich da einen 11er 8C/16T kauf, ist einfach nur......
vorallem, da er in Spielen gleich schnell ist, und mit DDR4 RAM Tuning sogar noch schneller wird, und 2C/4T mehr hat. Für die 11er Serie sehe keinen Sinn. Außer für den 6C/12T.sehe ich anders. ein 11700f ausgemaxt performt sicher gleich, ist aber etwas billiger.
robbitop
2021-04-20, 15:54:45
Der 11700F ist ~25% teurer als der 10700F. Wenn man beide ausmaxt (ram tuning etc), wird die Differenz in Spielen wohl nur 10-15% sein. Aber dennoch würde ich dann wohl eher den 11700F nehmen - auch wenn das P/L ein bisschen schlechter ist.
An das P/L vom 11400F kommt aber im Moment wirklich gar nichts ran.
arcanum
2021-04-20, 16:06:12
Also ich finde momentan die beste P/L CPU bei Intel, den hier:
https://geizhals.de/intel-core-i9-10850k-bx8070110850k-a2341363.html
Wer sich da einen 11er 8C/16T kauf, ist einfach nur......
vorallem, da er in Spielen gleich schnell ist, und mit DDR4 RAM Tuning sogar noch schneller wird, und 2C/4T mehr hat. Für die 11er Serie sehe keinen Sinn. Außer für den 6C/12T.
mag sein aber mein speicher ist keine rakete und meine grenze für cpus mit der ich seit 10 jahren gut fahre liegt bei ~300€ (der 11700 hat 320€ nach cashback gekostet). aus performance-sicht war das upgrade gar nicht nötig aber meine beiden letzten configs haben so lange gehalten dass sie irgendwann langweilig wurden (6 jahre 2600k für 200€, 3,5 jahre 8700k für 310€). hätte amd einen zen3 8-kerner für 300€ im programm wäre die config schon lange verbaut. andere warten ja lieber auf einen vermeintlichen preisverfall der wahrscheinlich erst dann eintritt, wenn schon die nächste generation vor der tür steht.
um einen merklichen performance-vorteil mit dem 10850 zu haben hätte ich für speicher-tausch und cpu über 100€ zusätzlich investieren müssen und wäre da schon wieder besser mit dem 5800x bedient. außerdem wird meine oem samsung 980 pro nicht mehr vom bus gebremst. mit dem 10850 würde es mich nerven, auch wenn es praktisch keinen großen unterschied gibt und bevor >8 cores beim spielen in wqhd/4k ein thema werden habe ich die plattform eh schon 2x gewechselt.
Ex3cut3r
2021-04-20, 16:40:34
Und bevor >6 Cores beim spielen in wqhd/4k ein Thema werden habe ich die Plattform eh schon 2x gewechselt.
Habs mal verbessert. :wink:
Naja. Ich sehe das immer noch anders, aber gut. Viel Spaß wünsche ich trotzdem. :)
davidzo
2021-04-20, 16:45:51
eine sache auf die man unbedingt achten sollte: wenn man die voltages auf auto lässt und den speicher übertaktet gibt das msi bei mir z.b. 1.45/1.55v auf vccsa/vccio obwohl jeweils 0,2v weniger ausreichen. die beiden einstellungen haben bei meinem alten 8700k mit board-defaults drastisch die temperatur erhöht und zu instabilitäten geführt.
Völlig kaputtkonfigurierte Standardsettings und brandgefährliche "auto_OC"-Settings sind leider mittleweile normal.
Habe neulich bei einem Kumpel mal die Biossettings überprüft weil sein Ryzen 3600 im Turbo nie über 3,8Ghz ging.
Das einzige was er im BIOS gemacht hatte war das DOCP Profil seines 3200er Rams zu laden.
Das hat dazu geführt dass sein Asus ROG strix B450 “intelligent automatic overclocking" stufe 1 aktiviert hat.
Das bedeutet einen Fixen allcore Takt von 3800mhz, 1,4Volt auf die CPU und 1,45 auf den RAM :freak:
Totale Schrott-settings. Damit lief die CPU bereits seit einem Jahr und viel heißer und langsamer als im Default Zustand.
Btw, das DOCP Profil betreibt den Gskill 3200C16 RAM nicht mit den echten Timings von cl16 sondern 19. Man muss also mit CPU-Z nachschauen was die XMP timings sind und die dann im Bios laden, was auch stabil läuft, aber WTF GSkill, WTF Asus?
Btw OT: können sich die Ram und Mobo Hersteller eigentlich mal einigen einheitliche Bezeichnungen für Haupttimings und Subtimings zu verwenden? Die Bezeichung und Reihenfolge der Subtimings ist im BIOS einfach anders als auf den herstellerseiten, zudem gibt selten ein Hersteller detailliertere werde als die ersten vier an. Dadurch ist das einstellen wirklich trial and error (bootet noch?), selbst wenn man nich OCen möchte, sondern lediglich nach Spec betreiben.
Alleine das Zurücksetzen auf default CPU Turbo ( bis 4,2Ghz) und die Ram Timings haben bei ihm 10% Mehrleistung in CB R20 gebracht (478 statt 429 Punkte ST).
Why Asus/MSI, why?:facepalm:
Ich hatte gedacht dass das nur ein problem der AMD boards ist und bei Intel zwar stromfressende aber weitestgehend performancerechisch sinnvolle standardsettings verwendet werden. Aber wenn ich mir anhöre was arcanum so sagt ist das bei intel wohl leider auch nicht viel besser. Manchmal wünsche ich mir die alten Intel OEM boards zurück. Wahrscheinlich ist es das sinnvollste einen bogen um den ganzen gaming crap zu machen und ein low end Büro-board zu holen bei dem settings stimmen, idleverbrauch gut ist und die performance auch nicht schlechter ist. OC ist sowieso nicht mehr lohnenswert und Ramtimings kannst du auch auf den meisten Basic boards einstellen.
BlacKi
2021-04-20, 18:06:02
Der 11700F ist ~25% teurer als der 10700F. Wenn man beide ausmaxt (ram tuning etc), wird die Differenz in Spielen wohl nur 10-15% sein. Aber dennoch würde ich dann wohl eher den 11700F nehmen - auch wenn das P/L ein bisschen schlechter ist.
An das P/L vom 11400F kommt aber im Moment wirklich gar nichts ran.ich hab vergessen zu erwähnen das man nun endlich pcie 4.0 hat:wink: mal von allen K versionen und dem i9 ist rkl eigentlich doch die bessere wahl. ich würde noch gerne von arcanum wissen welchen takt der 11700 ohne k denn in spielen ausgemaxt hält. und bitte nicht in timespy.
arcanum
2021-04-20, 18:11:52
ich hab vergessen zu erwähnen das man nun endlich pcie 4.0 hat:wink: mal von allen K versionen und dem i9 ist rkl eigentlich doch die bessere wahl. ich würde noch gerne von arcanum wissen welchen takt der 11700 ohne k denn in spielen ausgemaxt hält. und bitte nicht in timespy.
default ist 4,4ghz ohne tdp limit. meiner läuft mittels bclk@102,9mhz stabil mit ~4527mhz ohne tdp limit.
VooDoo7mx
2021-04-21, 00:09:04
Mich würde mal ein undervolting Test interessieren. Also inwieweit man bei Stock allCore 4,4GHz die Spannung senken und Strom sparen kann. Ich hab da so ein Gefühl das da einiges möglich ist. :)
aufkrawall
2021-04-21, 00:29:22
Wird hier mit Offset schnell instabil und fixed Vcore erhöht den Idle-Verbrauch um 5W. 1080mV fixed waren für den 11400F schon mal nicht stabil...
y33H@
2021-04-21, 12:30:59
Ich hab den 11400F auch fertig, schon krass was 65W vs volle Pulle ausmacht :eek:
https://www.golem.de/news/core-i5-11400f-im-test-intels-preisleistungsrakete-2104-155827.html
aufkrawall
2021-04-21, 12:41:40
Durch das knappe Angebot gehen die Preise schon hoch, und CB hatten völlig weltfremd mit fallenden Preisen spekuliert. ;D
Ich hab den 11400F auch fertig, schon krass was 65W vs volle Pulle ausmacht :eek:
https://www.golem.de/news/core-i5-11400f-im-test-intels-preisleistungsrakete-2104-155827.html
"...und in Prime95 235 Watt" Das ist schon fett für einen 6-Kerner...
Ich kann nur ~165Watt in meinen 5800X Pumpen, dann liegen aber etwas andere Taktraten als in deinem Test an ;)
M.f.G. JVC
y33H@
2021-04-21, 14:48:34
Du weißt doch gar nicht welche Taktraten bei mir anliegen ... ob 142W (PPT) oder 165W reißen es nun wahrlich nicht raus bei einem 5800X.
Zergra
2021-04-21, 19:15:30
In welchem Leistungsbereich liegt eig die iGPU im 11400?
SavageX
2021-04-22, 11:08:55
In welchem Leistungsbereich liegt eig die iGPU im 11400?
Gemäß https://www.youtube.com/watch?v=dNh4yxH5OqM in der Liga einer Vega 3 IGP. Wobei man dem vergleichsgetesteten Athlon 3000g einen großen CPU-Rückstand attestieren muss.
Zergra
2021-04-22, 12:05:09
Ah danke, die 750 aus dem 11500 wäre dann die bessere Wahl mit 32EU statt 24.
dildo4u
2021-04-22, 12:11:53
Hängt von den Games ab ob sie was taugt es gibt teilweise Ausfälle wie CSGO.
https://youtu.be/2H1B7ibjJZg?t=730
Zergra
2021-04-22, 12:17:10
Geht mir eher um Office und ab und an mal ein 4K Film.
Wirklich spielen werde ich da nicht drauf.
Leider gibt es bei AMD keine brauchbaren Boards mit 3x PCIe M.2 und zwei Monitor Anschlüssen. Daher fällt eine AMD Apu raus.
Da ist bei Intel die Auswahl viel größer.
dildo4u
2021-04-22, 12:18:40
Dann bringen dir die zusätzlichen EUs nix.
Zergra
2021-04-22, 12:22:46
Stimmt schon, aber bei einem Aufpreis von 20€, denkt man zumindest darüber nach.
SKYNET
2021-04-22, 13:28:47
Geht mir eher um Office und ab und an mal ein 4K Film.
Wirklich spielen werde ich da nicht drauf.
Leider gibt es bei AMD keine brauchbaren Boards mit 3x PCIe M.2 und zwei Monitor Anschlüssen. Daher fällt eine AMD Apu raus.
Da ist bei Intel die Auswahl viel größer.
was will man mit 3x NVMe?
aufkrawall
2021-04-22, 13:30:07
Sie anschließen, wenn man sie im Besitz hat?
Zergra
2021-04-22, 13:35:27
Habe ich jetzt auch am laufen auf meinem X570 Unify, da werde ich definitiv nicht abspecken.
Loeschzwerg
2021-04-22, 13:38:08
Also ich habe mir heute den 11500 bestellt, eben weil der Unterschied zum 11400 nur so gering ist ^^ Dazu das günstigste B560 Brett von AsRock.
Complicated
2021-04-22, 17:38:35
Leider gibt es bei AMD keine brauchbaren Boards mit 3x PCIe M.2 und zwei Monitor Anschlüssen. Daher fällt eine AMD Apu raus.
Da ist bei Intel die Auswahl viel größer.
Ich nutze nur noch DP-Daisychain für Multimonitor. Monitor ohne DP out kommt mir nicht mehr in Haus, da muss ich nicht mehr am Mainboard die Selektion zu dem Feature machen, das ich über den Monitor lösen kann.
Zergra
2021-04-22, 19:54:00
Ich nutze nur noch DP-Daisychain für Multimonitor. Monitor ohne DP out kommt mir nicht mehr in Haus, da muss ich nicht mehr am Mainboard die Selektion zu dem Feature machen, das ich über den Monitor lösen kann.
Mein Board hat aber keinen einzigen Display Anschluss... deswegen brauch ich eh ein anderes. Und mit 3x M.2 ist die Auswahl bei AMD sehr spärlich, bei Intel bekommt man das Bereits ab 120€. Bei AMD ist man locker 200€ und mehr, solange man nicht auf eine Adapter Karte zurück greifen möchte.
Dazu lass ich eben ab und an damit einen Film auf dem Fernseher laufen, und der LG Oled hat eben kein DP.
Dr. Lloyd
2021-04-27, 19:12:37
Den Intel Core i5-11600K gibt's gerade bei Mindfactory als Mindstar-Angebot für 239,- €: https://www.mindfactory.de/Highlights/MindStar
Fetza
2021-04-28, 01:32:22
Ich versuche gerade über Rocket Lake Videos zu enkodieren, bzw. zu streamen. Streamlabs OBS zeigt mir allerdings keine Quicksync Option an.
Ich habe mein Problem mal hier geschildert:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12664549#post12664549
Falls jemand eine Lösung wissen sollte, bitte immer her damit. :)
https://www.pcgameshardware.de/Core-i5-11400F-CPU-277380/Tests/Benchmark-Review-1370655/
SKYNET
2021-04-28, 11:13:50
Mein Board hat aber keinen einzigen Display Anschluss... deswegen brauch ich eh ein anderes. Und mit 3x M.2 ist die Auswahl bei AMD sehr spärlich, bei Intel bekommt man das Bereits ab 120€. Bei AMD ist man locker 200€ und mehr, solange man nicht auf eine Adapter Karte zurück greifen möchte.
.
dafür hast bei AMD 2x mit 4.0 angebunden, bei intel nur 1x und der rest läuft über den chipsatz... heisst bei grossen daten schieben kotzt die intelkrücke aus dem letzten loch, wärend du bei AMD noch datenraten hast wovon jeder intel träumt.
Zergra
2021-04-28, 11:41:12
Naja, Intel hat den Chipsatz auch mittlerweile mit 8x PCIe 3.0 angebunden. Ja man hat zwei SSDs nur mit PCIe 3.0 angebunden.
Und ist das wirklich interessant? Mir ist das total egal, habe meine Samsung 970 Evo / Evo Plus und Pro ja bereits, und die minimale Geschwindigkeit die man durch PCIe 4.0 gewinnt interessiert mich nicht. Dazu hat man bei Intel keinen nervigen Chipsatz Lüfter (das X570 Unify, war da leise).
Grundsätzlich bietet Intel im 150-200€ Bereich das bessere Gesamtpaket.
3* M.2 Mainboards ab 120€, bei AMD sind da eher 260€ notwendig. Die B550 sind da bei AMD keine Option. Und auch bei den CPUs ist Intel in dem Preisbereich die bessere Wahl.
Hatte selbst einen 5600X und der ist den Aufpreis zum 11400F definitiv nicht Wert.
WedgeAntilles
2021-04-28, 11:54:29
dafür hast bei AMD 2x mit 4.0 angebunden, bei intel nur 1x und der rest läuft über den chipsatz... heisst bei grossen daten schieben kotzt die intelkrücke aus dem letzten loch, wärend du bei AMD noch datenraten hast wovon jeder intel träumt.
Hat zwar mit der Praxis 0 zu tun, aber hey, mach dir nix draus.
BlacKi
2021-04-28, 12:38:27
https://www.pcgameshardware.de/Core-i5-11400F-CPU-277380/Tests/Benchmark-Review-1370655/
https://abload.de/img/ocybk26.png
sulak
2021-04-28, 13:28:20
Fazit: Säuft wie ein Loch, ein 10600KF bringt im OC mehr und kostet nur 20€ mehr.
Fetza
2021-04-28, 21:27:22
Fazit: Säuft wie ein Loch, ein 10600KF bringt im OC mehr und kostet nur 20€ mehr.
Die Aussage ist so Quatsch, es kommt immer auf die Einstellungen an. Mein 11400er bekommt maximal 125 Watt durch das Bios zugesprochen und das hält er auch durchgängig ein. Die Leistung ist grandios, fast doppelt so schnell wie mein Devils Canyon in Cinebench. Das Rocket Lake bis zum abwinken Strom ziehen kann, wenn man ihn lässt, ist doch hinlänglich bekannt.
Rocket Lake hingegen zu übertakten ist eine ziemlich unsinnige Angelegenheit, die Ausrüstung die man dafür braucht macht die Plattform preislich völlig uninteressant (dabei gehe ich jetzt natürlich davon aus, dass man nicht schon entsprechende Ausrüstung zu Hause rumliegen hat).
Mein 11400er bleibt dagegen (im 125 Watt) Modus bei 80 Grad stabil unter Volllast - und das mit einem 20 Euro Kühler (ok viele Gehäuselüfter habe ich im Case).
Wenn ich erst groß mit teurer Kühlung anfangen wollte würde ich mir nie im Leben einen Rocket Lake in den Rechner stecken - dann gäbe es gleich Zen 3 mit 12 oder 16 Kernen.
Wenn man sich anschaut was man mit hochtaktendem RAM aus einer 160 Euro CPU an Leistung so herausbekommt, dann das ist schon beeindruckend.
robbitop
2021-04-29, 09:48:28
Ja RKL ist mit diesem Produkt (11400) aus P/L Sicht für Gamer im Moment nicht zu schlagen. Die CPU ist einfach sehr günstig und die B560 Plattform ist preislich diesmal auch in Ordnung.
In den oberen Preisrängen hingegen ist RKL nicht mehr attraktiv. Schade, dass es keinen budget 8C gibt, der 8/6 (bzw 33%) teurer ist. Also 215-220 €. Bei 8C ist der 10700 fast interessanter.
Im oberen Bereich ist Zen 3 die bessere Wahl. Im mittleren und unteren ist er halt teurer.
Muss am Ende jeder selbst wissen. IMO sind die Differenzen in der Leistungsaufnahme nahezu irrelevant im Alltag mit Blick auf die Stromrechnung.
SKYNET
2021-04-29, 10:27:37
Ja RKL ist mit diesem Produkt (11400) aus P/L Sicht für Gamer im Moment nicht zu schlagen. Die CPU ist einfach sehr günstig und die B560 Plattform ist preislich diesmal auch in Ordnung.
In den oberen Preisrängen hingegen ist RKL nicht mehr attraktiv. Schade, dass es keinen budget 8C gibt, der 8/6 (bzw 33%) teurer ist. Also 215-220 €. Bei 8C ist der 10700 fast interessanter.
Im oberen Bereich ist Zen 3 die bessere Wahl. Im mittleren und unteren ist er halt teurer.
Muss am Ende jeder selbst wissen. IMO sind die Differenzen in der Leistungsaufnahme nahezu irrelevant im Alltag mit Blick auf die Stromrechnung.
war mal anders... im unteren segment AMD erste wahl... nun ist intel der billigheimer... und werden sie wohl auch die kommenden 18 monate bleiben ;D
Zergra
2021-04-29, 11:13:19
Stimmt, AMD bietet dort einfach nix aktuelles... die Preise der Vorgänger sind dort gut angestiegen. Bei 325€ für den 5600X oder eben 160€ für den 11400F, da ist Intel definitiv die bessere Wahl. Bei 8C + siehts natürlich anders aus.
r3ptil3
2021-04-29, 11:36:06
Den 10700f gibt's für 260 Euro.
Mit ein bisschen Aufwand im BIOS und anständigem RAM, bekommt man damit fast alles was man braucht, egal für welche GPU (RTX 3060 oder 3090).
fondness
2021-04-29, 12:51:44
war mal anders... im unteren segment AMD erste wahl... nun ist intel der billigheimer... und werden sie wohl auch die kommenden 18 monate bleiben ;D
Naja,sobald AMD genug Wafer bekommt, wird auch wieder einen 5700X 8 Core und einen 5600 nonX geben. Die Frage ist halt nur wann das so ist. Aktuell sind 5900/5950 noch immer deutlich über UVP.
arcanum
2021-04-29, 12:59:19
Naja,sobald AMD genug Wafer bekommt, wird auch wieder einen 5700X 8 Core und einen 5600 nonX geben. Die Frage ist halt nur wann das so ist. Aktuell sind 5900/5950 noch immer deutlich über UVP.
das wurde schon vor einem halben jahr behauptet. fakt ist, dass die cpus erst seit einem monat überhaupt uneingeschränkt verfügbar sind und wahrscheinlich auch nur, weil interessenten hardware-käufe aufschieben weil man praktisch keine aktuelle grafikkarte unter 1000€ kaufen kann.
Den 10700f gibt's für 260 Euro.
Mit ein bisschen Aufwand im BIOS und anständigem RAM, bekommt man damit fast alles was man braucht, egal für welche GPU (RTX 3060 oder 3090).
Jo das darfste aber nicht zu laut sagen, weil der 11400 ist ja besser weil vorn eine 11 steht :eek:
rentex
2021-04-29, 15:32:06
Naja,sobald AMD genug Wafer bekommt, wird auch wieder einen 5700X 8 Core und einen 5600 nonX geben. Die Frage ist halt nur wann das so ist. Aktuell sind 5900/5950 noch immer deutlich über UVP.
Wird es sehr wahrscheinlich, so nicht geben. Warum sich die Mühe machen, wenn die CPUs, sich auch so verkaufen?!
w0mbat
2021-04-29, 15:57:13
Weil, wenn es genug wafer gibt, sich die CPUs nicht mehr einfach so verkaufen werden.
Ex3cut3r
2021-04-29, 18:34:05
Hä? Und ich finde momentan Intel besser im 6 und 8 Core Bereich. AMD ist einfach viel zu teuer. Ist und ist Games nicht immer ganz oben. Wer da noch AMD kauft, ist einfach übelster Fan Boy.
dildo4u
2021-04-29, 18:42:39
AMD hat keine Chance die Intel Preise zu kontern im Mai kommen die ersten Mobile Tiger Lake 8 Core in 10nm, dann haben sie ein Split von Desktop nur 14nm und Mobile nur 10nm.
AMD ist mit der alten GF Fertigung nicht Konkurrenz Fähig und genau das bräuchten sie jetzt.
OHXeKotZ7dI
w0mbat
2021-04-29, 18:56:21
AMD ist mit der alten GF Fertigung nicht Konkurrenz Fähig und genau das bräuchten sie jetzt.
Wut? Welche "alte GF-Fertigung" meinst du? Welche CPUs lässt AMD noch bei GF produzieren?
Unicous
2021-04-29, 20:19:18
Ich glaube ihm ist kein Argument eingefallen, also hat er schnell mal eins erfunden.:freak:
Dass Tiger Lake nicht wirklich effizienter ist als Cezanne wissen wir ja schon, der 8-Kerner wird daran vermutlich nichts ändern, ich behaupte mal frech, da wird 10nm noch schlechter dastehen, lasse mich aber gerne eines Besseren belehren.
Was aber in der Tat stimmt, ist die momentane Preisgestaltung. Da muss AMD sicherlich bald mal eine Anpassung vornehmen, aber das wird erst geschehen, wenn sich die Versorgungslage zumindest etwas verbessert hat. Also schätzungsweise Mitte des Jahres. Dass sie nicht allzu sehr unter Zugzwang sind scheinen jedoch die Umsatzzahlen zu zeigen. Insofern müssen sie erst einmal den Druck von Rocket Lake spüren, momentan sieht es jedenfalls nicht danach aus, als würde die Nachfrage sinken.
Badesalz
2021-04-29, 23:10:12
Ist und ist Games nicht immer ganz oben. Wer lügt der stottert...
SKYNET
2021-04-30, 01:21:00
Hä? Und ich finde momentan Intel besser im 6 und 8 Core Bereich. AMD ist einfach viel zu teuer. Ist und ist Games nicht immer ganz oben. Wer da noch AMD kauft, ist einfach übelster Fan Boy.
ehm....
https://www.3dcenter.org/dateien/abbildungen/AMD-Zen-3-vs-Intel-Rocket-Lake-Spiele-Performance.png
https://www.3dcenter.org/dateien/abbildungen/AMD-Zen-3-vs-Intel-Rocket-Lake-Spiele-Performance.png
Sonyfreak
2021-04-30, 08:25:13
ehm....
https://www.3dcenter.org/dateien/abbildungen/AMD-Zen-3-vs-Intel-Rocket-Lake-Spiele-Performance.pngLaut dieser Darstellung spricht das P/L-Verhältnis bei 10700K/KF und 11700K/KF vs. 5800X bzw. bei 10600K/KF und 11600K/KF vs. 5600X und 3600XT klar für die Intel-Chips. Nur bei den Top-Produkten von Intel (10900K/KF und 11900K/KF) sieht es weniger gut aus.
mfg.
Sonyfreak
Dr.Doom
2021-04-30, 08:33:13
Laut dieser Darstellung spricht das P/L-Verhältnis bei 10700K/KF und 11700K/KF vs. 5800X bzw. bei 10600K/KF und 11600K/KF vs. 5600X und 3600XT klar für die Intel-Chips. Nur bei den Top-Produkten von Intel (10900K/KF und 11900K/KF) sieht es weniger gut aus.
mfg.
Sonyfreak
Nein, Skynet wollte des Executers Argument entkräften, dass die aktuellen Intels immer die beste Performance liefern. Was natürlich nicht haltbar ist, da der 5900x mit 0,2% Punkten Vorsprung uneinholbar dem 11900k davonprescht.
Davon abgesehen zeigt die Grafik Balken, die fast rechts aus der Seite ausbrechen, nur bei den Intels. Also ist doch klar, was besser ist.
dildo4u
2021-04-30, 08:50:04
Wut? Welche "alte GF-Fertigung" meinst du? Welche CPUs lässt AMD noch bei GF produzieren?
Keine die im heutigen Markt Sinn machen, das meine ich ja, Intel kann ihre aktuellen Desktop Chips in 14nm fertigen.
Das verteilt die Fertigung auf verschiedene Fabriken bis mehr Standorte auf 10nm umgestellt werden.
Fetza
2021-04-30, 09:52:29
Ich frage hier auch einfach mal nach:
Konntet ihr den aktuellen Treiber der iGPU installieren? Bei mir meint er immer dass meine Windows Version die falsche wäre. Ich spreche von diesem Treiber hier:
https://downloadcenter.intel.com/download/30381/Intel-Graphics-Windows-10-DCH-Drivers
Ein User meinte es läge daran, dass es sich um DCH Treibern handelt. Aber ich finde irgendwie keine Anderen. :confused:
Zergra
2021-04-30, 09:56:03
Ging bei mir problemlos, nutze Enterprise LTSC 19... müsste aber ein DCH sein, da ich keine Treiber Einstellungen öffnen kann... DCH läuft normal auf meiner Windows Version gar nicht.
aufkrawall
2021-04-30, 10:07:19
Ich kann den auch mit Gemini Lake unter 1809 nicht installieren, offenbar haben die da etwas verbockt.
robbitop
2021-04-30, 10:32:43
Nein, Skynet wollte des Executers Argument entkräften, dass die aktuellen Intels immer die beste Performance liefern. Was natürlich nicht haltbar ist, da der 5900x mit 0,2% Punkten Vorsprung uneinholbar dem 11900k davonprescht.
Ich liebe Sarkasmus. ;D;D
arcanum
2021-04-30, 11:09:29
Laut dieser Darstellung spricht das P/L-Verhältnis bei 10700K/KF und 11700K/KF vs. 5800X bzw. bei 10600K/KF und 11600K/KF vs. 5600X und 3600XT klar für die Intel-Chips. Nur bei den Top-Produkten von Intel (10900K/KF und 11900K/KF) sieht es weniger gut aus.
mfg.
Sonyfreak
einfach ignorieren. skynet trollt seit wochen wie ein besessener hier im thread rum.
Loeschzwerg
2021-04-30, 11:33:19
Ich frage hier auch einfach mal nach:
Konntet ihr den aktuellen Treiber der iGPU installieren? Bei mir meint er immer dass meine Windows Version die falsche wäre. Ich spreche von diesem Treiber hier:
https://downloadcenter.intel.com/download/30381/Intel-Graphics-Windows-10-DCH-Drivers
Nachdem ich gestern drei Systeme zu Testzwecken neu installierte habe, bin ich da auch drüber gestolpert. Windows Update hatte bereits Treiber angezogen (ältere) und dann lies sich der v9466 nicht installieren. Lösung: Mit DDU (Display Driver Uninstaller; Wagnardsoft) den ganzen alten Mist entfernen (es darf nur noch Windows Basic Adapter im Gerätemanager angezeigt werden)
SKYNET
2021-04-30, 18:41:52
Nein, Skynet wollte des Executers Argument entkräften, dass die aktuellen Intels immer die beste Performance liefern. Was natürlich nicht haltbar ist, da der 5900x mit 0,2% Punkten Vorsprung uneinholbar dem 11900k davonprescht.
Davon abgesehen zeigt die Grafik Balken, die fast rechts aus der Seite ausbrechen, nur bei den Intels. Also ist doch klar, was besser ist.
ja, 0.2% bei den spielen, und 10% in anwendungen(5800X vs. 11700k)... :tongue:
https://www.3dcenter.org/dateien/abbildungen/AMD-Zen-3-vs-Intel-Rocket-Lake-Anwendungs-Performance.png
im gesammten ist und bleibt AMD also grundsätzlich erste wahl von der mittelklasse(5800X / 11700) aufwärts... und finds erschreckend das der 5900X mit 800€ angegeben ist... in AMD shop kann man den(wenn lieferbar) zum UVP von 549€ bekommen... somit preislich der gegenspieler zum 11900K aber in allen belangen gnadenlos überlegen... erstrecht wenn man dem 5900X die gleiche leistungsaufnahme erlaubt wie dem 11900K... dann fliegt der in AC lasten deutlich mehr als nur die 32% davon(eher gegen 50%)
Prinzenrolle
2021-05-01, 00:06:55
Einen 11700K gibt es bei Notebooksbilliger jetzt auch für 370 Euro schon.
Inkl. IGP.
r3ptil3
2021-05-01, 00:56:02
Einen 11700K gibt es bei Notebooksbilliger jetzt auch für 370 Euro schon.
Inkl. IGP.
Noch interessanter finde ich den 11700f. In der Schweiz gibt's den durchgehend lagernd für umgerechnet 285 Euro, da kann man wirklich nicht meckern.
Übrigens interessanter IPC Vergleich von Guru3d bei gleichem Takt für alle CPUs:
https://i.ibb.co/tHZzNvY/untitled-22.png
BlacKi
2021-05-01, 01:02:40
wenn ich mir einen cinebenchrechner zulege vielleicht^^
Fetza
2021-05-01, 03:37:02
Nachdem ich gestern drei Systeme zu Testzwecken neu installierte habe, bin ich da auch drüber gestolpert. Windows Update hatte bereits Treiber angezogen (ältere) und dann lies sich der v9466 nicht installieren. Lösung: Mit DDU (Display Driver Uninstaller; Wagnardsoft) den ganzen alten Mist entfernen (es darf nur noch Windows Basic Adapter im Gerätemanager angezeigt werden)
Danke, das hat geholfen. :)
Loeschzwerg
2021-05-01, 10:50:19
Gerne :)
Hat sich dein Quicksync Problem damit gelöst?
Badesalz
2021-05-01, 11:35:02
Einen 11700K gibt es bei Notebooksbilliger jetzt auch für 370 Euro schon.
Inkl. IGP.Wow. Das hat sich wohl schon davor verkauft wie geschnitten Brot...
Benutzername
2021-05-01, 12:37:30
Wut? Welche "alte GF-Fertigung" meinst du? Welche CPUs lässt AMD noch bei GF produzieren?
Die embedded Ryzen sind noch bei GF, dann die alten Epyc, wobei Ich da nicht weiss was und wieviel AMD da auf Halde hat um Langzeitversorgung sicher zu stellen. Ansonsten die i/O Dies natürlich. Aber die sind ja nicht der Flaschnehals bei den aktuellen Ryzen sondern die 7nm Chiplets.
Aber die 11er Achtkerner sind nicht so geil imho. Die Vierer und Sechser sollte man kaufen je nach Anwendung und die bietet intel auch zu einem guten Kurs an. 11700k und höher nur wenn man es unbedingt braucht und keinen AMD bekommt oder die bevorzugte Software auf dem intel besser läuft. andererseits sidn die Straßenpreise bei AMD im Moment verrückt. Pauschalaussagen "nimm einfach intel" (oder AMD) sind heutzutage falsch wie nie.
Triskaine
2021-05-01, 14:54:18
Bzgl. Idle Verbrauch: Habe heute einen 11700K auf einem Asrock Z590M Pro4 verbaut. Mit aktiviertem ASPM auf allen PCIe links, GFX, PCH usw. habe ich (im Gear1!) beim rumgondeln auf dem Desktop oder Browser eine ausgelesene Package Power von ~5.5-7W. Das ist nicht so viel mehr als beim vorher verbauten 10400F der unter vergleichbaren Bedingungen bei ~2.5-3.5W war und weit weg von woanders gemessen Katastrophenwerten. Unter FPU Last säuft das Teil natürlich dann richtig. :biggrin:
Btw. korrekt konfiguriertes bzw. implementiertes PCIe ASPM kann auch auf Ryzen Systemen (insbesondere X570!) schnell mal >10W Idle Verbrauch einsparen, da lohnt es sich mal reinzuschauen. Gibt aber leider große Unterschiede zwischen den Boards, nicht selten ist das ASPM gar nicht oder falsch in der FW implementiert :(, da hilft nur sich bei dem konkreten Board zu informieren.
SKYNET
2021-05-01, 19:23:39
Bzgl. Idle Verbrauch: Habe heute einen 11700K auf einem Asrock Z590M Pro4 verbaut. Mit aktiviertem ASPM auf allen PCIe links, GFX, PCH usw. habe ich (im Gear1!) beim rumgondeln auf dem Desktop oder Browser eine ausgelesene Package Power von ~5.5-7W. Das ist nicht so viel mehr als beim vorher verbauten 10400F der unter vergleichbaren Bedingungen bei ~2.5-3.5W war und weit weg von woanders gemessen Katastrophenwerten. Unter FPU Last säuft das Teil natürlich dann richtig. :biggrin:
Btw. korrekt konfiguriertes bzw. implementiertes PCIe ASPM kann auch auf Ryzen Systemen (insbesondere X570!) schnell mal >10W Idle Verbrauch einsparen, da lohnt es sich mal reinzuschauen. Gibt aber leider große Unterschiede zwischen den Boards, nicht selten ist das ASPM gar nicht oder falsch in der FW implementiert :(, da hilft nur sich bei dem konkreten Board zu informieren.
also 100% mehr verbrauch im IDLE sind nicht soviel mehr? :freak:
Badesalz
2021-05-01, 19:32:32
Naja... Wenn man etwas richtig ablesen kann, heißt das noch lange nicht, daß man die Grundrechenarten drauf hat.
Lesen ≠ Rechnen :uup:
p.s.:
Wegen seinem ausgefuchsten Joke hätte man aber auch nicht den kompletten Beitrag quoten müssen :| Mit Fullquotes macht man sich jedes Mal zum Deppen...
WedgeAntilles
2021-05-01, 21:26:04
also 100% mehr verbrauch im IDLE sind nicht soviel mehr? :freak:
Ich habe keine Ahnung was mich mehr erschreckt.
Die Möglichkeit, dass du tatsächlich nicht begreifst wann prozentuale Aussagen wertlos sind.
Oder die Möglichkeit dass du es weißt, hier aber nur mit Gewalt rumtrollst.
Triskaine
2021-05-01, 22:26:46
also 100% mehr verbrauch im IDLE sind nicht soviel mehr? :freak:
Naja... Wenn man etwas richtig ablesen kann, heißt das noch lange nicht, daß man die Grundrechenarten drauf hat.
Lesen ≠ Rechnen :uup:
p.s.:
Wegen seinem ausgefuchsten Joke hätte man aber auch nicht den kompletten Beitrag quoten müssen :| Mit Fullquotes macht man sich jedes Mal zum Deppen...
Wurde schon besser getrollt, wo ist eigentlich Bucklew geblieben?
Ein Ryzen 3000/5000 IO-Die verbraucht btw. dauerhaft >9W im Idle, mit PBO oder RAM OC gerne auch Richtung 20W. Die AMD Chiplet Designs sind in vielen Dingen ausgezeichnet, Idle Verbrauch gehört nicht dazu...
Denniss
2021-05-01, 23:06:42
Echte Messwerte wären besser, nicht die Schätzungen von Software. Wäre nicht das erste Asrockboard das falsche Verbrauchswerte ausgibt
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.