PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Rocket Lake (Core i-11000) Review-Thread


Seiten : 1 [2] 3 4

Matrix316
2021-04-03, 15:23:24
Sagt wer? Weil das hier das 3DC ist und nur Highend zählt?! :|

Hier wurde behauptet die Reviewer hätten keine Treiber, was aber falsch ist. Habe ich meinen Senf zu abgegeben. Dann schreibt jemand die IGP wäre Verschwendung, was ich für meinen Einsatzzweck nicht so sehe. Ist doch also alles beim Thema?!

Sag ich, weil meine Kritik am PCGH Test ausschließlich auf den Vergleich 11900K und 5900X gemünzt ist und trotz ähnlicher oder oft auch schlechterer Gaming Leistung der 11900K eine viel viel bessere Endnote bekommt, nur weil eine IGPU vorhanden ist und diese bei der Ausstattung berücksichtig wird.

So oder so sollte eine integrierte Grafik keine Rolle spielen bei einem CPU Test. Da geht es nur um die CPU. Wie schnell ist diese, wie viel Strom verbraucht die und was ist der Preis.

Oder ist eine Geforce 3070 besser als eine 6800XT weil im Raytracing Benchmark mit DLSS viel bessere FPS bekommt? Oder sind Geforces generell besser weil sie Gimmicks wie ShadowPlay und sowas bieten?

[...]

Edit: Sind wir mal ehrlich, zwei mehr Kerne hätten es für RKL nun echt nicht rausgerissen, aber dafür wäre die CPU für OEMs teilweise richtig unbrauchbar geworden. Das passt schon so. Wer da mehr braucht kann immer noch zu anderen Alternativen am Markt greifen (CML oder ZEN3) oder nimmt sich Zeit bis Ende des Jahres.

Naja, in Anwendungsbenchmarks wäre man deutlich weiter vorne und würde nicht wie ein massiver Loser aussehen, der 550 Euro für eine 8 Kern CPU haben will. ;D

WedgeAntilles
2021-04-03, 15:26:47
Sorry, aber im aktuellen Grafikmarkt eine integrierte GPU als völlig wertlos zu bezeichnen ist schon mehr als bizarr.

Kommt mal von eurem Intel-Hate etwas runter.

Aktuell kostet jede GraKa Unsummen, egal wie alt - da ist eine Backup IGPU selbstverständlich nett zu haben.
Oder wenn es beim rumflashen zu einem Fehler kommt.

Ob das Feature einem jetzt viel oder wenig wert ist sei dahingestellt - es aber als wertlos zu bezeichnen (nur weil es halt AMD nicht hat...) ist eine Lachnummer.
Das wisst ihr aber natürlich auch, was eure künstliche Aufgeregtheit dann doch massiv in den Bereich "peinlich" schiebt.

Loeschzwerg
2021-04-03, 15:32:30
Sag ich, weil meine Kritik am PCGH Test ausschließlich auf den Vergleich 11900K und 5900X gemünzt ist

Und mir ging es kein Stück weit um den PCGH Test, also halte mich bitte da raus :D (Test nicht gelesen, Heft habe ich auch nicht => kann ich nicht mitreden, stimme dir aber tendenziell zu)

Wen interessieren die paar Benchmarks wenn dafür die Wirtschaftlichkeit den Bach runter geht. Intel hat das schon richtig gemacht, irgendwie ^^
Bei der Marktlage ist das auch alles fast schon egal, da hat Intel richtig Glück.

Opprobrium
2021-04-03, 15:42:35
Ich stelle mir kleine, kompaktere "NUC"-ähnliche Mini PCs vor mit etwas dickerer CPU, da würde also theoretisch so ein 35W Rocket Lake Modell gut passen. Und da könnte die XE Grafik glänzen. Wenn wohl auch kastriert im Vergleich zu den mobilen Tiger Lake Modellen mit bis zu 96 XUs. Die Desktop Modelle haben da leider deutlich weniger, warum auch immer.

Jo. Theoretisch ist da sogar direkte Konkurrenz von AMD vorhanden mit den 4X50G APUs, auch wenn die noch auf Zen2 basieren. Mehr als 8 Kerne bietet Rocket Lake ja auch nicht.

Matrix316
2021-04-03, 15:49:10
Sorry, aber im aktuellen Grafikmarkt eine integrierte GPU als völlig wertlos zu bezeichnen ist schon mehr als bizarr.

Kommt mal von eurem Intel-Hate etwas runter.

Aktuell kostet jede GraKa Unsummen, egal wie alt - da ist eine Backup IGPU selbstverständlich nett zu haben.
Oder wenn es beim rumflashen zu einem Fehler kommt.

Ob das Feature einem jetzt viel oder wenig wert ist sei dahingestellt - es aber als wertlos zu bezeichnen (nur weil es halt AMD nicht hat...) ist eine Lachnummer.
Das wisst ihr aber natürlich auch, was eure künstliche Aufgeregtheit dann doch massiv in den Bereich "peinlich" schiebt.

Aber ich kann doch bei und vor allem einem "Gaming CPU" Test nicht den aktuellen Grafikkartenmarkt berücksichtigen. Bei einer 700 Euro CPU spielt die integrierte Grafik IMO überhaupt keine Rolle.

Da kann ich ja gleich bei einem aktuellen GPU Test die Mining Fähigkeiten mitbewerten, weil Mining gerad mal in ist. =)

Oder warum nicht gleich DLSS bei Geforces mit in die Endwertung reinehmen. Immerhin wäre eine 3070 mit DLSS im RT dann besser als eine Radeon 6900XT.

Irgendwo muss ein Test ja auch fair bleiben und Gimmicks sollte man nicht zu stark bewerten.

Platos
2021-04-03, 15:53:29
Die Bewertungsmethode ist fragwürdig, aber nun ist auch langsam gut, oder?

Laut PCGH wird ihr Index aber durch die Durchschnittsleistung aus den 20 Spielen in Prozent abgebildet. Soll das also gelogen sein (ernsthafte Frage)?

Aber anscheinend hat hier niemand wirklich etwas ausgerechnet. Das mit den FPS zusammen zählen ist ja wohl ein Witz :) Ich habs grad gemacht und komme da auf ein Plus von 0.3 Prozent für den 11900K in min FPS. Jeweils vom 11900K als 100% ausgehend. Nehme ich den 5950X jeweils als 100% und rechne von ihm aus, ergibt sich -0.85% für den 5950X.

Der Unterschied ist so dermassen minimal, das ist alles nur Messungenauigkeit. Die sind absolut gleich auf. Abgesehen davon, dass die beiden CPUs in völlig verschiedenen Preisklassen spielen. Der Vergleich ist also sowieso etwas seltsam.

Aber dennoch wird der Index bei PCGH anscheinend anders gebildet. Keine Ahnung wie, aber es sind auf jeden Fall keine avg. FPS, das habe ich auch ausgerechnet. Da schneidet in beiden Fällen der 5950X besser ab, aber avg. FPS sind sowieso nichtsaussagend.

Aber so oder so... Wie rechnet denn PCGH den Index aus? Bisher ging ich davon aus, dass sie dort die avg FPS nutzen, aber anscheinend ja nicht. Aber anyway... warum sollte ich auf deren Index schauen, wenn Leonidas einen viel besseren hat? Den sollte man sowieso ignorieren. Leonidas' Index ist auf einer deutlich grösseren Datenbasis. Also dort sollte man hinschauen.

Thunder99
2021-04-03, 15:55:09
Wie viel mehr CPU Kerne könnte man bei der Fläche der Xe iGPU unterbringen? Meine Kritik geht in die Richtung, da ein Gamer keinen oder wenigen Zweck für eine integrierte GPU hat (denke ich).

Gibt es eine Statistik welches die normalen CPU mit den F im Verkaufsverhältnis zeigt?

In einem Punkt nehme habt ihr aber Recht, dass die GPU sinnvoll ist wenn man nicht oder kaum spielt und ansonsten extra eine Grafikkarte kaufen müsste.

dildo4u
2021-04-03, 15:55:21
PCGH hat den 11900k übrigens mit Mangelhaft bewertet was Preis/Leistung angeht den 5900X aber nicht aber diskutiert ruhig weiter im Kreis.

Thunder99
2021-04-03, 15:58:25
CB hat es ja treffend ausgedrückt. Die letze CPU in 14nm mit der Brechstange um überhaupt oben mit spielen zu können (bis 8 Kernen). Schon krass und krank :freak:

Platos
2021-04-03, 15:59:25
PCGH hat den 11900k übrigens mit Mangelhaft bewertet was Preis/Leistung angeht den 5900X aber nicht aber diskutiert ruhig weiter im Kreis.

Ich persönlich frage da nur aus reiner Neugierde, wie PCGH den Index ausrechnet. Aber es ist doch hier sowieso immer das gleiche mit manchen Leuten. Wenn einem was nicht passt, ist der Test scheisse ^^

Matrix316
2021-04-03, 15:59:48
PCGH hat den 11900k übrigens mit Mangelhaft bewertet was Preis/Leistung angeht den 5900X aber nicht aber diskutiert ruhig weiter im Kreis.
Der 5900X wurde auch mit Mangelhaft bewertet (im Heft).

Aber im Heft hat man 550 Euro für den 11900K und 830 Euro für den 5900X angegeben. Das ist ja auch Quatsch, wenn man plötzlich Straßenpreise mit einbezieht. Vor allem weil der 11900K bei Alternate z.B. auch 700 kostet und nicht mehr die UVP.

dildo4u
2021-04-03, 16:01:55
Also das Fazit bei UVP ist Intel mangelhaft und bei AMD ausreichend.


https://i.ibb.co/DkWzHVH/5900xgf.png (https://ibb.co/J2tmwBw)

https://www.pcgameshardware.de/Vermeer-Codename-276905/Tests/AMD-Ryzen-Zen-9-5900X-vs-3900X-vs-10900K-5950X-Benchmark-1360653/3/

Linmoum
2021-04-03, 16:04:09
PCGH hat den 11900k übrigens mit Mangelhaft bewertet was Preis/Leistung angeht den 5900X aber nicht aber diskutiert ruhig weiter im Kreis.Sinnloser Vergleich, da PCGH damals noch Anwendungen mit als Bewertungs- bzw. Leistungskriterium hatte. Natürlich erhält ein 5900X zur UVP dann kein mangelhaft.

Die Anwendungen haben sie ja jetzt erst komplett gestrichen und dann wäre das P/L dort ebenfalls mangelhaft. Damals waren sie aber eben noch dabei.

Daredevil
2021-04-03, 16:10:46
Aber ich kann doch bei und vor allem einem "Gaming CPU" Test nicht den aktuellen Grafikkartenmarkt berücksichtigen. Bei einer 700 Euro CPU spielt die integrierte Grafik IMO überhaupt keine Rolle.

Doch, denn auch beim Gaming kann die iGPU des Prozessors Bildschirmaufnahmen machen, ohne die CPU oder GPU zu belasten.
Denn ein 8 Kerner ist zu langsam für ordentliches x264 Streaming und die GPU darf nicht voll ausgelastet sein, sonst ruckelt es gemein.

Da kann man Quicksync als Alternative nehmen.
Das ist ein Pluspunkt ( weder essentiell noch nutzlos ) für einen Prozessor, rein fürs Gaming ist das aber natürlich irrelevant.
Genauso irrelevant wie eine Leise Kühlung, 16c CPUs, Verbrauchswerte ab 100w und GSync in einer Welt voller Freesync Monitore.
Jeder wie er möchte, nech.

Platos
2021-04-03, 16:14:03
Sagt wer? Weil das hier das 3DC ist und nur Highend zählt?! :|

Hier wurde behauptet die Reviewer hätten keine Treiber, was aber falsch ist. Habe ich meinen Senf zu abgegeben. Dann schreibt jemand die IGP wäre Verschwendung, was ich für meinen Einsatzzweck nicht so sehe. Ist doch also alles beim Thema?!

Edit: Sind wir mal ehrlich, zwei mehr Kerne hätten es für RKL nun echt nicht rausgerissen, aber dafür wäre die CPU für OEMs teilweise richtig unbrauchbar geworden. Das passt schon so. Wer da mehr braucht kann immer noch zu anderen Alternativen am Markt greifen (CML oder ZEN3) oder nimmt sich Zeit bis Ende des Jahres.

Durch den Backport wurde der DIE aber grösser bei gleicher Kernanzahl. Ein 10-Kerner legt Intel ohne iGPU aber nicht auf (für OEMs ist die iGPU Pflicht und da ist das Geschäft von Intel, nicht die paar Hardwarekäufer). Die Dinger ohne iGPU sind nur Ausschussware (was gut ist, man muss ja nichts wegschmeissen, was noch geht).

Also aus meiner Sicht wäre zwei Kerne mehr eben nicht einfach mal so gegangen. Grösserer DIE= höhere Kosten. So einfach ist das doch. Da kann man nicht einfach sagen: "wäre doch easy gegangen". Sie haben's halt verkackt, dass sie Sunny Cove Backporten mussten, weil 10nm für Dekstop nicht genug früh reif war/ist.

Matrix316
2021-04-03, 16:16:32
Also das Fazit bei UVP ist Intel mangelhaft und bei AMD ausreichend.


https://i.ibb.co/DkWzHVH/5900xgf.png (https://ibb.co/J2tmwBw)

https://www.pcgameshardware.de/Vermeer-Codename-276905/Tests/AMD-Ryzen-Zen-9-5900X-vs-3900X-vs-10900K-5950X-Benchmark-1360653/3/

Das ist veraltet.

https://abload.de/thumb/img_0638x2jbh.jpg (https://abload.de/image.php?img=img_0638x2jbh.jpg)

Copyright PCGH Heft. Kann ich leider nicht verlinken. Lustigerweise hat der 11900K im Heft eine andere Note als Online bekommen... eieiei...

Pumpi74
2021-04-03, 16:17:27
Natürlich ist die iGPU wertvoll, nur sind es zusätzliche, derzeit meist brach liegende Kerne auch. Da muss man gar nicht auf Anwendungsbenchmarks verweisen. Die Zeit wird noch in dieser Konsolengeneration kommen das mehr als 16 Threads bei Spielen und den üblichen Hintergrundprozessen auf dem PC parallel Verwendung finden werden. Leider werden aber offensichtlich die Zusatzkerne nicht positiv in die Ausstattungsbewertung einbezogen...

dildo4u
2021-04-03, 16:20:10
Das ist veraltet.

https://abload.de/thumb/img_0638x2jbh.jpg (https://abload.de/image.php?img=img_0638x2jbh.jpg)

Copyright PCGH Heft. Kann ich leider nicht verlinken. Lustigerweise hat der 11900K im Heft eine andere Note als Online bekommen... eieiei...
Macht doch Sinn das wenn man den neuen Preis nimmt Preis/Leistung schlechter wird, AMD muss erstmal zeigen das sie durchgängig UVP liefern können.
Intel will keiner da sind die Preise die nästen Monate deutlich realistischer.

Loeschzwerg
2021-04-03, 16:30:33
Durch den Backport wurde der DIE aber grösser bei gleicher Kernanzahl. Ein 10-Kerner legt Intel ohne iGPU aber nicht auf (für OEMs ist die iGPU Pflicht und da ist das Geschäft von Intel, nicht die paar Hardwarekäufer). Die Dinger ohne iGPU sind nur Ausschussware (was gut ist, man muss ja nichts wegschmeissen, was noch geht).

Also aus meiner Sicht wäre zwei Kerne mehr eben nicht einfach mal so gegangen. Grösserer DIE= höhere Kosten. So einfach ist das doch. Da kann man nicht einfach sagen: "wäre doch easy gegangen". Sie haben's halt verkackt, dass sie Sunny Cove Backporten mussten, weil 10nm für Dekstop nicht genug früh reif war/ist.

Keine Ahnung warum du jetzt gerade mich zitierst, aber ja, sehe ich wie du ^^

Matrix316
2021-04-03, 16:50:19
Macht doch Sinn das wenn man den neuen Preis nimmt Preis/Leistung schlechter wird, AMD muss erstmal zeigen das sie durchgängig UVP liefern können.
Intel will keiner da sind die Preise die nästen Monate deutlich realistischer.
Ich kann doch nicht Straßenpreise ins Review mit einbeziehen, gerade weil die variieren. Der 11900K kostet ja aktuell auch nicht die 550 Euro, die noch im Review angegeben wurden.

r3ptil3
2021-04-03, 17:28:59
Das ist veraltet.

https://abload.de/thumb/img_0638x2jbh.jpg (https://abload.de/image.php?img=img_0638x2jbh.jpg)

Copyright PCGH Heft. Kann ich leider nicht verlinken. Lustigerweise hat der 11900K im Heft eine andere Note als Online bekommen... eieiei...

Wow, wenn ich mich mit den Reviews nicht beschäftigt hätte, würde ich gemäss dieser Wertung davon ausgehen, dass man mit Intel sehr gut bzw. am besten in Sachen Gaming fährt und dass der Stromverbrauch lediglich ein "kleiner Nachteil" ist.

Die Realität sieht aber anders aus. Selbst Leute mit sehr geringem Fachwissen, meiden den 11900k. Der Verbrauch ist zudem nicht einfach etwas schlechter, sondern richtig miserabel. Minimales OC lässt den Verbrauch zudem explodieren und ist einfach grundsätzlich nicht mal ansatzweise zu empfehlen. Hinzu kommt, dass selbst durch den extremen Verbrauch, nicht annähernd eine gerechte Leistung resultiert.

Sowas und eine Platzierung deutlich hinter dem 10900k hätte ich im Fazit der PCGH erwartet.

Edit: Sehe gerade beim 5900X steht im Fazit "allrounder". Sowas würde ich einer Mittelklasse-CPU mit guter Effizienz und gutem PL-Verhältnis zuteilen. Der 5900X ist bis 600 Euro das Mass aller Dinge was Performance und Effizienz angeht und nicht nur besser als ein 11900k, sondern im Gesamtpaket eine CPU-Generation voraus. Dass diese CPU dann noch hinter einem 11900k platziert wird, autsch.

dildo4u
2021-04-03, 17:42:54
Ich kann doch nicht Straßenpreise ins Review mit einbeziehen, gerade weil die variieren. Der 11900K kostet ja aktuell auch nicht die 550 Euro, die noch im Review angegeben wurden.
PCGH hat doch AMD zum Launch auch mit UVP berechnet, wenn sich die Intel Preise dauerhaft nach oben bewegen kann man es auf der Webseite oder in neuen Heften anpassen.

Lehdro
2021-04-03, 18:02:50
Alter ich kann doch nicht bei CPU A den UVP nehmen und bei CPU B dann auf einmal den Marktpreis? Was soll sowas denn, ganz mies PCGH. Entweder oder, aber nicht gemischt. Denn wie wir gerade sehen sind beide Preise komplett daneben. Vor 2 Wochen gab es den 5900X für 689€, diese Woche 770 €. Intel laut Liste 550€, real aber eher 700€. Wie kann ich dass dann durcheinander hauen in einem LAUNCHREVIEW. Ist doch logisch dass es keine Straßenpreise auf UVP Basis gibt, GERADE bei Intel. Wann war der letzte Intel Launch bei dem man die Top CPUs zu UVP bekommen hat? War das noch Haswell? Alles ab Broadwell war es jedenfalls nicht...also quasi 7 Jahre lang widerlegt die Realität den Fakt das man bei Intel mit der UVP rechnen sollte, direkt nach Launch.

Badesalz
2021-04-03, 18:11:05
CB hat es ja treffend ausgedrückt. Die letze CPU in 14nm mit der Brechstange um überhaupt oben mit spielen zu können (bis 8 Kernen). Schon krass und krank :freak:Das erfreuliche an dem Ding ist ja eben, daß es die letzte sein soll. Ich bin wirklich froh, daß wenn das Getöse hier vorbei ist, es nicht mehr mit irgendwas von vorn anfängt. Das war schon irre wie lang bzw. eher wie oft sie dieses tote Perd geritten haben.

Ok, aus der Not heraus, und teilweise mit meiner Achtung wie sie aus den 2L Hubraum versuchen 500PS rauszubekommen :usweet: aber schön anzusehen war das schon länger nicht mehr.
Endlich hat das also ein Ende. Selten war ich über ein Ende von irgendwas dermassen begeistert...

Eins sollte jeder Zenoer aber bedenken. Teilweise zwar unter grausamsten Anforderungen, aber immerhin haben sie es hinbekommen die Leistung ordentlich auf die Straße zu bringen. Solange die Threads halt in einer ausreichenden Zahl vorhanden waren. Das ging bis zum 10000er gar halbwegs. Mit 14nm vs. 7nm...
Ich hoffe AMD ist klar, daß sie keine Zeit hatten um sich auszuruhen, weill wenn der Moloch Ende des Jahres anfängt wieder aufzudrehen, dann sollte man schon bestens vorbereitet sein.

Alles bisher war nur die glückliche Zeit um vernünftig Luft holen zu können.

dildo4u
2021-04-03, 18:11:46
Mal davon abgesehen das PCGH Intel mit Sicherheit nicht bevorteilt, da sie Modelle mit IGP in die Preis/ Leistung einbeziehen.
Die Modelle ohne würden dort deutlich besser aussehen.
Es gibt z.b 8 Cores für den Preis des 5600x.

Badesalz
2021-04-03, 18:20:11
@dildo4u
Naja... Einfach nur rummosern, weils halt PCGH ist, dann aber an keinem anderen Tester... Also ich glaub da diesmal nicht einfach nur an einen angeborenen Hass oder so ;)

ich hab ja schon lange im Vorfeld vorausgesagt, daß es für PCGH diesmal nicht so schön sein wird. Richtig? Hab ich auch andere dabei benannt? Nö :wink:

Sich da jetzt hinterm Zug zu schmiessen...

rentex
2021-04-03, 19:27:43
Da muss sich PCGH schlicht und einfach den Vorwurf gefallen lassen, RKL mit Vorsatz zu "freundlich" bewertet zu haben.
Die meisten HW Seiten haben ein deutlich negatives Bild von RKL.

Daredevil
2021-04-03, 19:38:42
Unsinn. PCGH hat halt ihre gemessenen Werte interpretiert und bewertet. '
Welche das sind, sieht man ja oben.
Dort wurde gemessen, dass RL kein Säufer ist in Games, also wird sie dementsprechend auch bewertet.

Im Schnitt verbraucht RL dort 13w mehr im Gaming als ein 5900x, wieso sollte man den Prozessor also schlecht bewerten, wenn er ( deutlich ) weniger kostet und ( minimal ) mehr leistet?
Deswegen ist btw. auch der 5800x besser bewertet bei "Eigenschaften", weil er weniger säuft als der 12 Kerner.

Matrix316
2021-04-03, 20:23:17
Unsinn. PCGH hat halt ihre gemessenen Werte interpretiert und bewertet. '
Welche das sind, sieht man ja oben.
Dort wurde gemessen, dass RL kein Säufer ist in Games, also wird sie dementsprechend auch bewertet.

Im Schnitt verbraucht RL dort 13w mehr im Gaming als ein 5900x, wieso sollte man den Prozessor also schlecht bewerten, wenn er ( deutlich ) weniger kostet und ( minimal ) mehr leistet?
Deswegen ist btw. auch der 5800x besser bewertet bei "Eigenschaften", weil er weniger säuft als der 12 Kerner.
Quatsch, 11900K und 5900X haben beide 550 € UVP. Das muss man bewerten. Dafür bekomm ich bei AMD 4 Kerne mehr und dazu noch weniger Stromverbrauch. Mindestens gleichwertige Spieleleistung, dazu noch überragende Anwendungsleistung.

Und der 5800X ist billiger wie der 11900K, und verbraucht noch weniger Strom und ist von der Leistung her ähnlich.

Badesalz
2021-04-03, 20:32:30
Unsinn. PCGH hat halt ihre gemessenen Werte interpretiert und bewertet. 'Da ja bisher niemand behauptet hat, sie logen da nur rum, halte ich das jetzt für eine sehr spitzfindige Kritik. Das hätte glatt von mir sein können ;)

Matrix316
2021-04-03, 20:48:47
Am Anfang wunderte ich mich über die gute Bewertung vom Intel und dachte im Eifer ges Gefechts es läge irgendwie an der Performance, aber dass es eigentlich die "Ausstattung" (sprich IGPU) war, setzt dem noch die Krone auf.

Die haben nicht gelogen. Nur falsch interpretiert. ;) Dadurch, dass die Anwendungen nicht mehr in die leistung mit einfließen, hat Interl hier plötzlich einen größeren Vorteil durch die eingebaute Grafik, der davor keine große Rolle gespielt hat.

Virtual
2021-04-03, 21:52:57
Unsinn. PCGH hat halt ihre gemessenen Werte interpretiert und bewertet. '
Welche das sind, sieht man ja oben.
Dort wurde gemessen, dass RL kein Säufer ist in Games, also wird sie dementsprechend auch bewertet.

Im Schnitt verbraucht RL dort 13w mehr im Gaming als ein 5900x, wieso sollte man den Prozessor also schlecht bewerten, wenn er ( deutlich ) weniger kostet und ( minimal ) mehr leistet?
Deswegen ist btw. auch der 5800x besser bewertet bei "Eigenschaften", weil er weniger säuft als der 12 Kerner.
Schaut man sich die PCGH Bewertung an, so belegt der 11900K nur deshalb eindeutig den ersten Platz, weil eine UHD750 Grafikeinheit sowie der AVX-512 Befehlssatzerweiterungen enthalten ist.
Liebe Redakteure der PCGH, nach eurer Auffassung ist wohl beides ein immens wichtiges Kriterium, wenn man sich den schnellsten Zockerprozessor zulegen will, um damit die schnellste Grafikkarte antreiben zu können. OK?!

Oder was soll mir auf den ersten Blick eure Wertung sagen? Ich vermute mal, der 11900K ist der schnellste Zockerprozessor "Beste Spieleleistung"? Oder ist es doch eher der (beste) Allround-Prozessor mit UHD750 und AVX-512 im Gepäck? ... Aber nein, das ist ja bereits der 5900X, so steht's in der Wertung, ... aber, aber der hat doch gar keine integrierte Grafik und AVX-512 hat er auch nicht. Wie kommt ihr darauf?

Also, wie jetzt, bei der "Spieleleistung" habt ihr doch den 11900K auf Augenhöhe mit dem 5900X gewertet. Was soll das denn jetzt wieder heißen? Ist er der 11900K doch nicht der einzig schnellste Zockerprozessor?

Mensch! Können die auch einfach oder doch nur kompliziert?

BlacKi
2021-04-03, 22:29:34
laut dem bildchen, hat nur ein prozessor 100% spieleindex leistung. what are we talking about?

Lehdro
2021-04-03, 23:14:13
laut dem bildchen, hat nur ein prozessor 100% spieleindex leistung. what are we talking about?
Das raffe ich jetzt auch nicht.

Die Benotung nach Schulnoten im Heft ist dafür sowas von egal. Wir gehen nach der puren Leistung laut deren Index, so wie das auch auf der Website steht. Da "führt" der 11900K halt mit 0,1%.

Ich hatte gestern analog zu den CB Indexes dasselbe mal mit den PCGH Zahlen für die Avg. FPS ausgerechnet (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12642406&postcount=217) und schon da sieht man, dass das da sehr knapp an der Spitze ist, da liegen kaum 5% zwischen den 4 CPUs, da alle sehr unterschiedliche Stärken haben, die im Testparcours zum tragen kommen. Wenn ich nun noch die Lows dazunehmen würde, verschiebt sich das Bild eben ein bisschen mehr Richtung RKL - aber nichts Weltbewegendes. Genau dass macht aber PCGH - kann man schlecht finden oder auch nicht. Allerdings macht es tatsächlich meiner Meinung nach Sinn, primär nach genau diesen Frametimes zu bewerten (was PCGH tut) und eben nicht nach den avg FPS.

Das man den (Online-)Test kritisieren kann (3090 als Test GPU, AC:V als CPU Bench, UVP vs Marktpreis) ist völlig legitim und diskutabel. Dass aber mehr oder minder aus dem Nichts grundlos an den "Heftnoten" aus ebensolchem rumgemeckert wird, die in der Form schon seit Jahren existieren, finde ich allerdings schon befremdlich. Kanntet ihr die vorher echt nicht? Diese setzen nur das Ranking im Einkaufsführer im Heft fest - sonst nichts. Mit der Platzierung der CPU im Leistungsindex hat die Ausstattung zum Beispiel mal so gar nichts zu tun. Die Endnote ist dafür egal, weil es ein Leistungsindex ist.

Zum Thema Anwendungsleistung: Hand aufs Herz - im neuen Index gibt es (im Heft) derzeit keinen Platz dafür. Allerdings beides zusammen zu werfen ist genauso blöd - braucht halt nicht jeder. Von daher sind getrennte Indizes perfekt. Dass bei PCGH derzeit nur einer davon vorhanden ist (Spiele) finde ich aber keinen Beinbruch, da wohl jedem hier bewusst ist, wie das ausgehen würde. Und uns interessiert wohl eh die Spieleleistung am meisten.

Virtual
2021-04-03, 23:26:19
laut dem bildchen, hat nur ein prozessor 100% spieleindex leistung. what are we talking about?
Die Berwertung der "Leistung" mit jeweils 1,06 relativen Gummipunkten oder auch Schulnoten ist offensichtlich eine kreative, repräsentative Zusammenfassung der beiden Indexe "AVG" und "P1". Hast du auch ein Probem mit der Tabelle?

Virtual
2021-04-03, 23:30:30
Das raffe ich jetzt auch nicht.

... Da "führt" der 11900K halt mit 0,1%.

Was gibt es da nicht zu verstehen? 0,1% sind garantiert innerhalb der nicht angegebenen Messtoleranz. Vielleicht liegt er auch 0,1% hinten?

Badesalz
2021-04-04, 00:19:23
Ich verstehe wirklich nicht wie ihr die Welt nach zig Jahren Mitgliedschaft hier, immenroch wahrnimmt.
Hej, DAS SIND PROFIS. Tut nicht so, als wenn sie keine Ahnung hätten. Natürlich haben sie die. Ihre Jobs zu erledigen haben sie aber auch.

Und ihr marodiert hier dauernd rum und tut so als wenn die euch irgendwas schuldig wären. Leute... Davon könne sie leider nicht leben.
Wenn das System so wäre, daß sie das könnten, würde nur euch das nutzen. Hallo? So ist das weder gedacht noch gemacht.

Hört auf damit. Und auch damit so ein Zeug überhaupt zu lesen. Verarscht euch doch nicht auch noch selbst.

Wake
2021-04-04, 01:27:15
Die Treiber sind bereits vor Montag verfügbar geworden - Intel® Graphics - Windows® 10 DCH Drivers
(https://downloadcenter.intel.com/download/30266/Intel-Graphics-Windows-10-DCH-Drivers)

BlacKi
2021-04-04, 03:14:32
Ich verstehe wirklich nicht wie ihr die Welt nach zig Jahren Mitgliedschaft hier, immenroch wahrnimmt.
Hej, DAS SIND PROFIS. Tut nicht so, als wenn sie keine Ahnung hätten. Natürlich haben sie die. Ihre Jobs zu erledigen haben sie aber auch.

Und ihr marodiert hier dauernd rum und tut so als wenn die euch irgendwas schuldig wären. Leute... Davon könne sie leider nicht leben.
Wenn das System so wäre, daß sie das könnten, würde nur euch das nutzen. Hallo? So ist das weder gedacht noch gemacht.

Hört auf damit. Und auch damit so ein Zeug überhaupt zu lesen. Verarscht euch doch nicht auch noch selbst.dein srakasmus nervt. einige nehmen das sonst noch für voll.

=Floi=
2021-04-04, 05:04:14
Doch, denn auch beim Gaming kann die iGPU des Prozessors Bildschirmaufnahmen machen, ohne die CPU oder GPU zu belasten.

Hier dürfte extrem der ram durchsatz limitieren. Mit gelocktem powerlimit wird es noch langsamer werden.


Wie viel mehr CPU Kerne könnte man bei der Fläche der Xe iGPU unterbringen?

Man könnte locker die restlichen 8 kerne unterbringen. An sich würde auch eine halb so kleine GPU auch noch für vieles reichen.
Die Xe dient einzig und alleine dem mobilen sektor! Dieser ist intel wichtiger und man will nur eine CPU bauen.


Davon könne sie leider nicht leben.

Der test fördert nicht gerade deren zukunft. :rolleyes:

rentex
2021-04-04, 07:40:52
Dazu kommt noch, das sie die UVP von RKL (641€ vs. 799€) aktuell mit den aktuellen Strassenpreisen von ZEN3 vergleichen und das noch AMD ankreiden...es wäre ja nicht so, das wir grad ein allgemeines Verfügbarkeitsproblem bei HW hätten.

dildo4u
2021-04-04, 07:56:07
Es gibt RL i9 für 450€ leider testen kaum einer die Modelle die interessant sind.

Da fehlen nur 100mhz vom Boost.

https://geizhals.de/intel-core-i9-11900-bx8070811900-a2484234.html?hloc=at&hloc=de&v=e

rentex
2021-04-04, 08:10:02
Die CPUs ohne K, sind jetzt auch nicht Gegenstand der Diskussion...

dildo4u
2021-04-04, 08:12:25
OC ist Nutzlos diese Generation.


mjgRrGyJkNE

HOT
2021-04-04, 09:10:56
PCGH-Bewertungen sind immer nutzlos, weil total willkürlich. Ich hab oft den Eindruck die passen das Wertungsgeschehen so an, wie sie es haben wollen und dabei soll rauskommen, was was die denken, was Publikum gerne sehen möchte. Man braucht sich nur mal die Mobo-Wertungen anzuschauen, da kriegt man jedes Mal Pickel. 60% Performance-Wertung und nur 20% Ausstattung, das ist so dämlich, wie man nur bewerten kann.
Deren Testfeld und auch die Konfiguration war außerdem sehr günstig für RKL, daher gewinnt der bei denen auch den Test, während das bei sehr vielen anderen nicht der Fall ist.
Am besten fand ich wieder mal Igor, der den großten Verzerrfaktor aus dem Test entfernt hat, nämlich den NV-Treiber ;). Wenn man schon 720p testet, sollte man auch die Grafikhardware verwenden, die nicht so stark bremst.

fondness
2021-04-04, 09:39:43
Es ist ja nun wirklich keine Neuigkeit mehr, dass PCGH immer die best case Resultate bei Nvidia und Intel liefert. Man kann da natürlich an Zufall glauben, muss man aber nicht.

HOT
2021-04-04, 09:51:02
Da braucht man sich im Heft nur den aktuellen CPU-Chart anzuschauen, da scheint mir schon rein methematisch kaum stimmig zu sein.

SKYNET
2021-04-04, 10:31:27
Hier dürfte extrem der ram durchsatz limitieren. Mit gelocktem powerlimit wird es noch langsamer werden.




Man könnte locker die restlichen 8 kerne unterbringen. An sich würde auch eine halb so kleine GPU auch noch für vieles reichen.
Die Xe dient einzig und alleine dem mobilen sektor! Dieser ist intel wichtiger und man will nur eine CPU bauen.




Der test fördert nicht gerade deren zukunft. :rolleyes:


bei dem verbrauch und abwärme sind das ja auch die perfekten mobile CPUs X-D

Badesalz
2021-04-04, 10:42:55
PCGH-Bewertungen sind immer nutzlos, weil total willkürlich.Das wird glaub ich wirklich noch dauern bis das verstanden ist (und das nicht nur bei denen). Wenn ich sage, daß es Profis sind, dann kannst du mir das schon glauben.
Selbstverständlich sind die Bewertungen also NICHT "willkürlich". Sie sind nur nicht... rein technisch begründet.

Der test fördert nicht gerade deren zukunft. :rolleyes:=)
Das hat man in diesem Elfenbeinturm der Aufrichtigkeit irgendwie auch nicht kommen sehen... Bisher lief das zu allermeist auch halbwegs gut unter dem Radar.
Bleiben wir aber auch fair. Der Job den es da wieder einmal zu erledigen gab war diesmal wirklich extrem undankbar und für euch kaum noch unterm Radar zu halten. Endlich...

dein srakasmus nervt. einige nehmen das sonst noch für voll.Neidisch, weil es bei dem einen Beitrag mehr solche gäbe als bei all deinen vom März?

r3ptil3
2021-04-04, 11:12:52
Noch niemand ein Review gesehen in dem der 11400 und der 10400 verglichen werden?
Meiner Meinung nach neben dem normalen 11700(f), die interessanteste CPU der 11er Gen.

y33H@
2021-04-04, 11:49:14
Sample noch unterwegs.

Lehdro
2021-04-04, 11:50:06
Was gibt es da nicht zu verstehen? 0,1% sind garantiert innerhalb der nicht angegebenen Messtoleranz. Vielleicht liegt er auch 0,1% hinten?
Wenn du deine Kaufentscheidung anhand der 0,1% festmachst, ist dir eh nicht mehr zu helfen. Dass das faktisch gleich schnell ist, steht sogar im Text. Dass Zen 3 bei den AVG FPS "deutlich weiter vorn" ist, als bei den min Frametimes ist auch so ersichtlich und nachvollziehbar. Ich verstehe die Aufregung daher absolut nicht, PCGH wichtet halt die lows höher. Zudem entstehen die Messergebnisse aus mehreren Durchläufen, drei Runs soweit ich mich erinnere, zum Thema Outlier bitte hier klicken. (https://youtu.be/7SfmGeb8NeE?t=136)

Ihr kritisiert ja nicht nur die Messmethode, was ja legitim ist und bei der meisten Kritik gehe ich auch zu 100% mit (Titelauswahl (AC:V?), 3090 im 720p Test), nein, hier werden die Ergebnisse aus explizit dieser kritisiert. Natürlich ändert sich das Ergebnis, wenn ich die Methode ändere - duh, großer Erkenntnisgewinn.

=Floi=
2021-04-04, 12:45:52
naja, man sollte 5800x mit dem intel vegleichen. gibr man mehr geld aus, wird ein 12-16 kerner immer besser sein. Ist hald auch ne komischa haltung, den 5900x so runterzuziehen.

MiamiNice
2021-04-04, 13:47:19
Wenn du deine Kaufentscheidung anhand der 0,1% festmachst, ist dir eh nicht mehr zu helfen. Dass das faktisch gleich schnell ist, steht sogar im Text.

Ich würde da sogar noch den nächsten Schritt machen. Die Jungs die sich wegen 0,1% streiten, sind auch nicht besser.

naja, man sollte 5800x mit dem intel vegleichen. gibr man mehr geld aus, wird ein 12-16 kerner immer besser sein. Ist hald auch ne komischa haltung, den 5900x so runterzuziehen.

Kommt wohl stark auf den Einsatzzweck an. Ein 12 oder 16 Kerne kann gar kontraproduktiv sein ggü. einem 8 Kerner. Und das sogar akut in der aktuellen Zeit.

SKYNET
2021-04-04, 15:21:43
Ein 12 oder 16 Kerne kann gar kontraproduktiv sein ggü. einem 8 Kerner. Und das sogar akut in der aktuellen Zeit.

na, das erklär mal...

rentex
2021-04-04, 15:39:11
Er meint wohl, das ein 5800X das Optimum zum Spielen darstellt, was für einige Games auch stimmt...im großen und ganzen eben nicht. Das wurde in diversen Reviews schon bewiesen.

Lehdro
2021-04-04, 15:48:31
Er meint wohl, das ein 5800X das Optimum zum Spielen darstellt, was für einige Games auch stimmt...im großen und ganzen eben nicht. Das wurde in diversen Reviews schon bewiesen.
Jup, die richtig großen negativen Ausreißer mit 12 oder 16 Cores gehören der Vergangenheit an, eigentlich hatte damit schon Zen 2 Schluss gemacht. TR 1k & 2k hatten damit zum Beispiel noch massive Probleme, da wurde aber softwareseitig auch einiges seitdem weggepatched.

MiamiNice
2021-04-04, 16:04:10
Er meint wohl, das ein 5800X das Optimum zum Spielen darstellt, was für einige Games auch stimmt...im großen und ganzen eben nicht. Das wurde in diversen Reviews schon bewiesen.

Ich meine auch Anwendungen die nicht mit mehr als X Kernen skalieren - und jeder Kern mehr frisst Dir die TDP weg. Ich meine auch nicht explizit AMD oder Intel - sondern beide. Ich würde mir aktuell keinen CPU kaufen mit mehr Kernen als ich brauche. Selbst beim 8 Kerner wird noch HT ausgeschaltet um mehr Takt zu generieren.

Langlay
2021-04-04, 16:54:08
Ich meine auch Anwendungen die nicht mit mehr als X Kernen skalieren - und jeder Kern mehr frisst Dir die TDP weg.


Das macht keinen Unterschied, wenn der Kern nicht genutzt wird, wird die CPU mittels Powergate den Kern einfach abschalten. Der Kern braucht dann keinen Strom mehr. Intel/AMD machten das bestimmt schon 10 Jahre so.

Ben Carter
2021-04-04, 17:05:23
Bei Zen2/3 muss man allerdings zwischen 1 und 2 Chiplets unterscheiden.

MiamiNice
2021-04-04, 17:11:12
Wenn das seit 10 Jahren eingebaut ist, scheint es seit 10 Jahren nicht zu funktionieren. Nicht umsonst deaktiviert man auch heute noch Kerne und HT wenn man genug native Kerne, sprich acht, hat ��*♂️
Naja, zumindest bei den Gamern.

y33H@
2021-04-04, 17:30:46
Das ist eher um Thread-Hopping zu vermeiden, falls der Scheduler spackt.

Virtual
2021-04-04, 17:47:06
Wenn das seit 10 Jahren eingebaut ist, scheint es seit 10 Jahren nicht zu funktionieren. Nicht umsonst deaktiviert man auch heute noch Kerne und HT wenn man genug native Kerne, sprich acht, hat ��*♂️
Naja, zumindest bei den Gamern.
Auf dem ruhenden Windows Desktop sind durchweg fast Kerne meines 5800X im C3 Powerstate, d.h. sie schlafen vor sich hin. Die Leistungsaufnahme im C3 ist <<1W. Wenn sie alle schlafen, kommen sie nicht einmal zusammen auf 1W. Der Verlustleistung kommt dann fast ausschließlich vom IOD.

MiamiNice
2021-04-04, 18:14:04
Das ist eher um Thread-Hopping zu vermeiden, falls der Scheduler spackt.

Das machte man auf den alten AMDs. Auf einem 10900k z.b. legt man zwei Kerne generell pennen und deaktiviert zusätzlich HT - als Gamer. Bekommt man noch ein wenig mehr raus.

Prinzenrolle
2021-04-04, 18:27:38
Schaut man sich die PCGH Bewertung an, so belegt der 11900K nur deshalb eindeutig den ersten Platz, weil eine UHD750 Grafikeinheit sowie der AVX-512 Befehlssatzerweiterungen enthalten ist.
Liebe Redakteure der PCGH, nach eurer Auffassung ist wohl beides ein immens wichtiges Kriterium...

Wenn ich mich richtig erinnere - als ich um 2000 die erste PCGH gekauft hatte, zählte die Ausstattung schon zu den Schulnoten und ganz plötzlich soll das nun nicht mehr gelten, da die Lieblingsfirma keine IGP auf das Silizium brennt?:biggrin:

Es ist ja nun wirklich keine Neuigkeit mehr, dass PCGH immer die best case Resultate bei Nvidia und Intel liefert. Man kann da natürlich an Zufall glauben, muss man aber nicht.

Jetzt wäre es natürlich mal an der Zeit die Korruption bei der PCGH aufzudecken. Ich ernenne dich mit AMD Logo im Avatar zum Ermittler, das wirkt so schön neutral.:wink:

aufkrawall
2021-04-04, 18:28:23
Das dürfte der schlechteste CPU-Launch-Thread seit vielen Jahren sein. :(

Prinzenrolle
2021-04-04, 18:35:26
Die CPUs ohne K, sind jetzt auch nicht Gegenstand der Diskussion...

Ist der review-thread nur für die teuren K CPUs? Lohnen sich nicht. (https://geizhals.de/intel-core-i7-11700f-cm8070804491213-a2492654.html)

Matrix316
2021-04-04, 18:52:38
Das dürfte der schlechteste CPU-Launch-Thread seit vielen Jahren sein. :(
Es ist auch IMO die schlechteste Intel CPU seit dem Pentium 4 oder so.

Ich bin zwar seit anbeginn des Ryzens bei AMD aber irgendwie freu ich mich auf den Alder Lake. :)

rentex
2021-04-04, 18:55:36
Alder Lake wird wirklich interessant!

Atma
2021-04-04, 18:58:57
Das dürfte der schlechteste CPU-Launch-Thread seit vielen Jahren sein. :(
Zweifelsohne. Rocket Lake würde ich nicht mal geschenkt nehmen.

aufkrawall
2021-04-04, 19:01:58
Zweifelsohne. Rocket Lake würde ich nicht mal geschenkt nehmen.
Es ging mir eher um den Gehalt der Posts in diesem Thread. Knüpft allerdings gerade nahtlos an...

Atma
2021-04-04, 19:13:32
Es ging mir eher um den Gehalt der Posts in diesem Thread. Knüpft allerdings gerade nahtlos an...
Wie Matrix schon richtig schrieb, ist es eben auch die schlechteste Intel CPU seit langem. Was für gehaltvolle Posts erwartest du zu einer CPU, die keine wirkliche Daseinsberechtigung hat?

Die paar Monate bis Alder Lake hätte Comet Lake problemlos überstanden. Intel kassiert zu recht Hohn und Spott von allen Seiten für Rocket Lake.

aufkrawall
2021-04-04, 19:22:51
Mir schleierhaft, was man sich tolles vom little.BIG-Mist für Spiele-PCs erwartet. :confused:
Mit B560 bekommt man immerhin richtig gute Spiele-Performance (ob nun mit CML oder RKL) bei immer noch anständiger Anwendungs-Performance zum Spott-Preis (im positiven Sinn).
In Hitman 2 dürfte der 11400F mit identisch optimiertem 3200er RAM locker 35% schneller als ein R5 3600X sein. Die schnellsten CPUs sind sowieso für quasi alle aktuellen Spiele komplett überdimensioniert.

Badesalz
2021-04-04, 20:28:15
Ich finds ebenfalls schön, aber 3600X kam auch knapp nach Mitte 2019. Hitman2 Herbst 2018... Echt, "2"? :)

Preislich sind die kleineren natürlich eine Hausnummer. Alternate ist grad mit 162€ für 11400F dabei... Lagernd. Mich würde aber eher interessieren wie er zum 5600X steht und nicht zum 3600X.

Und wer der keine dickere Graka kaufen kann und weiter bei seiner Auflösung-noRT bleibt, jetzt auf eine neue CPU aufrüstet. Für was? Läuft die 2060s oder 5600xt oder was auch immer noch laut Steam-Stat, dann signifikant schneller als mit "3600X"?

Selbst wenn die kleineren beachtenswert wären, der Markt ist an der Stelle einerseits erstmal satt, andererseits ziemlich blockiert.

aufkrawall
2021-04-04, 20:56:16
Hitman2 Herbst 2018... Echt, "2"? :)

Kannst mir Teil 3 giften, dann teste ich das extra für dich. ;)

WedgeAntilles
2021-04-04, 23:21:34
Wie Matrix schon richtig schrieb, ist es eben auch die schlechteste Intel CPU seit langem. Was für gehaltvolle Posts erwartest du zu einer CPU, die keine wirkliche Daseinsberechtigung hat?

Aha.
Was sagt es denn über AMD aus, wenn die schlechteste Intel CPU seit langem (die keine Daseinsberechtigung hat) mir zum zocken mehr Frames für den Euro liefert als AMD?

Klar, wenn ich Anwendungen mit 12 Kerne+ habe ist AMD toll.
Aber wenn ich einfach nur zocken will? Wieso genau soll ich mir da überteuerte Zen 3 kaufen wenn es einen irre günstigen 11400 gibt?

Technisch bin ich ja bei dir, da sind die Zen 3 besser. Bei identischen Preisen gibt es keinen Grund RL zu kaufen.
Nur: Habt ihr alle unbegrenzt Geldmittel zur Verfügung, so dass euch die Preise völlig schnuppe sind?
Klang bei Zen 2 ja noch ganz anders - Gratulation, dass ihr alle zu so viel Kohle gekommen seit!

Mayk-Freak
2021-04-05, 00:10:37
10 Weltrekorde hat Rocket Lake schon erreicht. Super Pi 1M 4.546 sec :D

https://asus-press.de/asus-overclocker-knacken-mit-dem-rog-maximus-xiii-apex-lang-bestehende-rekorde/

BlacKi
2021-04-05, 00:19:22
Aha.
Was sagt es denn über AMD aus, wenn die schlechteste Intel CPU seit langem (die keine Daseinsberechtigung hat) mir zum zocken mehr Frames für den Euro liefert als AMD?

Klar, wenn ich Anwendungen mit 12 Kerne+ habe ist AMD toll.
Aber wenn ich einfach nur zocken will? Wieso genau soll ich mir da überteuerte Zen 3 kaufen wenn es einen irre günstigen 11400 gibt?

Technisch bin ich ja bei dir, da sind die Zen 3 besser. Bei identischen Preisen gibt es keinen Grund RL zu kaufen.
Nur: Habt ihr alle unbegrenzt Geldmittel zur Verfügung, so dass euch die Preise völlig schnuppe sind?
Klang bei Zen 2 ja noch ganz anders - Gratulation, dass ihr alle zu so viel Kohle gekommen seit!


einfach ihre scheiße labern lassen...

-=Popeye=-
2021-04-05, 01:04:29
Wird sich hier wieder gegenseitig vor den Koffer geschissen? Beide CPUs haben ihre Vor- und Nachteile.

rentex
2021-04-05, 06:46:38
Hier wird schon bei Summen von 100- 200€ Euros, die finanzielle Existenzfrage gestellt. Denkbar schlechte Voraussetzungen um ein Hobby zu betreiben.

dildo4u
2021-04-05, 07:02:00
Ohne Intel wirste ermal keine normalen Preise mehr sehen und das gilt für CPUs und GPUs.
AMD hat kein Anreiz gute Preise zu bieten wenn TSMC nicht genug liefern kann.

rentex
2021-04-05, 07:14:02
Erstaunlich wie schnell die Stimmung gegen AMD umschlägt, wenn sie das gleichen Erfolgslevel wie Intel erreichen und wirtschaftlich handeln.
AMD ist das neue Intel...solche Käufer wünscht man seinen ärgsten Feinden nicht ;D

Gumril
2021-04-05, 09:03:43
Beide Seiten liefern doch gutes fürs Geld, wobei die "günstigen" Intel-Cpu Preise leider von den Mainbordpreisen wieder obsolet geführt werden.

Freestaler
2021-04-05, 09:13:32
@Gumril, mMn. Halbwegs gute B560 starten um die 120 Euro. Ist doch okay?

=Floi=
2021-04-05, 09:48:44
Wie Matrix schon richtig schrieb, ist es eben auch die schlechteste Intel CPU seit langem.

Intel müsste auch endlich auf einen 2 jahres zyklus umstellen. Hier produziert intel auch unmengen an kosten für quasi nichts.

gnomi
2021-04-05, 10:04:18
Man kann dieses Mal so wie ich das sehe ganz gut auf OC verzichten und B Chipsätze nehmen.


Dennoch überzeugt mich das Angebot nicht muss ich sagen.
Habe mir noch einen 9900KF gegönnt.
Aus dem alten 8700k werte ich ebenfalls mit Board und Ram aus dem Abverkauf meinen Zweit PC auf.
So habe ich bisschen zu basteln und auch Ersatzteile wieder reichlich.
Nebenbei kann ich sogar meinen 2600k plus 16GB DDR 3 noch als Ersatzteil oder Aufwertung für den ältesten Büro Rechner nehmen, der unbedingt noch laufen muss. (Familienbetrieb)
Gerade mit K Prozessoren im Blick ist diese Lösung etwas besser denke ich, auch wenn es schwerfällt.

Ich bin tatsächlich durch mit neuer Desktop Hardware, bis wir eine neue Generation CPU's mit DDR 5 und vertretbare GPU Preise sehen.
Man kann auch mit Next Gen Konsolen zu 500€ oder Midrange Systemen doch alles bequem spielen.
PCGH lese ich muss ich sagen seit Bestehen zwischenzeitlich gerne. Letztes Jahr habe ich wegen dem tollen Abo und weil ich gerne wieder ne Zeitschrift haben wollte auch mal 12 Monate abgeschlossen.
Werde trotzdem nicht verlängern, da mit dem Thema vorerst durch.
Hobby heißt für mich nicht mehr so, dass ich da mehr alles kaufe, was neu ist und ich jedes Feature gerne Beta teste.
Möchte nicht so enden, da gereizt zu werden, weil ich Produkte über die ich Schönes lese nicht mehr bekomme oder die sündhaft teuer, stromfressend oder kaum besser/nötig sind.
Mache mir das jetzt gemütlicher und würde auch einen fehlenden optimierten Grafik Treiber und viele Bios Versionen zum Launch etwas unschön finden und erwähnen.
Natürlich müssen die Firmen trotzdem immer was Neues anbieten. Ist doch klar. Und wer nicht versorgt ist, bekommt einfach ein extrem gutes Angebot mit Intel Preis Leistung Spieler und AMD Top Bereich. Einige Features mehr jedes Mal auf den Z Boards rechtfertigen auch leichte Erhöhungen bei Preisen und Wertungen denke ich.
Ich kann da Null verstehen, sich über individuelle/subjektive Bewertungssysteme auszulassen.
Klar, ich fand die Planescape Torment der Gamestar auch immer zu niedrig. :freak:
Retro Blick :up: (https://www.gamestar.de/artikel/planescape_torment_enhanced_edition,3312409,seite2.html)

Opprobrium
2021-04-05, 10:11:19
Naja, auch wenn sie derzeit an der absoluten Leistungsspitze nicht mithalten können (schon gar nicht wenn Anwendungsperformance mit berücksichtigt wird): Im 6 & 8 Kernbereich hat Intel derzeit tatsächlich ganz gute Angebote. Und gleichzeitig ist das der Sweetspot für Gamer.

Idealerweise würde AMD einfach mit ihrem Zen 3 APUs dagegen halten um ihr Portfolio mit preisgünstigen und effizienten 4 bis 8 Kernern samt iGPU nach unten hin abzurunden.

Der_Korken
2021-04-05, 10:14:33
Erstaunlich wie schnell die Stimmung gegen AMD umschlägt, wenn sie das gleichen Erfolgslevel wie Intel erreichen und wirtschaftlich handeln.
AMD ist das neue Intel...solche Käufer wünscht man seinen ärgsten Feinden nicht ;D

Eigentlich ist das doch gut so. Das schlimmste für einen gesunden Wettbewerb sind imho Fanboys, die immer von der selben Firma kaufen, egal wie schlecht bzw. teuer die Produkte sind. Wären alle Käufer, die was von Nehalem bis Skylake besaßen, brav bei Intel geblieben und hätten nicht AMD gekauft, würde es Zen 3 gar nicht geben.

Gumril
2021-04-05, 10:32:13
@Gumril, mMn. Halbwegs gute B560 starten um die 120 Euro. Ist doch okay?

Ok stimmt habe gedacht man bräuchte den Z590 für alle neuen Funktionen des Intels.
Dann ist Intel wohl im 6 Kernermarkt mal Preisgünstiger wenn man neu kaufen will.

Matrix316
2021-04-05, 12:35:01
Aha.
Was sagt es denn über AMD aus, wenn die schlechteste Intel CPU seit langem (die keine Daseinsberechtigung hat) mir zum zocken mehr Frames für den Euro liefert als AMD?

Klar, wenn ich Anwendungen mit 12 Kerne+ habe ist AMD toll.
Aber wenn ich einfach nur zocken will? Wieso genau soll ich mir da überteuerte Zen 3 kaufen wenn es einen irre günstigen 11400 gibt?

Technisch bin ich ja bei dir, da sind die Zen 3 besser. Bei identischen Preisen gibt es keinen Grund RL zu kaufen.
Nur: Habt ihr alle unbegrenzt Geldmittel zur Verfügung, so dass euch die Preise völlig schnuppe sind?
Klang bei Zen 2 ja noch ganz anders - Gratulation, dass ihr alle zu so viel Kohle gekommen seit!

Ja Moment, reden wir über die (untere) Mittelklasse oder über High End?

Außerdem ist die Frage ob es Sinn macht die aktuellen Scalperpreise mit einzubeziehen?

Noch mal: Ich hab 650 für einen 5900X bezahlt. Da hieß es damals noch: "Waaas? So viel über UVP?"

Bei Mindfactory kostet ein 11900KF gerade 640 Euro. Auch nicht viel billiger, genauso über UVP und dazu noch 4 Kerne weniger bei fast gleicher IPC.

Ich meine Intel war bei Spielen schon immer besser als AMD, seit Core 2 Duo. Selbst die 5000er Serie hat nicht bei jedem Spiel Intel ein oder überholt.

Aber dass Intel bei der Top Consumer CPU 2 Kerne weggenommen hat und trotzdem den gleichen Preis will wie beim Vorgänger - welcher in manchen Spielen sogar besser ist... und man jetzt noch mehr Strom verbraucht... mit 8 Kernen mehr als AMD mit 12 :ugly:

Und Anwendungsbenchmarks tut irgendwie jeder Intel Fanboy gerade unter den Teppich kehren... braucht keiner, nutzt keiner, machen wir später einen separaten Test mal... :rolleyes:

aufkrawall
2021-04-05, 12:52:16
Ja Moment, reden wir über die (untere) Mittelklasse oder über High End?

8C taugen imho per Definition kaum noch als High End. Klar, die Top-Modelle sind Bauernfängerei und das gehört kritisiert. Macht ja auch fast jede Seite, bez. PCGH mal ausgenommen. ;)
Für jede Workstation ist eh 12C Zen 2 alternativlos, bei gleichzeitig gewünschter Gaming-Stärke dann 12C Zen 3 (ist zwar teuer, aber seiner Zeit auch weit voraus). Die 6C/8C Zen 3s sind trotzdem unrunde Produkte für den Preis, und 6C/8C Zen 2 hat mit B560 quasi gar keine Daseinberechtigung mehr (erst recht nicht zu den Preisen). Negatives findet sich nicht ausschließlich bei Intel.

Matrix316
2021-04-05, 13:46:11
8C taugen imho per Definition kaum noch als High End. Klar, die Top-Modelle sind Bauernfängerei und das gehört kritisiert. Macht ja auch fast jede Seite, bez. PCGH mal ausgenommen. ;)
Für jede Workstation ist eh 12C Zen 2 alternativlos, bei gleichzeitig gewünschter Gaming-Stärke dann 12C Zen 3 (ist zwar teuer, aber seiner Zeit auch weit voraus). Die 6C/8C Zen 3s sind trotzdem unrunde Produkte für den Preis, und 6C/8C Zen 2 hat mit B560 quasi gar keine Daseinberechtigung mehr (erst recht nicht zu den Preisen). Negatives findet sich nicht ausschließlich bei Intel.
Naja, gerade weil heute auch Streaming in zu sein scheint, würde ich sagen, dass 10, 12 oder 16 Kerne gar nicht so unrealistisch für Gaming PCs sind (es sei denn man hat spezielle Streamingrechner). Wenn Spiele mal 8 Kerne oder 16 Threads richtig ausnutzen, dann hast du keine Reserven mehr.

Wobei mir auch klar ist, dass ich gerade genau das Gegenteil argumentiere wie beim VRAM bei Grafikkarten. :D

Ist aber lustig: VRAM muss es mehr als 11 GB sein heute, aber bei CPU Kernen, da reichen 8 weil heute meistens nicht mehr unterstützt wird. ;)

Atma
2021-04-05, 13:51:50
Technisch bin ich ja bei dir, da sind die Zen 3 besser.
Mir geht es primär um die Technik. Als ich die Leistungsaufnahme des 11900K unter Full Load mit Intels tollem, neuen "Adaptive Boost" sah, blieb mir nur das:

:facepalm::facepalm::facepalm:

300W+ für 8C/16T im Jahre 2021 kann einfach nicht deren ernst sein. 300W zieht btw. auch mein 10980XE unter Full Load, nur hat der 18C/36T und ist zudem übertaktet. Klar ist Full Load in Cinebench kein Maßstab für den Alltag, Rocket Lake macht abgesehen vom PCIe 4.0 Support aber nichts besser als Comet Lake und hat sogar noch 2C/4T weniger.

Technisch ist Rocket Lake eine Vollkatastrophe, beim 11900K kommt dann noch die preisliche Vollkatastrophe dazu.

Badesalz
2021-04-05, 13:55:53
Aha.
Was sagt es denn über AMD aus, wenn die schlechteste Intel CPU seit langem (die keine Daseinsberechtigung hat) mir zum zocken mehr Frames für den Euro liefert als AMD?Naja..., auch @mein lieber Blacki. Das ist wohl noch die Macht der Gewohnheit. Man möge bisschen Nachsicht zeigen... Solche Themen liefen bisher immer über den Schwerpunkt Technik, garniert mit bisschen Gemecker über Intelpreise und der Ungeduld wann denn ein Mitbewerber endlich kleinwenig Konkurrenz in das Geschehen bringt. Was aber auch später nicht gleich grundsätzlich die erhoffte Bewegung brachte.

Daß sich neuerdings in einigen Segmenten bei Intel klare Vorteile rein aus der BWL-Endkundensicht zeigen, das ist für viele wohl noch so neu, daß es erstmal wirklich realisiert werden muss.

An der Stelle nochmal vielen vielen Dank an AMD dafür.

Daredevil
2021-04-05, 14:00:12
Technisch ist Rocket Lake eine Vollkatastrophe
Was am Ende raus kommt ist für 14nm ( Was auch immer davon noch 14nm ist ) schon beachtlich.
Im Grunde hinkt Intel nur bei dem Verbrauch hinterher und die Möglichkeit, mehr Kerne auf das Package zu kleben.
Das sind alles Dinge, die beim Wechsel auf 10/7/5nm möglich werden.
Insofern würde ich, auch wenn der größte 8 Kerner eher nen schneller Bulldozer ist, schon sagen das Intel die Hausaufgaben macht.

Man beachte an der Stelle gerne mal, was AMD mit 14nm gebracht hat.
Die haben sich beachtlich verbessert, ruhen sich aber auch ein wenig auf die Fertigung aus. Intel kommt halt von der anderen Seite.

aufkrawall
2021-04-05, 14:01:55
Naja, gerade weil heute auch Streaming in zu sein scheint, würde ich sagen, dass 10, 12 oder 16 Kerne gar nicht so unrealistisch für Gaming PCs sind (es sei denn man hat spezielle Streamingrechner). Wenn Spiele mal 8 Kerne oder 16 Threads richtig ausnutzen, dann hast du keine Reserven mehr.

Das kann halt jedem, der nicht stream, völlig egal sein. Außerdem könnte das QuickSync-Encoding der Gen 12-GPUs für Streaming durchaus brauchbar sein, und der 11400 kostet nur 15€ mehr als der F.


Ist aber lustig: VRAM muss es mehr als 11 GB sein heute, aber bei CPU Kernen, da reichen 8 weil heute meistens nicht mehr unterstützt wird. ;)
Äpfel - Birnen.

BlacKi
2021-04-05, 14:43:46
schade das es keine reviews vom 11700f gibt. 5600x leistung + preis mit mit 4threads mehr? und wie schon öfter gesagt, der gaming verbrauch liegt nur minimal höher. leute die 300w nennen kann man per se nicht ernst nehmen.

r3ptil3
2021-04-05, 14:51:55
schade das es keine reviews vom 11700f gibt. 5600x leistung + preis mit mit 4threads mehr? und wie schon öfter gesagt, der gaming verbrauch liegt nur minimal höher. leute die 300w nennen kann man per se nicht ernst nehmen.

Darauf warte ich auch, meiner Meinung nach einer der interessantesten CPUs neben dem 11400f.

SKYNET
2021-04-05, 15:32:14
Ich meine auch Anwendungen die nicht mit mehr als X Kernen skalieren - und jeder Kern mehr frisst Dir die TDP weg. Ich meine auch nicht explizit AMD oder Intel - sondern beide. Ich würde mir aktuell keinen CPU kaufen mit mehr Kernen als ich brauche. Selbst beim 8 Kerner wird noch HT ausgeschaltet um mehr Takt zu generieren.

ach, darum boostet nen 5900X und 5950X in teillast oder nur auf wenigen kernen höher als nen 5800X.... weils ja die TDP wegfrisst X-D

robbitop
2021-04-05, 15:33:19
Man beachte an der Stelle gerne mal, was AMD mit 14nm gebracht hat.
Wobei man beachten muss, dass Intels 14 nm nicht GFs/Samsungs 14 nm entspricht. Das sind eher 10 nm bei GF/Samsung/TSMC. Intels 22 nm entsprach in etwa dem was TSMC/Samsung als 14/16 nm bezeichnet haben.

Das kann halt jedem, der nicht stream, völlig egal sein. Außerdem könnte das QuickSync-Encoding der Gen 12-GPUs für Streaming durchaus brauchbar sein, und der 11400 kostet nur 15€ mehr als der F.


Oder NV's NVENC, was seit Turing wirklich sehr gut geworden ist. Modernes Hardwareencoding ist sicherlich der deutlich effizientere Weg für Echtzeittranscodierung als da mit teuren CPU Cores heranzugehen. :)

Langlay
2021-04-05, 15:57:35
Oder NV's NVENC, was seit Turing wirklich sehr gut geworden ist. Modernes Hardwareencoding ist sicherlich der deutlich effizientere Weg für Echtzeittranscodierung als da mit teuren CPU Cores heranzugehen. :)

Jein. Das Problem ist bei Twitch kannst du nur mit relativ wenig Bandbreite streamen. Maximal 8Mbit, empfohlen wird 6Mbit, wenn es über 10Mbit peakt steigt Twitch aus.

In den niedrigen Bitraten erreichst du mit CPU Encodung und Medium Preset eine etwas bessere Qualität als mit NVENC. Wenn du ne AMD Graka benutzt ist CPU Encoding auch mit niedrigeren Presets schon besser als GPU Encoding. Und ein 5900X reicht locker aus um zu zocken und nebenbei etwas CPU Encoding zu betreiben.

SKYNET
2021-04-05, 16:04:34
@Gumril, mMn. Halbwegs gute B560 starten um die 120 Euro. Ist doch okay?

ich sehe 165€:
https://geizhals.de/?cat=mbp4_1200&xf=4862_ALC1220%7E8405_PCIe+4.0+x4

bei AMD gehts für über 25 taler weniger los bei gleichen mindestanforderungen:
https://geizhals.de/?cat=mbam4&xf=4862_ALC1220%7E8405_PCIe+4.0+x4

nen 11700KF kostet 390 taler, der 5800X 425 taler... nun kommen bestimmt grad nen paar blaue um die ecke und sagen "siehste is billiger"... aber moment, da fehlt ja was; das 100W stärkere netzteil das beim intel benötigt wird, und mal schnell 20 taler mehr kostet als das gleiche modell mit 100W weniger. :tongue: und wenn das noch nicht genug ist, kann man beim 5800X nen günstigeren kühler nehmen wärend der intel schon das beste vom besten brauch damit er wenn man die handfesseln löst nicht grad temparaturbedingt runterregelt, also nochmals easy 40-50€ die der intel nur wegen der abwärme mehr verschlingt... heisst unterm strich ist das intelsystem mit 11600KF 50€ taler teurer als das AMD system mit 5800X... wenn man viel mit der kiste macht(decodieren, streaming, gaming etc.) wirds noch mieser für den intel, weil das sieht man dann ende jahr auf der stromrechnung....

und mir persönlich ist der stromverbrauch im fall wumpe, gibt aber genug die sich ja dadran aufhängen :freak:

aufkrawall
2021-04-05, 16:06:17
Nur hat man bei Software Encoding mit Spielen mit komisch hoher CPU-Last bzw. Spitzen (BFV RT NV-D3D12...) dann sicherlich ab und zu mal Ruckler, wenn nicht gar deutliche Einbrüche im Streaming (oder in der Spiele-Performance). Encoding auf demselben System ist also immer irgendwie kompromissbehaftet. Gen 12 QS H.264 könnte auch besser als NVENC Ampere H.264 sein.

Wiseman
2021-04-05, 16:07:15
schade das es keine reviews vom 11700f gibt. 5600x leistung + preis mit mit 4threads mehr? und wie schon öfter gesagt, der gaming verbrauch liegt nur minimal höher. leute die 300w nennen kann man per se nicht ernst nehmen.

Ich habe so eine i7-11700f in der Tray-Version für 309 Euro gekauft. Müsste die kommenden Tage bei mir eintreffen. Vielleicht kann ich Ende dieser Woche etwas Ernstzunehmendes zum Gaming-Verbrauch dieser CPU (65 Watt TDP) erzählen.

Freestaler
2021-04-05, 16:22:08
P/L vergleiche zwischen CPU die mehr als 3 Monate auf dem Markt sind vs. Neu launches macht jetzt aber auch kein Sinn BWL technisch. Wenn dann nach Antwort des/der Mitbewerber. Warte da mal wie immer 2-4 Wochen. Und im moment wo ja e alles drunter und drüber.

Evtl mögt ihr euch noch an die 2000 wende errinnern. Da waren CPU fast schon Tagespreise fällig. Das war ne Zeit mit schlag auf schlag. Vielleicht kommt die ja jetzt endlich wieder und genau dafür gibts rkl.

@Skynet, gerademal 1stk am4 board ist wirklich günstiger bei deinen Ausstattungspreferenzen. Also würd ich sagen, vorallem im Hinblick wie neu die 1200er sind, Board ist etwa gleichstand. Mehr bzw. Bessere Features wie eben Soundchip, VRM, RGB, OC kosten bei beiden dann jeweils etwa gleichviel mehr. Rest deines Posts bleibt, aber mal an alle, Gamingkiste 20 Euro mehr oder weniger fürs CPU, Board, Ram, Netzteil oder Kühler wird doch im moment durch die Grakakosten echt egal.

x-force
2021-04-05, 16:31:18
Oder NV's NVENC, was seit Turing wirklich sehr gut geworden ist. Modernes Hardwareencoding ist sicherlich der deutlich effizientere Weg für Echtzeittranscodierung als da mit teuren CPU Cores heranzugehen. :)

wie viel speicher zieht es?
wie viel watt zieht das vom powerbudget ab?

das würde ich eher über eine zweite gpu laufen lassen

Leonidas
2021-04-05, 16:39:56
Noch niemand ein Review gesehen in dem der 11400 und der 10400 verglichen werden?


Fehlt mir genauso. Konnte ich daher nicht in die Launch-Analyse einbinden:
https://www.3dcenter.org/artikel/launch-analyse-intel-rocket-lake

Langlay
2021-04-05, 16:45:27
Nur hat man bei Software Encoding mit Spielen mit komisch hoher CPU-Last bzw. Spitzen (BFV RT NV-D3D12...) dann sicherlich ab und zu mal Ruckler, wenn nicht gar deutliche Einbrüche im Streaming (oder in der Spiele-Performance). Encoding auf demselben System ist also immer irgendwie kompromissbehaftet. Gen 12 QS H.264 könnte auch besser als NVENC Ampere H.264 sein.


Grundsätzlich haste beim Streaming immer irgendwelche Probleme. Wenn du alles auf einem PC machst haste irgendwelche Probleme (egal ob CPU oder GPU Encoding), also weniger FPS ingame oder Ruckler und Stottern ingame oder im Stream. Wenn du einen PC zum zocken und einen PC mit Capturecard zum Streamen hast, haste dann andere Probleme, in dem Fall hauptsächlich irgendwelche Audioprobleme. Also Ingameton und Bild sind nicht synchron oder sowas halt.


Und was die Qualität angeht, ist halt auch die Bitrate entscheidend. Was bei 50mbit Bitrate super funzt und geil aussieht, kann bei 6Mbit Bitrate quasi nur Pixelbrei liefern.

Aber gut das ist jetzt auch schon reichlich offtopic.

Daredevil
2021-04-05, 16:56:18
Nur hat man bei Software Encoding mit Spielen mit komisch hoher CPU-Last bzw. Spitzen (BFV RT NV-D3D12...) dann sicherlich ab und zu mal Ruckler, wenn nicht gar deutliche Einbrüche im Streaming (oder in der Spiele-Performance). Encoding auf demselben System ist also immer irgendwie kompromissbehaftet. Gen 12 QS H.264 könnte auch besser als NVENC Ampere H.264 sein.
Und selbst wenn du NVENC nutzt, musst du immer darauf achten, dass die Kiste im Streaming nicht zu 100% ausgelastet ist, weil es sonst zuckelt.
Eine externe GPU, die das übernehmen könnte, wäre da schon recht ideal.

Sonst muss man halt an Qualität sparen, FPS begrenzen oder eine dicke GPU nehmen, wo man genug Freiraum hat.

Platos
2021-04-05, 17:29:19
Wenn man sagt, Streaming ist "In", dann werden mindestens 90% der "Streamer" sowieso kein 5900X sich leisten können oder ähnliches. Mehr Kerne weil viele Leute Streamen ist also ein hinfälliges Argument, solange die Kerne nicht günstiger werden (was sie nicht tun, mit Zen3 sind sie teurer geworden).

Daredevil
2021-04-05, 18:53:40
Deswegen ist ja Turing/Ampere die GPU fürs Budget Streamen.

BlacKi
2021-04-05, 19:18:23
Ich habe so eine i7-11700f in der Tray-Version für 309 Euro gekauft. Müsste die kommenden Tage bei mir eintreffen. Vielleicht kann ich Ende dieser Woche etwas Ernstzunehmendes zum Gaming-Verbrauch dieser CPU (65 Watt TDP) erzählen.der typisch anliegende gaming takt wäre schon sehr viel wert.

crux2005
2021-04-06, 00:17:19
i6AW1wuP7r4

Rocket Lake ist in FS2020 und Cyberpunk sehr stark. Bin gespannt wie es in FS mit DX12 Renderer aussehen wird.
Auch die Low 1% sind bei Intel besser.

Unicous
2021-04-06, 01:00:23
Welch Zufall, die zwei Spiele die bei Multithreading vollkommen abkacken. Ist(/war?) Cyberpunk bei SMT nicht auf 6 Kerne beschränkt und bei Ryzen Prozessoren ging es am Anfang überhaupt nicht? :uponder:

Ähnliches gilt für FS, wo es ja auch mehrere Updates brauchte um überhaupt zweistellige fps zu erreichen.

aufkrawall
2021-04-06, 01:04:54
Welch Zufall, die zwei Spiele die bei Multithreading vollkommen abkacken. Ist(/war?) Cyberpunk bei SMT nicht auf 6 Kerne beschränkt und bei Ryzen Prozessoren ging es am Anfang überhaupt nicht? :uponder:

Das bez. SMT in CP ist immer noch so. RDR2 hat allerdings gutes MT (lastet im CPU-Limit dauerhaft mit sowohl Intel & AMD die CPU deutlich >50% aus, was mit SMT gut ist) und läuft trotzdem gut auf RKL. ;)

Prinzenrolle
2021-04-06, 01:59:17
Klang bei Zen 2 ja noch ganz anders - Gratulation, dass ihr alle zu so viel Kohle gekommen seit!

Du verstehst das falsch. Die ehemaligen Sparfüchse sind über Nacht an deutlich mehr Geld gekommen und kaufen nun das wesentlich teurere Produkt.
Ein 11700F der sich hinsichtlich der Spieleperformance mit AMD´s Topmodellen streitet, ist für 300 Taler keinerlei Option.:facepalm:
Hier wird selbstverständlich zum 5600x gegriffen.

Welch Zufall, die zwei Spiele die bei Multithreading vollkommen abkacken.

Das sind nicht nur 2 Spiele, sondern etwa der 99,5% der sich auf dem Markt befindlichen, welche mit mehr als 12 Threads nicht mehr skalieren.:rolleyes:

ich sehe 165€:

Ich sehe B560 Boards ab 84 Euro, wozu genau sollte man viel in ein Board investieren, die Ausstattung benötigt man in der Regel sowieso nicht.

Vielleicht kann ich Ende dieser Woche etwas Ernstzunehmendes zum Gaming-Verbrauch dieser CPU (65 Watt TDP) erzählen.

Versuche bitte mal die P/L Limits im BIOS aufzuheben, dann müsste die CPU fast so gut boosten wie die K Version. :)

Unicous
2021-04-06, 02:09:29
Wat? Wer bist du denn?:confused:

Die herausgestellen Spiele haben weiterhin massive Performance-Probleme, gut für Intel, dass ihr 300-Watt Turbo hier durchzuschlagen scheint. :uup:

Langlay
2021-04-06, 02:19:37
Die ehemaligen Sparfüchse AMD-Aktionäre sind über Nacht die Jahre an deutlich mehr Geld gekommen und kaufen nun das wesentlich teurere Produkt.


Fixed for You. :biggrin:

Prinzenrolle
2021-04-06, 02:21:25
Wat? Wer bist du denn?:confused:

102 Einzelbenchmarks in Leo´s Analyse und 5% von 5600x auf 5900x, totz größerem Cache und etwas mehr Takt, jau, das skaliert hammer.:biggrin:
Flight Simulator, Cyberpunk, richtige Drecksspiele, lasten nicht mal meinen 64 Kern Treadripper aus.:redface:


Die herausgestellen Spiele haben weiterhin massive Performance-Probleme,

Bist du Spieleentwickler um das beurteilen zu können?:redface:

Fixed for You. :biggrin:

Das wäre eine schlüssige Erklärung.:biggrin:

Badesalz
2021-04-06, 09:41:39
Welch Zufall, die zwei Spiele die bei Multithreading vollkommen abkacken. Ist(/war?) Cyberpunk bei SMT nicht auf 6 Kerne beschränkt Wartet mal... Wir sind jetzt schon in der Ära in der Spiele die max. nur 6 Kerne nutzen, also max. 12 Threads (?!) als bei MT abgekackt bezeichnet werden? Wow.

Und vor einer Seite noch wurde mit Spannung auf 11700F Reviews gewartet und dann reden schon mehrere über seine Leistung? Könnt ihr dann bitte nicht auch die Reviews verlinken bitte (?)

robbitop
2021-04-06, 10:39:18
Jein. Das Problem ist bei Twitch kannst du nur mit relativ wenig Bandbreite streamen. Maximal 8Mbit, empfohlen wird 6Mbit, wenn es über 10Mbit peakt steigt Twitch aus.

In den niedrigen Bitraten erreichst du mit CPU Encodung und Medium Preset eine etwas bessere Qualität als mit NVENC. Wenn du ne AMD Graka benutzt ist CPU Encoding auch mit niedrigeren Presets schon besser als GPU Encoding. Und ein 5900X reicht locker aus um zu zocken und nebenbei etwas CPU Encoding zu betreiben.
IIRC hatte der Turing NVENC das BQ Level doch auf auf "medium" preset Level angehoben?

edit:
https://youtu.be/ccoOGfX9qxg?t=648
https://youtu.be/ccoOGfX9qxg?t=1028

NVENC mit 264 scheint also bei 6 Mbps minimal über x264 medium und slow zu liegen was Quality level angeht.

Soweit ich weiß, kostet NVENC fast keine Performance. Entsprechend ist CPU Encoding für Streaming wie schon angemerkt kein all zu sinnvoller Weg.

dildo4u
2021-04-06, 11:19:43
Welch Zufall, die zwei Spiele die bei Multithreading vollkommen abkacken. Ist(/war?) Cyberpunk bei SMT nicht auf 6 Kerne beschränkt und bei Ryzen Prozessoren ging es am Anfang überhaupt nicht? :uponder:

8 Kerne 16 Threads max, kein Plan ob sich das mit RDNA2 ändert.

DtSPEjm3G9c

aufkrawall
2021-04-06, 12:06:16
Was soll dieses Video ohne Vergleich und im kompletten GPU-Limit in einem CPU-Thread beitragen?

dildo4u
2021-04-06, 12:45:15
Man sieht das einige Threads bei 0% sind es macht also Sinn das Intel Vorteile hat wenn man z.b 11900k vs 5900X vergleicht.

SKYNET
2021-04-06, 13:04:20
Ich sehe B560 Boards ab 84 Euro, wozu genau sollte man viel in ein Board investieren, die Ausstattung benötigt man in der Regel sowieso nicht.


stimmt, lieber nen soundchip der sich anhört wie ne zermatschte 128kbit MP3 :freak:

und PCIe 4.0 am m.2 ist auch bei ner neuanschaffung total überbewertet X-D

aufkrawall
2021-04-06, 13:19:13
Komisch, der ALC897 von meinem 110€ ASRock B560 Pro4 klingt anständig. Und wenn ich das richtig sehe, kann ich ganz normal PCIe 4.0 für ein NVMe-SSD nutzen...

dildo4u
2021-04-06, 13:29:26
Hier die 3DC Zusammenfassung der 11700k sieht ok aus beim zocken, schätze mal Modelle ohne IGP haben die beste Preis/Performance für 8 Cores.

https://www.3dcenter.org/artikel/launch-analyse-intel-rocket-lake/launch-analyse-intel-rocket-lake-seite-2

Und der Schnitt sieht hier verdammt nach PCGH Werten aus 5900X und 11900k sind Gleichauf bei zocken.

rentex
2021-04-06, 13:59:11
https://www.igorslab.de/intel-gehen-die-wafer-aus-verknappung-und-extreme-preisspruenge-fuer-q2-2021-erwartet/

Langlay
2021-04-06, 14:19:43
NVENC mit 264 scheint also bei 6 Mbps minimal über x264 medium und slow zu liegen was Quality level angeht.



Slow Preset ist nicht für Echtzeit-Encoding geeignet und funzt auch nicht wirklich gut.
Optimal ist imo ein angepasstes Medium Preset. (rc-lookahead, vbv-Bufsize usw.) Aber dafür hab ich leider noch keinen Vergleichstest der Bildqualität gefunden.


Aber ja, was Qualität angeht sieht man heute kaum noch grössere Unterschiede zwischen CPU und GPU Encoding in H.264 und mit H.265/AV1 ist CPU Encoding ja dann eh Geschichte.

robbitop
2021-04-06, 14:24:16
Na ein medium preset war doch dabei. Und das wurde knapp geschlagen. Und EposVox wird schon wissen, wie er die Presets für streaming konfiguriert. Das ist ja seine Kernkompetenz.
Am Ende spielt es auch keine Rolle ob man ganz knapp drüber oder drunter ist, solange es gleich gut aussieht und im Blindtest niemand unterscheiden kann. Wenn es vergleichbar ist, dann ist es schwierig CPU Encoding zu empfehlen.

Langlay
2021-04-06, 14:29:04
Na ein medium preset war doch dabei. Und das wurde knapp geschlagen. Und EposVox wird schon wissen, wie er die Presets für streaming konfiguriert. Das ist ja seine Kernkompetenz.


Das Standardmedium Preset liefert aber schlechtere Bildqualität als ein angepasstes Mediumpreset.

Und EpoxVox nutzt selbst wohl auch ein angepasstes Mediumpreset zum Streaming -> https://youtu.be/fQ04pIcpMkM?t=659

Hier gibts einen Bildvergleich aber naja -> https://youtu.be/fQ04pIcpMkM?t=761 zwischen optimized und standart.

aufkrawall
2021-04-06, 14:33:35
Aber ja, was Qualität angeht sieht man heute kaum noch grössere Unterschiede zwischen CPU und GPU Encoding in H.264 und mit H.265/AV1 ist CPU Encoding ja dann eh Geschichte.
Ich fürchte nur, es wird noch ewig dauern, bis man AV1 live streamen kann. Intel kann ja auch schon lange VP9 in HW enkodieren, kann man aber wegen der Streaming-Plattformen dafür auch nicht nutzen (gut, afaik unterstützt QS in ffmpeg das auch nicht, nur via VAAPI unter Linux...).
Wenigstens kann man für zu Hause HEVC nutzen.

robbitop
2021-04-06, 14:35:46
Das Standardmedium Preset liefert aber schlechtere Bildqualität als ein angepasstes Mediumpreset.

Und EpoxVox nutzt selbst wohl auch ein angepasstes Mediumpreset zum Streaming -> https://youtu.be/fQ04pIcpMkM?t=659

Hier gibts einen Bildvergleich aber naja -> https://youtu.be/fQ04pIcpMkM?t=761 zwischen optimized und standart.


Er hat es nicht explizit kommentiert - aber es ist relativ wahrscheinlich, dass er das angepasste Setting auch für den Test genutzt hat, oder? Alles andere wäre relativ sinnfrei.
Das Medium Preset für NVENC war ja auch angepasst.

Ich fürchte nur, es wird noch ewig dauern, bis man AV1 live streamen kann. Intel kann ja auch schon lange VP9 in HW enkodieren, kann man aber wegen der Streaming-Plattformen dafür auch nicht nutzen (gut, afaik unterstützt QS in ffmpeg das auch nicht, nur via VAAPI unter Linux...).
Wenigstens kann man für zu Hause HEVC nutzen.

HEVC soll wohl primär ein Lizenzproblem sein. Wohl recht teuer. AV1 HW für Encoding existiert bei den GPUs ja leider noch nicht. Auch HW Decoding ist noch nicht all zu weit verbreitet. Das wird wohl noch ein Weilchen dauern.

arcanum
2021-04-06, 14:36:36
der 11700f macht eine gute figur für ~310€ und dürfte im schnitt ohne tdp lock nicht mehr als 2% langsamer sein. bin echt versucht aufzurüsten obwohl ich pc-gaming einmotten wollte.
aber ohne tests in WQHD/4k (und mit RT) kann ich nicht beurteilen, ob und wieviel mir das upgrade bringt.

Platos
2021-04-06, 20:11:45
Was willst du denn momentan mit einer CPU, wenn es keine Grafikkarten gibt ?

Wenn deine CPU so uralt ist, wird es vlt. was bringen, aber wie alt ist dann deine GPU ? Wenn sie nicht so alt ist, bringt es eher was, die Grafikkarte upzugraden, gerade wenn du in 4k Spielen willst. Aber das geht ja nicht.

Also jetzt ist doch der so ziemlich schlechteste Zeitpunkt aufzurüsten seit 10 Jahren mindestens.

Birdman
2021-04-06, 20:30:02
Was willst du denn momentan mit einer CPU, wenn es keine Grafikkarten gibt ?
Da der Treiberoverhead bei Nvidia GPUs von Monat zu Monat steigt, muss man diesem eben ab und an mit einem stärkeren Prozessor gegenwirken um nicht FPS zu verlieren. :freak:

SKYNET
2021-04-07, 00:04:39
Komisch, der ALC897 von meinem 110€ ASRock B560 Pro4 klingt anständig. Und wenn ich das richtig sehe, kann ich ganz normal PCIe 4.0 für ein NVMe-SSD nutzen...


wenn man nix besseres gewohnt ist, passt das natürlich... ist wie jemand der sein leben lang haferschleim gegessen hat, der denkt auch, das ist das tollste was es gibt zum essen... bis er dann doch mal was richtiges zu essen bekommen hat... :wink:

aufkrawall
2021-04-07, 00:10:00
Wem vermeintlich hochwertigeres Audio so wichtig ist, hat schon seit Jahren extra Hardware dafür. Im Argumente-Regal stehen offenbar nur noch abgelaufene Dosenravioli...

robbitop
2021-04-07, 11:56:27
So sieht es aus. Ansonsten muss man ja immer wieder den Mehrpreis beim Board bezahlen. Einmalkauf einer guten Soundkarte oder die Nutzung von digitalen Schnittstellen (SPDIF, HDMI) in Kombination mit einem AVR sind die IMO sinnvollere Wahl als jedes Mal guten Sound beim Board mitbezahlen zu müssen. Zumal dedizierte Produkte in der Regel auch nochmal besser sind.

x-force
2021-04-07, 12:28:35
onboard audio ist imo nur für den mikrofoneingang interessant. da hat man wirklich extreme unterschiede

arcanum
2021-04-07, 12:31:25
Was willst du denn momentan mit einer CPU, wenn es keine Grafikkarten gibt ?

Wenn deine CPU so uralt ist, wird es vlt. was bringen, aber wie alt ist dann deine GPU ? Wenn sie nicht so alt ist, bringt es eher was, die Grafikkarte upzugraden, gerade wenn du in 4k Spielen willst. Aber das geht ja nicht.

Also jetzt ist doch der so ziemlich schlechteste Zeitpunkt aufzurüsten seit 10 Jahren mindestens.

habe jetzt bei galaxus für 320€ nach cashback über shoop einen 11700 gekauft. die integrierte grafik ist nützlich, da ich immer wieder mal grafikkarten tausche. der 11700f ist leider nur bei alternate und nur als tray verfügbar, so dass sich der verzicht auf die igpu für die paar € kaum lohnt.

ich habe aktuell eine 3090, die ich vom erlös meiner alten 3080 gekauft habe. der verbaute 8700k verrichtet noch immer gute arbeit aber in Watch Dogs Legion/Cyberpunk 2077 mit RT scheint die CPU in bestimmten situationen doch zu bremsen.

robbitop
2021-04-07, 12:46:54
onboard audio ist imo nur für den mikrofoneingang interessant. da hat man wirklich extreme unterschiede
Kondensatormikrofon mit USB. Gibt es in sehr sehr guter Sprachqualität für 50 €.

x-force
2021-04-07, 13:11:27
Kondensatormikrofon mit USB. Gibt es in sehr sehr guter Sprachqualität für 50 €.

reden ist mir egal, ich will damit audio messen.
dafür hab ich ein kalibriertes messmikro, das hat aber dem preis entsprechend nur eine klinke.

ich denke mit einem ordentlichen stereo-out, sowie mic-in wäre den meisten geholfen, oder schließt man heutzutage noch 6 lautsprecher über klinke an?

BlacKi
2021-04-07, 15:16:49
die "meisten" haben wohl lediglich ein headset(wahrscheinlich sogar usb) am PC, vl noch desktoplautsprecher.

die hardware auf dem MB kostet doch fast nichts und wird wohl einfach aus alten schaltungen übernommen. das sind 5€ für den hersteller, der hersteller müsste aber das board wegen fehlendem audio aber 10-20% billiger verkaufen. also wird er das nicht machen.

dildo4u
2021-04-07, 17:11:45
Watch Dogs und Cyberpunk haben hier Intel vorne, es liegt also nicht nur an der Engine von CDPR.(Eher am NV Treiber?)


BAJVM01D2hw

Langlay
2021-04-07, 17:20:09
Eher am NV Treiber?

Scheint nahe zu liegen. Mit na 6900XT sieht es zumindest bei Watch Dogs anders aus.


https://www.igorslab.de/wp-content/uploads/2021/03/Watch-Dogs-Legion-FPS-1280-x-720-DX12-DXR-Off-Ultra-Quality.png



https://www.igorslab.de/intel-core-i9-11900k-core-i7-11700k-core-i5-11600k-und-core-i9-10900k-gegen-amds-aktuelle-ryzen-garde-schnell-heiss-und-ganz-schoen-durstig/3/

arcanum
2021-04-07, 18:19:46
bei WDL testet leider niemand die richtigen szenen. wenn man alles aufdreht und RT einschaltet, fallen die fps von stabil über 50 auf ~45 beim schnellen fahren (und nur dann, nicht beim gehen oder schnellen drehen etc.). ich habe es nie im detail getestet, glaube aber dass die cpu hier limitiert.

Rampage 2
2021-04-07, 19:41:15
Scheint eher Rückwärts zu gehen was Ram OC angeht.

https://www.golem.de/news/11900k-11700k-11600k-im-test-intels-lueckenbuesser-leistet-und-verlangt-viel-2103-155184-7.html

That's done it.

Memory-Overclocking war neben höherem Takt und höherer IPC in den letzten Jahren schlichtweg eines DER Vorzüge für Intel-CPUs/Plattformen ggü. AMD. Mit Zen 2 entfiel die IPC-Überlegenheit und mit Zen 3 weitgehend auch der Taktvorteil und auch beim Memory-Overclocking hat AMD mit Zen 3 stark an Intel aufgeschlossen (IF-Teiler 1:1 bis 2000+ MHz bzw. DDR4-4000+), aber immer noch nicht eingeholt. Blieb als Argument für eine Intel-Plattform also nur noch das bessere Memory-Overclocking und die allgemein niedrigere Memory-Latenz. Jetzt ist auch noch diese letzte Bastion gefallen - und das OBWOHL die Rocket Lake-Architektur sogar NOCH MEHR auf Memory-Overclocking angewiesen ist als Comet Lake, weil architekturbedingt die Latenzen schlechter sind als bei Skylake!

Wie kann man sich nur dermaßen ins eigene Knie schießen!? Da wäre es besser gewesen, wenn Intel RKL gar nicht erst released hätte...:facepalm:

Das schlechtere Memory-Overclocking (sogar noch schlechter als jetzt Zen 3 !) ist ein absolutes KO-Kriterium für die Entscheidung für Rocket Lake als Gaming-CPU!

R2

rentex
2021-04-07, 20:18:27
https://www.techpowerup.com/review/intel-core-i5-11400f/

Hatten wir das schon?

versus10000
2021-04-07, 20:40:44
Ganz ehrlich, wer noch zum Intel greift, muss sie lieben. Finde es geht seit Zen klar zu AMD. Mit der 5000er Serie sowieso.

Dr.Doom
2021-04-07, 21:06:49
Ganz ehrlich, wer noch zum Intel greift, muss sie lieben. Finde es geht seit Zen klar zu AMD. Mit der 5000er Serie sowieso.Nuja, man muss ja nicht immer nur am oberen Ende des Sortiments gucken, sondern auch mal die andere Seite betrachten -- da ist ein 6-Kerner mit HT für unter 200€ doch eine Ansage, oder nicht? ;)

versus10000
2021-04-07, 21:18:01
Ne. Sehe ich nicht so. Wäre es umgekehrt, würden wieder alle über AMD meckern.

Dr.Doom
2021-04-07, 21:29:13
Andere sind mir egal. :freak:

Screemer
2021-04-07, 22:32:55
bei der aktuellen preislage ist ein 11400f einfach deutlich attraktiver als ein 5600x. beim 11700 und 5800x verhält es sich ähnlich. würde amd die preise um 10-15% nach unten drücken und auch liefern können, dann wäre RK aber instant obsolet.

aufkrawall
2021-04-07, 23:20:22
Händlerpreis 5600X: 330€. -15% wären 280€, also immer noch 110€ mehr als der 11400F bei geringem Vorsprung in Spielen. "Obsolet" kommt mir da etwas übertrieben vor.

SKYNET
2021-04-07, 23:41:44
Händlerpreis 5600X: 330€. -15% wären 280€, also immer noch 110€ mehr als der 11400F bei geringem Vorsprung in Spielen. "Obsolet" kommt mir da etwas übertrieben vor.

nur vergisst du eines; du vergleichst ne CPU(11400F) die man nicht taken kann mit nem 5600X den wenn man alle fesseln löst, in games nen 11900K einfach mal die rücklichter zeigt... weil die benches sind alle mit default werden bei den ryzens gemacht worden.

der 5600Xer beim kollegen geht auf 4 kernen bis auf 4.9GHz hoch, die anderen beiden 4.75GHz... da kommt kein 11400F mit.

intel hats versucht, intel hat versagt... punkt.

aufkrawall
2021-04-07, 23:48:40
Dumm nur, dass der standardmäßig in Spielen auf allen Kernen schon auf ~4550MHz boostet. Jetzt wenden wir mal den Dreisatz an, was das für die Performance bei 4,75 bedeutet...
Das Potenzial liegt eher beim RAM. Ist aber nicht jedermanns Sache und wird gerade wieder teurer...

x-force
2021-04-08, 00:00:27
Das Potenzial liegt eher beim RAM. Ist aber nicht jedermanns Sache und wird gerade wieder teurer...

vor allem kannst du auf intel den ram wesentlich höher treiben und bist nicht auf ~3800 wegen der infinity fabric gebunden.

leider gibts so gut wie keine max oc "scheiß aufs geld" vergleiche.

Screemer
2021-04-08, 00:02:12
Händlerpreis 5600X: 330€. -15% wären 280€, also immer noch 110€ mehr als der 11400F bei geringem Vorsprung in Spielen. "Obsolet" kommt mir da etwas übertrieben vor.
das ich mich ganz klar auf den uvp bezog kann man doch gar nicht überlsen. naja wenn man will dann wohl doch :facepalm:

Linmoum
2021-04-08, 00:03:11
vor allem kannst du auf intel den ram wesentlich höher treiben und bist nicht auf ~3800 wegen der infinity fabric gebunden.Stimmt, bei RKL mit Gear1 ist sogar schon quasi immer vor 3800MHz Schluss.

aufkrawall
2021-04-08, 00:08:05
vor allem kannst du auf intel den ram wesentlich höher treiben und bist nicht auf ~3800 wegen der infinity fabric gebunden.

Ausgerechnet der Vorteil ist bei RKL ja dahin, mein 11400F packt auch nicht mal die 3733 Gear 1. Gibt natürlich auch weiterhin CML zu kaufen...

Prinzenrolle
2021-04-08, 00:08:09
nur vergisst du eines; du vergleichst ne CPU(11400F) die man nicht taken kann mit nem 5600X den wenn man alle fesseln löst, in games nen 11900K einfach mal die rücklichter zeigt...

Dann gibt es immer noch einen 11600KF, welchen man für 239 Euro bekommt.:wink:
"Einfach mal die Rücklichter zeigen" ist schon sehr übertrieben, AMD hat derzeit keine preislich attraktive CPU im Angebot.
Ein 5800x für 425Euro ist gegenüber einem 11700F für 310 auch nicht gerade die Offenbarung.

aufkrawall
2021-04-08, 00:34:45
das ich mich ganz klar auf den uvp bezog kann man doch gar nicht überlsen. naja wenn man will dann wohl doch :facepalm:
Wen außer Fanboys interessieren im Hardware-Jahr 21 UVPs?

SKYNET
2021-04-08, 00:46:39
vor allem kannst du auf intel den ram wesentlich höher treiben und bist nicht auf ~3800 wegen der infinity fabric gebunden.

leider gibts so gut wie keine max oc "scheiß aufs geld" vergleiche.

ach, kann man das? ich glaube sämtliche weltrekorde der letzten zeit mit speicher waren auf ryzen(7004MHz um genau zu sein)... nur so am rande erwähnt :freak:

mein speicher rennt im fall auch ohne weiteres 3800MHz 1:1(intel 11th gen unmöglich, max 3600 ist drinne 1:1) bzw. 4500MHz 1:2 mode... leider gibt das board nicht mehr als 1.5Vdimm her, sonst wären da sicherlich auch deutlich höhere taktraten drinne :redface:

SKYNET
2021-04-08, 00:53:02
Dann gibt es immer noch einen 11600KF, welchen man für 239 Euro bekommt.:wink:
"Einfach mal die Rücklichter zeigen" ist schon sehr übertrieben, AMD hat derzeit keine preislich attraktive CPU im Angebot.
Ein 5800x für 425Euro ist gegenüber einem 11700F für 310 auch nicht gerade die Offenbarung.

und dann brauchst wieder nen Z board bei intel... was in ca. 50€ mehr fürs board heisst. :freak:

AMD hat einfach das bessere paket, evtl. richtets intels 12. gen... :rolleyes:

x-force
2021-04-08, 00:53:15
ach, kann man das? ich glaube sämtliche weltrekorde der letzten zeit mit speicher waren auf ryzen(7004MHz um genau zu sein)... nur so am rande erwähnt :freak:

ln2 ist bullshit, h2o mit mora ist so ziemlich das ende der praxistauglichkeit


mein speicher rennt im fall auch ohne weiteres 3800MHz 1:1 bzw. 4500MHz 1:2 mode...

und was ist schneller?

Screemer
2021-04-08, 00:59:12
Wen außer Fanboys interessieren im Hardware-Jahr 21 UVPs?

Mich jetzt auch noch als fanboy hinzustellen obwohl ich vor wenigen Posts betont habe, dass es quasi keinen Grund gibt bis zum 5900x eine AMD CPU zu kaufen, ist an Lächerlichkeit kaum noch zu überbieten...

aufkrawall
2021-04-08, 01:23:36
Und ich habe dir gesagt, dass selbst mit der von dir kolportierten hypothetischen Preissenkung das P/L-Verhältnis für Gaming immer noch schlecht wäre, woraufhin du mal wieder die gereizte Diva-Queen geben musstest. Einfach mal entspannt durch die Hose atmen...

Screemer
2021-04-08, 01:24:57
Einfach Mal weniger arschig sein, um es Mal nicht direkt auszusprechen.

aufkrawall
2021-04-08, 01:33:21
300€ x 0,85 sind immer noch 255€. Damit soll also das Line Up der günstigeren Intels obsolet sein? Hört sich unsinnig an. Du bist btw. so ein Sensibelchen...

Screemer
2021-04-08, 01:41:24
...

Prinzenrolle
2021-04-08, 02:48:29
und dann brauchst wieder nen Z board bei intel... was in ca. 50€ mehr fürs board heisst. :freak:

Speicher kann man neuerdings auch auf einem B560 Board hochziehen.
Mehr Coretakt geht eh nicht auf dem AMD, und durch B560 auch nicht auf dem Intel, der Preisvorteil bleibt insgesamt schon stehen. ;)

Langlay
2021-04-08, 02:58:39
Mehr Coretakt geht eh nicht auf dem AMD, und durch B560 auch nicht auf dem Intel, der Preisvorteil bleibt insgesamt schon stehen. ;)

Naja beim 5600X ist halt Lotto. Kannst einen erwischen der nur 4.5-4.6 GHz Allcore mit 1.3V packt, kannst aber auch einen kriegen der 4.8+ Ghz Allcore mit 1.3V schafft.

Pumpi74
2021-04-08, 04:11:34
Also wenn ich mir die 0,1% Lows in dem Video aus #395 anschaue dann kann ich das gut verstehen wenn Leute RKL präferieren.

Und der Ramvorteil mag dahin sein. Interessiert allerdings Leute die ein gutes P/L wollen nicht. Da wird günstiger Ram genommen und damit läuft es sehr gut. Selbst der Verbrauchsnachteil fällt bei den "normalen" RKL CPU's kaum in's Gewicht. Von daher sehe ich eigentlich nicht was großartig gegen Intel spricht. Zumal der Preis passt. RKL bringt Schwung in die Bude. Bei AMD werden die Preise angepasst werden müssen.

rentex
2021-04-08, 05:39:23
Wen außer Fanboys interessieren im Hardware-Jahr 21 UVPs?

Speziell im Jahr 2021, sind UVPs ziemlich wichtig geworden...

BlacKi
2021-04-08, 05:56:42
Speziell im Jahr 2021, sind UVPs ziemlich wichtig geworden...


für die wertungen in tests ja, aber für den persönlichen aktuellen preis interessiert dich die uvp relativ wenig.

dildo4u
2021-04-08, 06:46:42
Also wenn ich mir die 0,1% Lows in dem Video aus #395 anschaue dann kann ich das gut verstehen wenn Leute RKL präferieren.

Und der Ramvorteil mag dahin sein. Interessiert allerdings Leute die ein gutes P/L wollen nicht. Da wird günstiger Ram genommen und damit läuft es sehr gut. Selbst der Verbrauchsnachteil fällt bei den "normalen" RKL CPU's kaum in's Gewicht. Von daher sehe ich eigentlich nicht was großartig gegen Intel spricht. Zumal der Preis passt. RKL bringt Schwung in die Bude. Bei AMD werden die Preise angepasst werden müssen.

AMD verkauft so viele 8 wie 6 Core Zen 3 zur Zeit, das Heißt Leute haben kein Problem mit Preisen um 400€.
Macht null Sinn die Marge mit 200€ CPUs zu reduzieren.
AMD wusste schon letztes Jahr das sie nicht genug neue Chips haben, deshalb nutzen einige Mobile 5000 Modelle Zen 2.

Pumpi74
2021-04-08, 07:28:36
Da ist was dran Dildo. AMD kann sich immerhin entscheiden ob sie einige CPU's nun günstiger machen oder ihre wertvolle gebuchte Kapazität lieber in andere Chips stecken wo sie mehr verdienen. Das die Leute aber noch länger 330€ für 6Kerner zahlen bezweifle ich wenn es auch 100€ günstiger geht (+Graphik).

rentex
2021-04-08, 08:55:35
für die wertungen in tests ja, aber für den persönlichen aktuellen preis interessiert dich die uvp relativ wenig.

Äh, Nein! Natürlich ist die UVP für mich interessant. Deutlich darüber wird halt nicht gekauft. Folglich relevant!

robbitop
2021-04-08, 09:51:08
Ganz ehrlich, wer noch zum Intel greift, muss sie lieben. Finde es geht seit Zen klar zu AMD. Mit der 5000er Serie sowieso.


Naja objektiv gesehen sollte man immer nach Erfüllung von selbst definierten Zielkriterien kaufen. Egal wann und egal welches Produkt.
Wenn es bspw um pure P/L für Games geht, kommt man um den 11400 kaum herum. 160 € für 6C/12T mit sehr ähnlicher Performance wie der 5600X.
Wenn man viele Kerne haben will hingegen ist der 5900/5950 die beste Wahl.

Nach Straßenpreisen ist Zen 3 nicht in jedem Segment die beste Wahl was P/L angeht.

Jetzt ist auch noch diese letzte Bastion gefallen - und das OBWOHL die Rocket Lake-Architektur sogar NOCH MEHR auf Memory-Overclocking angewiesen ist als Comet Lake, weil architekturbedingt die Latenzen schlechter sind als bei Skylake!

Schau mal auf Anands Latency Ladder. Es sieht eigentlich nicht so aus als wären die Latenzen im 11700K (RKL) schlechter als die im 10700K (CML).
https://www.anandtech.com/show/16535/intel-core-i7-11700k-review-blasting-off-with-rocket-lake/3

dildo4u
2021-04-08, 10:06:17
Wenn ich das richtig lese hatte schon 10400f eine bessere Gameing Performance als Ryzen 3600 und das neue Intel Modell mit forcierten TDP Limit.

https://www.techpowerup.com/review/intel-core-i5-11400f/15.html

Ich vermute mal das schlechte Intel Image kommt davon das Intel zum Launch immer nur die überteuerten Modelle verschickt.
Das ändert sich hier nicht wenn man nach RKL Tests guckt bekommt man hauptsächlich 11600k und 11900k serviert.
Die Nachtests wird kaum einer beachten.

Und wenn AVX genutzt wird ist 11400@65Watt langsamer als der Vorgänger. ;D

https://www.techpowerup.com/review/intel-core-i5-11400f/6.html

Badesalz
2021-04-08, 11:03:50
Wenn ich das richtig lese hatte schon 10400f eine bessere Gameing Performance als Ryzen 3600 [...]

Und wenn AVX genutzt wird ist 11400@65Watt langsamer als der Vorgänger. ;DAn sich schon Urzeiten davor, aber spätestens seit M1 wünsche ich mir immer bei sowas, daß die Unterschiede (auch) in Prozent daneben stehen. Oder sie sonst von Leuten die sich drauf beziehen auch erst ausgerechnet werden.

Damit man sofort die Relevanz der Aussagen (an)erkennen kann.

WedgeAntilles
2021-04-08, 11:39:22
Ich vermute mal das schlechte Intel Image kommt davon das Intel zum Launch immer nur die überteuerten Modelle verschickt.
Das ändert sich hier nicht wenn man nach RKL Tests guckt bekommt man hauptsächlich 11600k und 11900k serviert.
Die Nachtests wird kaum einer beachten.


Ein möglicher Grund.
Ich glaube aber auch, dass das weltweite Intel-Image weit besser ist als hier im Forum.

Dieses Forum hier ist ja teils eine Satire - siehe die letzten Seiten in diesem Thread.
Bin mir nicht mal sicher, ob die Statements diverser Leute hier tatsächlich ernst gemeint sind. Ich fürchte aber ja...

Weltweit gesehen sind ein paar Leute in Hardwareforen aber irrelevant und eine absolute Minderheit.

Daher: Ist das Intel-Image überhaupt schlecht?
Bin mir nicht so sicher.
Der Intel-Marktanteil stieg zuletzt jedenfalls wieder. Und der war ja schon immer in fast-monopolartigen Bereichen. Ist also nichct so, dass Intel nach massiven Marktanteilverlusten sich ein bisschen erholt.
Wenn man auf extrem hohem Niveau weitere Marktanteile dazugewinnt kann das Image ja so schlecht nicht sein.

Mir war es bei CPUs immer ziemlich egal was ich gekauft hatte - das war bei den letzten 3 Rechnern Intel, davor aber auch AMD CPUs. Ich hatte einfach immer das genommen, was ein besseres P/L Verhältnis hatte und bei relativem Gleichstand den Underdog AMD.
(Bei GPUs war ich hingegen immer pro Nvidia.)

Inzwischen muss ich aber sagen, dass mir dieses Forum AMD doch ziemlich verleidet. Ist zwar irrational, aber aktuell würde ich bei völlig identischen Produkten das Intel-Produkt kaufen, selbst wenn es 25% teurer wäre.
Wie gesagt, ist natürlich irrational. Aber zu vieler User hier mit ihrem "AMD über alles"-Kreuzzug sorgen bei mir für eine emotionale Ablehnung, ein AMD Produkt zu kaufen und mit diesen Leuten in einem Boot zu sitzen.

dildo4u
2021-04-08, 11:48:03
Es wirkt sich langsam auf den Mainstream aus das hat aber eher mit Apple als AMD zu tun, die Verluste im Desktop Bereich könnte Intel vermutlich noch lange verkraften.
Notebooks trifft sie deutlich mehr daher die neue Anti Mac Werbung.

robbitop
2021-04-08, 12:00:21
Im Moment wird doch praktisch alles gekauft, was produziert wird. Das ist schon irgendwie eine Singularität im Markt, die keine sinnvolle Basis für irgendwelche Rückschlüsse auf die Produktqualität zulässt.

Nichtsdestotrotz muss man konstatieren, dass Intel enorme Geldreserven hat und bis dato eigentlich keine Rückgänge in den Gewinnen hatte. Die sind standfest im Sattel. 20 Mrd Gewinn in 2020 und 150 Mrd Assets + Cash.
Die sollte man nicht unterschätzen. Dagegen ist AMD noch relativ klein und muss weiterhin abliefern, damit es nicht an die Substanz geht. Hoffen wir mal, dass der Wettbewerb erhalten bleibt. Das tut allen Endkunden und den Produktportfolios beider Hersteller gut. ;)

Schnoesel
2021-04-08, 12:15:58
Nun dass Intel gerade bei den informierten DIY Leuten unbeliebt ist hat nur allein Intel zu verantworten. Vom Marktführer wird eben mehr erwartet als nur gleichzuziehen (und das auch nur in Games und mit der Brechstange). Dabei spreche ich noch gar nicht von diversen Gängelungen der Kunden seitens Intel, die sie bisher auch nur teilweise zurückgenommen haben. Von der Dominanz vergangener Jahre ist jedenfalls nichts mehr zu spüren und das liegt nicht allein an der Fertigung. AMD hat mehr gewagt und gewonnen, während Intel es auch gar nicht nötig hatte. Mobile und OEMs sei Dank.

Von einem gesunden Markt sind wir aber noch meilenweit entfernt.

MartinRiggs
2021-04-08, 12:28:09
Es mangelt für Content-Creator an Kernen, die Z590-Boards mit USB3.2 und teilweise 3 voll angebundene m2-SSD ist schon sehr nice.
Da muss AMD endlich mal ran, der B550 ist ok, der X570 mit Mini-Lüfter einfach ein No-Go und da hat auch längst nicht jedes Board 3xm2.

Braucht nicht jeder aber für mich als Speicherjunkie ist ein Z590 sehr nice.

Die informierte DIY bauen eigentlich nicht nach Marke sondern nach P/L und da sieht Intel mit dem 11400f und 11700f eigentlich ziemlich gut aus, wie gesagt für Content-Creator, da hakt es noch im Mainstream Sockel noch.

robbitop
2021-04-08, 12:29:44
Sehe ich auch so. Nüchtern ist der 11400 eine sehr gute CPU für preisbewußte Gamer.

Badesalz
2021-04-08, 12:46:23
Aber zu vieler User hier mit ihrem "AMD über alles"-Kreuzzug sorgen bei mir für eine emotionale Ablehnung, ein AMD Produkt zu kaufen und mit diesen Leuten in einem Boot zu sitzen.Mein Mann :up: Es will ja auch keiner, daß Intel irrelevant wird. Das würde sich auf AMDs Preisgestaltung nochmals negativ auswirken.

Bleib also bitte da. Es ist alles gut. Auf der Seite des Bootes ist aktuell eh grad bisschen voll. Freundlich winken reicht und Platz zum Winken ist jetzt auch da.

r3ptil3
2021-04-08, 13:38:02
Optimum Tech hat den 11400f getestet:

https://i.ibb.co/xGshw1w/11400.png

https://i.ibb.co/mvSXL26/11400-ds.png
https://www.youtube.com/watch?v=pOpWJCWYa6k

Mit max. Powerlimit, die CPU-Empfehlung schlechthin.

Hätte ich keinen 5600X, wäre der 11400f jetzt bestellt.

Meiner Ansicht nach braucht man selbst mit einer 3080/3090 bzw. 6800/6900 keine bessere CPU ab WQHD.

Savay
2021-04-08, 14:05:50
Es mangelt für Content-Creator an Kernen, die Z590-Boards mit USB3.2 und teilweise 3 voll angebundene m2-SSD ist schon sehr nice.

Was ist da bitte bzgl. PCIe 4.0 SSDs, bis auf die eine NVMe die direkt an der CPU hängt, "voll" angebunden?
Die Ports über den Chipsatz müssen durch das 8x DMI Nadelöhr und sind damit sogar nichtmal wirklich unbedingt besser als die anderen M.2 @PCIe 3.0 auf nem B550 angebunden. :whistle:

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/55775-die-rakete-mit-fehlstart-core-i5-11600k-core-i7-11700k-und-core-i9-11900k-im-test.html?start=18

mike49
2021-04-08, 14:21:39
Auf meinem Asus Z590 Board habe ich 4x M.2, davon 2 @PCIe 4.0 (1x exklusiv via CPU, 1x shared) und 2@PCIe 3.0 (1x exklusiv, 1x shared mit SATA-Ports).

Die CPU-seitige Erhöhung auf 20 PCIe-Lanes bei RKL war für mich schon ein sehr brauchbares Feature.

Lehdro
2021-04-08, 14:21:50
Schau mal auf Anands Latency Ladder. Es sieht eigentlich nicht so aus als wären die Latenzen im 11700K (RKL) schlechter als die im 10700K (CML).
https://www.anandtech.com/show/16535/intel-core-i7-11700k-review-blasting-off-with-rocket-lake/3
Folgendes:
The core-to-core numbers are interesting, being worse (higher) than the previous generation across the board. Here we are seeing, mostly, 28-30 nanoseconds, compared to 18-24 nanoseconds with the 10700K. This is part of the L3 latency regression, as shown in our next tests.
und:
RKL wird mit 3200er RAM getestet, CML mit 2933er. (https://www.anandtech.com/show/16535/intel-core-i7-11700k-review-blasting-off-with-rocket-lake) Weiß jetzt nicht ob das nun unbedingt ein Pluspunkt von RKL gegenüber CML ist, wenn genau dort ein Gewinn erfolgt. Bei selbem Speed auf dem RAM wird sich da wohl eher nichts tun - nur hat CML Potenzial bis 4600+ MHz 1:1, bei RKL sieht es dort eher düster aus.

MartinRiggs
2021-04-08, 14:31:28
Was ist da bitte bzgl. PCIe 4.0 SSDs, bis auf die eine NVMe die direkt an der CPU hängt, "voll" angebunden?
Die Ports über den Chipsatz müssen durch das 8x DMI Nadelöhr und sind damit sogar nichtmal wirklich unbedingt besser als die anderen M.2 @PCIe 3.0 auf nem B550 angebunden. :whistle:

https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/55775-die-rakete-mit-fehlstart-core-i5-11600k-core-i7-11700k-und-core-i9-11900k-im-test.html?start=18

Natürlich ist nur 1x PCI-E4.0 x4 und die anderen sind halt mit PCI3.0 x4 angebunden und klar muss das über das 8xDMI, das ist aber schon doppelt so fett wie auf älteren Boards mit 4xDMI und die schreiben ja normalerweise auch nicht alle Parallel.
Die wenigstens dürfte auch 2 oder 3 PCI-E 4.0 NVME-SSD haben und dann wären sie auch bei AMD am Arsch weil es da mau aussieht:rolleyes:

robbitop
2021-04-08, 14:54:10
Meiner Ansicht nach braucht man selbst mit einer 3080/3090 bzw. 6800/6900 keine bessere CPU ab WQHD.
Ja bei relativ hohen Auflösungen ist die CPU selten der Flaschenhals. Selbst mein 4790K limitiert bei 4K aktuell super selten. Es ist fast immer die alternde 1080ti.
Mein neuer 5900X wird wohl bis er limitiert auch wieder 4-6 Jahre alt werden und etliche GPU Generationen füttern können in 4K. :)

Hardwarious
2021-04-08, 15:26:01
Ich denke ich bin mit meinem 5800X noch auf der Höhe der Zeit. Zum Glück hat Intel keinen größeren Sprung gemacht, keine Lust wieder Geld auszugeben :D

Badesalz
2021-04-08, 16:42:27
Optimum Tech hat den 11400f getestet:
Kann mich grad nicht entscheiden, ob die Screenshots den 11400 gut machen oder den 11600K völlig lächerlich...

Das auch noch
https://www.youtube.com/watch?v=CoW1ZoJUfi4

Mayk-Freak
2021-04-08, 18:50:38
8 Kerne 16 Threads max, kein Plan ob sich das mit RDNA2 ändert.

https://youtu.be/DtSPEjm3G9c


Hab die selben FPS mit einem 8700K OC und einer 3080 OC für 1500 Euro weniger.;D

Savay
2021-04-08, 19:39:36
Die wenigstens dürfte auch 2 oder 3 PCI-E 4.0 NVME-SSD haben und dann wären sie auch bei AMD am Arsch weil es da mau aussieht:rolleyes:

Auf X570 eher weniger, höchstens auf B550 und drunter...der X570 hängt nämlich mit 4x PCIe4.0 an der Northbridge.
Die 8x DMI ziehen in der Praxis offensichtlich mal eher mit den 4x PCIe 3.0 des B550 gleich. :uponder: Zumindest was die reine Peak Bandbreite angeht.

Man sieht ja im Link das es auf dem x570 Board dort einen deutlich kleineren Einbruch gibt sobald die SSD am MB Chipset und nicht direkt an der CPU hängt.
Mal ganz davon abgesehen, dass es alles eh höchst theoretische Werte sind.

Wuge
2021-04-09, 11:10:52
Was ich mich die ganze Zeit frage: wieso zum Henker ist der Interconnect/L3 langsamer geworden und weshalb hat der IMC weniger Potenzial? Das macht doch keinen Sinn oder wurde da hardcore versucht 3W Idle / 10W Last-Leistungsaufnahme-Reduktion raus zu quetschen?

Denniss
2021-04-09, 11:39:52
RL stammt halt von einer mobilen CPU ab die andere Einsatzfelder bedient hat und nicht auf höchste Taktung ausgelegt war.

mike49
2021-04-09, 11:56:00
RL stammt halt von einer mobilen CPU ab (...)
Nur leider merkt man beim tatsächlichen Stromverbrauch davon überhaupt nichts mehr.

Im idle genehmigt sich mein 11700k ca. 16W uncore bei 3.600 MHz Gear 1 und das ist zum Großteil der IMC. In Gear 2 geht der uncore dann übrigens auf ca. 10W zurück was immer noch viel zu viel ist.

Im 'Optimalfall' ist man im idle also bei 20-25W für die komplette CPU, meist sind es eher > 30W.

aufkrawall
2021-04-09, 12:01:12
Ich habe mit dem 11400F 10W Package mit 3467 Gear 1.

seaFs
2021-04-09, 12:10:26
Was ich mich die ganze Zeit frage: wieso zum Henker ist der Interconnect/L3 langsamer geworden und weshalb hat der IMC weniger Potenzial? Das macht doch keinen Sinn oder wurde da hardcore versucht 3W Idle / 10W Last-Leistungsaufnahme-Reduktion raus zu quetschen?

Mir schwebt immer im Hinterkopf mit, dass es ein Testlauf für DDR5 ist.
Jetzt wird mit DDR4 geguckt, wie sich das Taktverhältnis 2:1 DRAM:IMC auf die Leistung auswirkt, um eventuell noch nachzubessern.

Badesalz
2021-04-09, 12:29:48
Solche Späße kann man im Labor testen...

davidzo
2021-04-09, 12:57:27
Was ich mich die ganze Zeit frage: wieso zum Henker ist der Interconnect/L3 langsamer geworden und weshalb hat der IMC weniger Potenzial? Das macht doch keinen Sinn oder wurde da hardcore versucht 3W Idle / 10W Last-Leistungsaufnahme-Reduktion raus zu quetschen?


Es macht erheblich mehr aus, es sind eher 15% in RL und schon über 10Watt im Idle.
Irgendwas ist beim Memory controller kaputt, bzw. skalierte vielleicht auch schon immer so und das ist der Grund für Intels sehr konservative Speichertaktraten ab werk? Wenn da nicht etwas von Grund auf an flawed wäre hätte Intel sich nicht gezwungen gesehen auf G2 zu gehen bei den brot und butter CPUs. Mit dem G1 Idle verbrauch wird es schwer die aktuellen EU und CEC Vorgaben für Komplettsysteme zu erfüllen und mit dem Boxedkühler wirds da schon im idle etwas lauter.


Der 11400F ist die einzige CPU aus dem Lineup welche fast im sweetspot getaktet ist und annähernd mit Ryzen 5000 an Effizienz mithalten kann. Alle anderen CPUs im Lineup liegen sogar häufig noch hinter Ryzen 3000.

Im Effizienzratung geht der 11400F von 14.1kj auf 16,1kj. Das ist vergleichbar mit dem Umschalten auf unlimited TDP.
Und das ist nicht der absolute Verbrauch, sondern das Effizienzrating, die performanceverbesserung in G1 ist da also schon rausgerechnet.

https://tpucdn.com/review/intel-core-i5-11400f/images/efficiency-singlethread.png

https://tpucdn.com/review/intel-core-i5-11400f/images/efficiency-multithread.png

G1 macht die CPUs einfach sehr ineffizient, vor allem schon im Idle. Für OEMs ist das ein No-go, 20% mehr Abwärme für nichtmal 5% mehr Leistung. So ein Setting darf schön im Retail bleiben wo man keine Vorgaben erfüllen muss und dicke Kühlungen der Standard sind.

https://tpucdn.com/review/intel-core-i5-11400f/images/power-idle.png



https://www.techpowerup.com/review/intel-core-i5-11400f/20.html

aufkrawall
2021-04-09, 13:25:36
Ich habe ~46W Idle am Wattmeter mit G1...

Matrix316
2021-04-09, 13:40:09
Ich denke ich bin mit meinem 5800X noch auf der Höhe der Zeit. Zum Glück hat Intel keinen größeren Sprung gemacht, keine Lust wieder Geld auszugeben :D
Also ich hab seit Ryzen 2017 wieder AMD, wo ich vorher seit 2009 ab i5-750 Intel hatte mit 2600K und 4790K, und ich hätte jetzt eigentlich nichts dagegen auch wieder mal eine Intel CPU auszuprobieren.

Ich hab nur keine Lust von 12 Kernen auf 8 wieder runter. Hätten sie wenigstens 10 behalten. Aber so? =)

Alder Lake ist was anderes. Das ist dann so wie Apple vs Snapdragon wo bei Apple weniger Kerne trotzdem alles abziehen was die Konkurrenz zu bieten hat. ;) Aber mal sehen.

mike49
2021-04-09, 13:52:07
G1 macht die CPUs einfach sehr ineffizient, vor allem schon im Idle. Für OEMs ist das ein No-go, 20% mehr Abwärme für nichtmal 5% mehr Leistung.
Genau so schaut es aus. Bei mir sind es ~ 8W mehr bei G1 vs. G2 im Idle, das ist einfach zu viel.

Inklusive der Cores liegt man damit konstant bei über 20W ohne Last auf der CPU.

Unter Last in Games ist der Verbrauch mit ca. 80W übrigens wieder halbwegs im normalen Bereich.

aufkrawall
2021-04-09, 14:14:20
Inklusive der Cores liegt man damit konstant bei über 20W ohne Last auf der CPU.

Bios- oder Einstellungs-Fail.
https://abload.de/thumb/11400fzzjab.png (https://abload.de/image.php?img=11400fzzjab.png)

Badesalz
2021-04-09, 14:44:36
Irgendwas ist beim Memory controller kaputt, bzw. skalierte vielleicht auch schon immer so und das ist der Grund für Intels sehr konservative Speichertaktraten ab werk?Ist der Gedanke eher nicht zulässig, daß jetzt, wo man mit den Ks beim Verbrauch nicht mehr nur die Grenzen des Sinnigen überschreitet, sondern auch des Unsinnigen, und der MC das Package nicht nur mit aufheizt, sondern eben auch Strom zieht, man sich entschieden hat da was wegzunehmen und es den Cores zu geben?

Was schließt das aus? Etwas muss wohl dagegen sprechen, weil alle nur davon reden, daß der MC nicht so gut ist wie davor. Vielleicht darf er das nicht?

mike49
2021-04-09, 16:57:36
Bios- oder Einstellungs-Fail.

Sorry, aber sehr sicher nicht.

Meine Werte decken sich auch mit allen Reviews die ich dazu bisher gesehen habe. Mag ja sein, dass die CPUs mit 65W TDP da etwas genügsamer sind, bei den K-Modellen kostet Gear 1 >= 3.600 aber definitiv so 7-8 Watt zusätzlich im idle.

aufkrawall
2021-04-09, 17:21:22
bei den K-Modellen kostet Gear 1 >= 3.600 aber definitiv so 7-8 Watt zusätzlich im idle.
Schätze, das wird bei mir auch so sein. Der Verbrauch für IA Cores ist bei dir aber imho viel zu hoch, da geht bei mir im Idle trotz Höchstleistungsprofil kaum über 1W. Entweder, du hast einen oder mehrere heimliche Stromfresser (Steam, Battle.net...) laufen, oder irgendwas ist bei dir im Bios nicht optimal.

Diese ganzen Verbrauchsangaben in den Reviews fand ich schon immer seltsam, mit ansonsten identischen Komponenten hatte das Skylake-System hier auch nur 37W gezogen. Offenbar ist kaum ein Tester dazu fähig, korrekt die Stromsparmodi einzuschalten...

y33H@
2021-04-09, 17:48:20
Ja, sind alles voll die Stümper :redface:

w0mbat
2021-04-09, 18:16:33
krawall hat halt schon ne 10SF ADL-Prototyp bekommen ;)

aufkrawall
2021-04-09, 18:37:13
Ja, sind alles voll die Stümper :redface:
Muss ja, wenn das Wattmeter diverse Geräte korrekt vermisst.
Oder der B-Chipsatz ist sparsamer unterwegs als Z. Was natürlich kein Tester hätte überprüfen können, es gibt die Boards ja erst seit einem Monat zu kaufen...

Edit:
Noch eine Info, die in wahrscheinlich keinem Review steht: Der ASRock-Support hat mir gerade mitgeteilt, dass mit non-K CPU kein 100MHz RAM-Teiler unterstützt wird. Statt mit 3600 oder 3800 soll der RAM stattdessen "heimlich" auf 3467/3733 zurückfallen, wenn das Bios die glatten Taktraten doch anbietet. Demnach wären die Angaben in einigen Tests mit RAM-OC inkorrekt.

mike49
2021-04-09, 20:25:24
Schätze, das wird bei mir auch so sein. Der Verbrauch für IA Cores ist bei dir aber imho viel zu hoch, da geht bei mir im Idle trotz Höchstleistungsprofil kaum über 1W. Entweder, du hast einen oder mehrere heimliche Stromfresser (Steam, Battle.net...) laufen, oder irgendwas ist bei dir im Bios nicht optimal.

IA-Cores ziehen doch gerade mal um die 3-4W im Idle. Verglichen mit den 16W fix SA-Power + Uncore ist das doch fast nix bzw. auch egal. Unter Voll-Last gehen die auch mal schnell auf 250W :biggrin:

Und ja, kann natürlich sein dass mein Z590-Board auch noch ein wenig mit dazu beiträgt.

r3ptil3
2021-04-09, 23:53:36
https://tpucdn.com/review/intel-core-i5-11400f/images/power-multithread.png

https://tpucdn.com/review/intel-core-i5-10400f/images/power-multithread.png

Mit offenen Limits nimmt sich der 11400f über 70W mehr als der 10400f.
Intel überrascht mich mit Rocket Lake immer wieder aufs neue.

w0mbat
2021-04-10, 00:05:27
Und das bei ner offiziellen TDP von 65W :D

y33H@
2021-04-10, 15:10:58
136W für das komplette System im Cinebench, da wäre die Package Power spannend.

aufkrawall
2021-04-10, 15:13:24
Wer ASICs komplett ohne Drosselung betreibt, ist auch einfach nur doof. ;)
Bei einem Limit von 95W drosselt er nur um ~10% (ist natürlich Gear 1, Vcore auto):
https://abload.de/thumb/cb34jld.png (https://abload.de/image.php?img=cb34jld.png)
Ist natürlich immer noch lächerlich vs. Zen 2/3. Aber auch nicht so schlimm, wie Balken ohne Drosselung suggerieren...

r3ptil3
2021-04-10, 15:28:47
Wer ASICs komplett ohne Drosselung betreibt, ist auch einfach nur doof. ;)
Bei einem Limit von 95W drosselt er nur um ~10% (ist natürlich Gear 1, Vcore auto):
https://abload.de/thumb/cb34jld.png (https://abload.de/image.php?img=cb34jld.png)
Ist natürlich immer noch lächerlich vs. Zen 2/3. Aber auch nicht so schlimm, wie Balken ohne Drosselung suggerieren...

Ich denke du hast meine Absicht des Beitrags nicht verstanden.

Beide CPUs so weit wie möglich frei agierend bzgl. Energie:

10400F = 132 Watt
11400F = 214 Watt

Das ist doch miserabel oder nicht?

aufkrawall
2021-04-10, 15:30:23
Ich teste es mal extra für dich mit Wattmeter ohne Drosselung...

r3ptil3
2021-04-10, 15:31:45
Ich teste es mal extra für dich mit Wattmeter ohne Drosselung...

Das klingt manchmal so als, als ob du dich angegriffen fühlst. :conf2:

Gerne, ja.

dildo4u
2021-04-10, 15:33:12
Test mit B560 Board.


TyGFKCrnPM4

aufkrawall
2021-04-10, 15:46:26
Das klingt manchmal so als, als ob du dich angegriffen fühlst. :conf2:

Gerne, ja.
Es nervt mich eher, wenn offenkundiger Blödsinn für bare Münze oder als relevant angenommen wird. ;)
Keine Drosselung in CB R23 mit MCE für 4,2GHz Allcore, 3467MHz RAM Gear 1: ~185W Gesamtsystem
https://abload.de/thumb/img_20210410_15352427wyjxu.jpg (https://abload.de/image.php?img=img_20210410_15352427wyjxu.jpg)

Idle mit Höchstleistungs-Energieprofil: ~47W
https://abload.de/thumb/img_20210410_15370183lvkql.jpg (https://abload.de/image.php?img=img_20210410_15370183lvkql.jpg)

:rolleyes:

BlacKi
2021-04-10, 16:20:19
Ich denke du hast meine Absicht des Beitrags nicht verstanden.

Beide CPUs so weit wie möglich frei agierend bzgl. Energie:

10400F = 132 Watt
11400F = 214 Watt

Das ist doch miserabel oder nicht?nicht pauschal. wenn dementsprechend leistung bei rumkommt, warum darf die cpu dann nicht ziehen? das ist genau die sache mit den 350w der 3090. warum soll ein hohes PT denn stören? imho könnten die auch bei 500w liegen es würde mich nicht stören, bzw. ich würds sogar gut finden.


wenn ein gedrosselter non k daherkommt mit hohem powerlimit, ist das für tuner definitiv etwas tolles.

r3ptil3
2021-04-10, 16:33:30
nicht pauschal. wenn dementsprechend leistung bei rumkommt, warum darf die cpu dann nicht ziehen? das ist genau die sache mit den 350w der 3090. warum soll ein hohes PT denn stören? imho könnten die auch bei 500w liegen es würde mich nicht stören, bzw. ich würds sogar gut finden.


wenn ein gedrosselter non k daherkommt mit hohem powerlimit, ist das für tuner definitiv etwas tolles.

Das Problem ist doch, dass eben keine entsprechende Leistung bei rumkommt.
Vergleich den offenen 10400f und den 11400f aus dem Techpowerup Review.


Die Logik mit den 500W verstehe ich nicht, da der Sweetspot einer 3080/3090 sowieso viel tiefer liegt.

350W Verbrauch sind eine negative Entwicklung. Aber nach dem RX 6000 Release, versteht man wohl die Beweggründe, weshalb da keine hocheffiziente Grafikkartenserie veröffentlicht wurde. Und falls es einige vergessen, das macht Nvidia auch, siehe GTX 980, wenn die Konkurrenz fehlt.

Ziel sollte es immer noch sein, bei gleichbleibendem Verbrauch, mehr Leistung zu erzielen.

BlacKi
2021-04-10, 16:46:33
Das Problem ist doch, dass eben keine entsprechende Leistung bei rumkommt.
Vergleich den offenen 10400f und den 11400f aus dem Techpowerup Review.


Die Logik mit den 500W verstehe ich nicht, da der Sweetspot einer 3080/3090 sowieso viel tiefer liegt.

350W Verbrauch sind eine negative Entwicklung. Aber nach dem RX 6000 Release, versteht man wohl die Beweggründe, weshalb da keine hocheffiziente Grafikkartenserie veröffentlicht wurde. Und falls es einige vergessen, das macht Nvidia auch, siehe GTX 980, wenn die Konkurrenz fehlt.

Ziel sollte es immer noch sein, bei gleichbleibendem Verbrauch, mehr Leistung zu erzielen.


ganz einfach, weil dieser verbrauch unter last nie dauerhaft anliegt, aber man stets die volle leistung hat.


und dasselbe bei den 350w der 3090. was wäre denn die alternative gewesen? eine 3090 mit 260-270w hätte nicht die leistung gehabt auch wenns nur 5-10% weniger leistung wären. glaubst du die hätten die karte billiger verkauft? ich nicht. also was ist besser, eine gedrosselte karte für 1500€ oder eine ungedrosselte karte mit 500w bios? wenn ich die unter wasser setze und mit glück 2,1 ghz laufen lassen kann, warum sollte ich lieber eine gedrosselte karte karte haben wollen? die leute geben extra geld dafür aus, um eine karte mit besonders hohem powerlimit zu haben.

Edit: angeblich ist durch das höhere PT ca 10% mehr leistung drin. jetzt stell dir doch mal die frage, wieviel du ausgeben musst um die extra 10% durch eine stärkere cpu wieder reinzuholen? aha, knapp 150€? there you go!

die möglichkeit zu haben die drosselung selbst wählen zu können ist eigentlich ein luxus, der heute nichtmehr selbstverständlich ist.
zur bekräftigung meiner argumente^^
https://tpucdn.com/review/intel-core-i5-11400f/images/cyberpunk-2077-1280-720.png

arcanum
2021-04-10, 17:22:56
5600x leistung und das für <1 cent zusätzliche stromkosten pro stunde. als value-käufer kommt man momentan nur schwer um die non-k/f cpus von intel rum.

BlacKi
2021-04-10, 17:27:02
5600x leistung und das für <1 cent zusätzliche stromkosten pro stunde. als value-käufer kommt man momentan nur schwer um die non-k/f cpus von intel rum.


in spielen liegen vl 20w weniger an mit dem 5600x. bei dem preisunterschied ist das wohl verkraftbar.

Badesalz
2021-04-10, 19:38:32
und dasselbe bei den 350w der 3090. was wäre denn die alternative gewesen? eine 3090 mit 260-270w hätte nicht die leistung gehabt auch wenns nur 5-10% weniger leistung wären. glaubst du die hätten die karte billiger verkauft? ich nicht.Das ist schon richtig. Ist das Teil über die Theke sind sie da eh raus. Die Folgekosten und den Aufwand, hat dann der Kunde.

Ich weiß aber auch nicht warum die Laien dann immer mit Stromkosten kommen. Als wenn das alles wäre und sie nicht wüssten, daß die Wattjokes Gehäuse, Belüftung und Neztteile brauchen.

Wenn man heute einen 650W Netzteil, statt früher/damals 450W, kann man heuter so und soviel schneller sein. Wow :uclap: Das ist mal ein Fortschritt.
Wirklicn nicht verkehrt, daß man nun M1 gesehen hat. Sonst würde man den tausendfach durchgekauten BS auch heute noch für voll halten.

BlacKi
2021-04-10, 19:54:12
das thema stromkosten ist nach wie vor ein kostenfaktor. nur umso teurer die karte, umso weniger interessiert der stromverbrauch.

wenn eine 300€ karte 300w zieht oder 150w, macht es viel mehr aus, als wenn eine 1500€ karte 300w zieht. die diskussion ist eine ganz andere.

damals stand es r9 290(x) vs 970(980) das waren 300-400€ karten. wenn da eine karte fast das doppelte zieht wird schnell aus einer 300€ karte eine 350 karte ala 970 vs 400€ karte ala 290. die diskussion heute um die stromkosten liegen bei einer 1500(oder gerade 2800€ karte) ist eine gaaaaanz andere. zumal die karte sowieso schon teurer ist als eine 6900xt.

seaFs
2021-04-10, 21:23:19
Für mein HTPC-Gehäuse macht es schon einen Unterschied, ob ich 65W wegkühlen muss oder 80W. Und erst recht macht es einen Unterschied, ob die darin verbaute Grafikkarte 100W oder 150W verbrät. Nicht wegen der Stromkosten, sondern wegen der Geräuschentwicklung.

Am HTPC zocken/Filme gucken mit MotionCompensation mit dem Beamer dran ist schon fein, besonders wenn der Beamer mehr Geräusche macht als der Rechner. Und ja, beim Filme gucken dreht mein CPU-Lüfter auf und es nervt zuweilen.

BlacKi
2021-04-10, 21:34:57
ja, ich weiß. ich richte das nur gegen die pauschalisierung.

filme gucken cpu lüfter? macht das nicht die gpu in hardware?

seaFs
2021-04-10, 21:39:40
Mit Zwischenbildberechnung und Artefaktmaskierung von SVP ist meine 4C/8T CPU bei 1080p voll ausgelastet, wenn es auf 60fps hochgerechnet wird.
4k-Videos sind bei den Einstellungen nicht flüssig darstellbar. Dafür braucht's laut meinem Bruder wohl eine 12C/24T-CPU.

Badesalz
2021-04-10, 23:41:10
ja, ich weiß. ich richte das nur gegen die pauschalisierung.Ah so. Wo gabs die denn?

@seaFs
Sowas sollte auch die Graka rechnen. Wenn denn. Oder eine Soft die alle SIMD/Vector Register zieht die es für die Platform gibt und wo man sich das "Kompilat" nochmal anschaut um ggf. mit Asm bisschen beizuhelfen.

Ein DSP in einem A9G/HZW macht das mit einem passiven Kühler den man auf die Raspis P1 klebt.
Ok der muss kein fettes OS und 101 Schwasinnstreiber fahren, da läuft aber auch die Fw und die Streaming-App (!) der Glotze drauf. Und der Soundecoder...
Die haben glaub ich aktuell 4c/4t. Das reicht :wink: Schelchtes Thema für einen x86.

SKYNET
2021-04-10, 23:54:46
Test mit B560 Board.


https://youtu.be/TyGFKCrnPM4

ich glaub AMD will garkeine budget CPUs mehr bringen... den schuh hat intel nun an ;D

BlacKi
2021-04-11, 00:38:14
ich glaub AMD will garkeine budget CPUs mehr bringen... den schuh hat intel nun an ;D
budget cpus waren doch genau dein ding:biggrin:

BlacKi
2021-04-11, 01:46:33
Ah so. Wo gabs die denn?

da

Ich denke du hast meine Absicht des Beitrags nicht verstanden.

Beide CPUs so weit wie möglich frei agierend bzgl. Energie:

10400F = 132 Watt
11400F = 214 Watt

Das ist doch miserabel oder nicht?Wer ASICs komplett ohne Drosselung betreibt, ist auch einfach nur doof. ;)
Bei einem Limit von 95W drosselt er nur um ~10% (ist natürlich Gear 1, Vcore auto):
[/URL][URL]https://abload.de/thumb/cb34jld.png (https://abload.de/image.php?img=cb34jld.png)
Ist natürlich immer noch lächerlich vs. Zen 2/3. Aber auch nicht so schlimm, wie Balken ohne Drosselung suggerieren...

dildo4u
2021-04-11, 06:21:04
Die Situation ist ehrlich gesagt mäh vor allem wenn man vorhat weiterhin Nvidia mit dem hungrigen DX12 Treiber zu nutzen, ich kaufe sicherlich nix unter 8 Cores hoffen wir mal Zen3+ ist ein Ding und bis dahin gibt es mehr Konkurrenz von Intel.
Ich bete mal das Alder Lake was kann und die Gewinne nicht von DDR5 kommen hab grad erst 32GB DDR4 gekauft.

gnomi
2021-04-11, 08:04:00
Ich finde die Masse an Prozessoren gar nicht mal schlecht.
Hat unter anderem auch dazu geführt, noch I9 9900 Produkte für 250-300 Euro im Abverkauf zu bekommen.
Die neuen Intel CPU's mißfallen mir im Grunde genommen alle mit ihrem hohen Stromverbrauch. Ich habe noch ein Uralt Gehäuse und bekomme selbst mit dem Dark Rock 4 Pro keine guten Ergebnisse , wenn eine CPU zu viel Spannung verlangt. 6 Kerne ging noch so gut wie lautlos. Jetzt mit 8 kann ich kein OC ausfahren. Bin froh, wenn der die 4700 10 Minuten aktueller Cinebench mit 80 Grad angenehm durchläuft. Sind dann auch bei geschätzt 180-200 Watt.
Na ja. Beide Gamer Systeme (9900KF und 8700K) laufen jetzt hoffentlich lange und man kann alles notfalls tauschen.
Intel die Großen kaufe ich erst wieder, wenn die wieder vorne sind.
Dann allerdings alles komplett neu und nicht mehr hin gebastelt.

aufkrawall
2021-04-11, 14:16:45
Habs mal getestet: Gear 1 kostet im Idle tatsächlich ca. 9W mehr Verbrauch am Wattmeter als Gear 2. Das ist natürlich unschön. Trotzdem sind <50W Gesamtsystemverbrauch weiterhin nicht so schlecht, bei vielen Ryzen-Systemen bzw. Boards kann man da noch 10-30W drauf rechnen.

mike49
2021-04-11, 15:02:30
Habs mal getestet: Gear 1 kostet im Idle tatsächlich ca. 9W mehr Verbrauch am Wattmeter als Gear 2. (...)

Finde ich gut dass Du das jetzt doch noch so bestätigst nachdem Du zuerst der Meinung warst, dass ich zu doof wäre mein BIOS richtig einzustellen.

Ich bleibe dabei: Idle-Verbrauch ist definitiv zu hoch für die gebotene Leistung und blöderweise triggert bereits niedrige Last wie z.B. beim Surfen mit Chrome immer wieder Peaks um 70W (bei meinem unlimitierten 11700K).

aufkrawall
2021-04-11, 15:17:14
Finde ich gut dass Du das jetzt doch noch so bestätigst nachdem Du zuerst der Meinung warst, dass ich zu doof wäre mein BIOS richtig einzustellen.

Ich habe mich nicht korrigiert. Dass du doof wärst, habe ich aber auch nicht gesagt. ;)
Das Bild oben mit 47W Wattmeter ist mit Gear 1, deine 20W Package Idle-Angabe kann ich ganz einfach komplett nicht bestätigen. Peaks beim Surfen sind imho auch nicht ungewöhnlich, da wird mit 1-2C Last maximal geboostet. Sehe da für Desktop-PCs kein Problem.

Edit: Wär natürlich interessant zu wissen, in wie weit der höher taktende IMC sich mit zunehmender Core-Anzahl unglücklicher bez. des Idle-Verbrauchs verhält.

r3ptil3
2021-04-11, 18:42:10
Ich bleibe dabei: Idle-Verbrauch ist definitiv zu hoch für die gebotene Leistung und blöderweise triggert bereits niedrige Last wie z.B. beim Surfen mit Chrome immer wieder Peaks um 70W (bei meinem unlimitierten 11700K).

70W klingt aber noch äusserst tief, wenn man sich die Peaks der Ryzens ansieht beim einfachen Surfen etc. (geht schnell mal bis bzw. über 100W).

BlacKi
2021-04-11, 20:09:47
70W klingt aber noch äusserst tief, wenn man sich die Peaks der Ryzens ansieht beim einfachen Surfen etc. (geht schnell mal bis bzw. über 100W).das ist race to idle. während intel sich kaum von den 800mhz löst, legt amd hier max clocks an. äussert sich oft im sägezahnlüftermodus, wenn man den nicht manuell konfiguriert.

aufkrawall
2021-04-11, 20:15:38
Halte ich für Unsinn, ansonsten wär die Performance bei Tasks mit Last-Spitzen von Intel deutlich schlechter btw. bei AMD besser (wenn es denn mit Zen 3/Cezanne überhaupt noch so ist). Außerdem ist die angezeigte Taktrate bei ~Idle eh irrelevant.
Bei Zen 3 ist der Temperatur-Graph im Idle auch ~glatt.

Knuddelbearli
2021-04-11, 21:54:24
Hatte gerade eine Idee was Intel geritten hat den Preis sogar zu erhöhen, jetzt können sie ihn bei der nächsten Generation wieder senken und dadurch steht die nochmal besser da.
Dazu dürfte es wohl wieder bei Topmodell große Probleme geben überhaupt genug Chips zu finden die mit dem Takt laufen.

BlacKi
2021-04-11, 22:19:06
Halte ich für Unsinn, ansonsten wär die Performance bei Tasks mit Last-Spitzen von Intel deutlich schlechter btw. bei AMD besser (wenn es denn mit Zen 3/Cezanne überhaupt noch so ist). Außerdem ist die angezeigte Taktrate bei ~Idle eh irrelevant.
Bei Zen 3 ist der Temperatur-Graph im Idle auch ~glatt.du sagst bödsinn, aber bietest keine andere lösung an.