Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Rocket Lake (Core i-11000) Review-Thread
Leonidas
2021-03-30, 14:16:52
Codename: Rocket Lake (RKL)
Generation: 11th gen
CPU-Architektur: Cypress Cove
GPU-Architektur: Xe
Fertigung: 14nm
Launch: 30. März 2021, 15 Uhr DE-Zeit
Listen der Launch-Reviews:
3DCenter (https://www.3dcenter.org/news/launch-von-intels-rocket-lake-die-launchreviews-gehen-online)
VideoCardz (https://videocardz.com/107476/intel-11th-gen-core-rocket-lake-s-review-roundup)
w0mbat
2021-03-30, 15:10:23
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/
Unterm Strich ändert Rocket Lake-S in Form von Core i9-11900K und Core i5-11600K damit am Ende keine der Empfehlungen des vorangegangenen Prozessortests. AMD Ryzen 5000 ist und bleibt das bessere Komplettpaket mit in Spielen gleichwertiger oder sogar überlegener Leistung. In Anwendungen ist die Konkurrenz bei niedrigerem Verbrauch sogar deutlich voraus. Das AM4-Ökosystem ist mittlerweile – auch wenn die häufigen BIOS- und AGESA-Updates an den Nerven zehren – ausgereift.
Fazit: LOL :ugly:
Linmoum
2021-03-30, 15:13:34
Das ist ja noch enttäuschender als befürchtet.
Bei PCGH reicht es mit ach und krach für den 5950X (Gleichstand), bei CB reicht es gerade einmal für den 5900X (Gleichstand, der 5950X ist 4% vorne, ohne den neuen Boost sogar 7%) und bei TPU reicht es gerade einmal knapp für den 5600X (da ist der 10900K auch noch vorne).
Uff. Und das ist schon der 11900K. Wohlgemerkt nur Spiele, von Anwendungen fangen wir mal lieber nicht an. Säuft mehr bzw. genauso viel wie der Vorgänger, ist langsamer als der Vorgänger mit 10C und der Abstand zu Zen3 ist noch mal angewachsen. Sowohl bei der Performance, als auch u.U. beim Verbrauch.
Achja:
Im Leerlauf überraschen die neuen Intel-CPUs mit einer erhöhten Leistungsaufnahme. Zum direkten Vergleich hat die Redaktion auch den Vorgänger in Form des Core i9-10900K noch einmal auf das gleiche hochgezüchtete Z590-Mainboard (Asus ROG Z590 Maximus VIII Hero) inklusive Thunderbolt 4, WLAN und mehr gesetzt. Die Lücke fällt dort zwar geringer aus, bleibt aber vorhanden. PCIe 4.0 könnte wie bei AMD einen Anteil daran haben. Als Resultat steht Intels Plattform nun nicht besser da als AMDs CPUs auf modernen Boards.
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/5/#abschnitt_leistungsaufnahme_in_anwendungen
Wer hätte es erwartet. ;D
Fazit: Komplette Enttäuschung von vorne bis hinten.
r3ptil3
2021-03-30, 15:15:04
:facepalm:
https://i.ibb.co/kDDWdtb/11600k.png
https://i.ibb.co/8sJbvtH/11900k.png
Was mich bei der Plattform verunsichern würde, ist, ob die Qualität der Treiber, der BIOS-Versionen etc. gleich hoch ist, wie bei den Plattformen von 2011-2016.
Wenn aber Intel vor Release der RL-Plattform schon etliche Infos raushaut bzgl. Alder Lake, deutet das ja auf nichts gutes hin.
Schnoesel
2021-03-30, 15:15:47
Wir sehen hier einige Steigerung:
- im Idle Verbrauch
- Unter Gaming Last
- Temperatur
Hätte man sich sparen können. Wo ist eigentlich das Wunderbios?
w0mbat
2021-03-30, 15:17:22
Verbraucht mehr als doppelt so viel wie ein 5600X und ist am Ende sogar langsamer :ugly:
https://www.techpowerup.com/review/intel-core-i9-11900k/16.html
https://tpucdn.com/review/intel-core-i9-11900k/images/relative-performance-games-1280-720.png
https://www.techpowerup.com/review/intel-core-i9-11900k/21.html
https://tpucdn.com/review/intel-core-i9-11900k/images/power-multithread.png
Blediator16
2021-03-30, 15:18:51
Ich dachte Intels verbrauchen 8w im idle :confused:
CapFrameX - Clear the ring for Rocket Lake (https://www.capframex.com/tests/Clear%20the%20ring%20for%20Rocket%20Lake)
Sorry, musste sein ;D
This is the first time that we have received a review sample from a well-known manufacturer to be able to do a launch review. Many thanks to Intel at this point.
Das erklärt wohl auch den kleinen Twitter-Meltdown.
dildo4u
2021-03-30, 15:21:24
L0qaZ85CpUM
w0mbat
2021-03-30, 15:21:46
Auch das Fazit ist vernichtend: https://www.techpowerup.com/review/intel-core-i9-11900k/25.html
Very high price for what's offered
Lower gaming performance than AMD Zen 3 and Core i9-10900K
Only eight cores (vs ten on 10900K)
Application performance can't even match Ryzen 5800X
High power consumption
Lots of heat once power limit unlocked
Only minimal software support for AVX-512 & DLBoost
Gear 1 memory mode unable to run modern memory speeds
Many BIOS bugs
Only one PCIe 4.0 M.2 slot, others are PCIe 3.0
CPU cooler not included
Blediator16
2021-03-30, 15:23:54
CapFrameX - Clear the ring for Rocket Lake (https://www.capframex.com/tests/Clear%20the%20ring%20for%20Rocket%20Lake)
Sorry, musste sein ;D
Das erklärt wohl auch den kleinen Twitter-Meltdown.
Was ein Zufall, dass gerade er es geschafft hat sämtliche AMDs schlechter dastehen zu lassen. :freak:
Linmoum
2021-03-30, 15:27:05
CapFrameX - Clear the ring for Rocket Lake (https://www.capframex.com/tests/Clear%20the%20ring%20for%20Rocket%20Lake)
Sorry, musste sein ;D
Das erklärt wohl auch den kleinen Twitter-Meltdown.Das erklärt in der Tat einiges. In Kombination mit den Reviews von CB, TPU und Co. wirkt dieses Review dort auch... naja. Ich will nicht sagen wenig objektiv. Aber einen Beigeschmack hat die Geschichte damit irgendwie schon.
Eigentlich schade, denn das Tool selbst ist klasse.
Schnoesel
2021-03-30, 15:29:32
Alter Falter
https://i.postimg.cc/zBjS8CPV/1111.png
Passend dazu der Text:
"Auch in Spielen wird deutlich, was der „Adaptive Boost“ für ein Stromfresser und damit Effizienzkiller ist. Für im Durchschnitt 2 Prozent mehr Leistung in 720p zieht das System bis zu 80 Watt mehr aus der Steckdose."
Und dann reichts noch nicht mal für den ersten Platz. AMD muss nichts am Preis machen. Gar nichts. Auch nicht gut.
dildo4u
2021-03-30, 15:34:35
Diese ganzen Tests machen immer noch kein Sinn wenn sie Preise von Modellen mit IGP gegen AMD ohne vergleichen, ich will Werte der 8 Cores F Modelle sehen die sind interessant.
robbitop
2021-03-30, 15:37:37
Was soll sich an den Ergebnissen ändern? Die IGP kostet keine TDP wenn sie nicht läuft.
r3ptil3
2021-03-30, 15:37:47
Diese ganzen Tests machen immer noch kein Sinn wenn sie Preise von Modellen mit IGP gegen AMD ohne vergleichen, ich will Werte der 8 Cores F Modelle sehen die sind interessant.
Spielt doch in den Reviews keine Rolle ob K oder KF... die Performance mit einer dedizierten GPU ist identisch.
dildo4u
2021-03-30, 15:40:58
Was soll sich an den Ergebnissen ändern? Die IGP kostet keine TDP wenn sie nicht läuft.
Es geht um Preis/Performance der 11700f liegt z.b genau auf dem 5600x vom Preis her, er hat aber ein 65 TDP man kann also nicht die 11700k Werte nehmen.
https://www.proshop.de/CPU/Intel-Core-i7-11700F-Rocket-Lake-CPU-8-Kerne-25-GHz-Intel-LGA1200-Intel-Boxed/2918958?utm_source=geizhals&utm_medium=cpc&utm_campaign=pricesite
Leonidas
2021-03-30, 15:42:31
Diese ganzen Tests machen immer noch kein Sinn wenn sie Preise von Modellen mit IGP gegen AMD ohne vergleichen, ich will Werte der 8 Cores F Modelle sehen die sind interessant.
Der Fairness halber müsste einfach zum Preis der F-Modelle verglichen werden. Preislich natürlich nur, bei der Performance spielt es keine Rolle.
Es geht um Preis/Performance der 11700f liegt z.b genau auf dem 5600x vom Preis her, er hat aber ein 65 TDP man kann also nicht die 11700k Werte nehmen.
Logisch. Aber das F-Modell zum 11700K ist ja auch der 11700KF - nicht der 11700F. Dessen Normalmodell "11700" wurde heute kaum getestet. Irgendwo in Fernost könnte sein.
PS:
https://video.twimg.com/tweet_video/Exu0s5KXIAAxRtr.mp4
Linmoum
2021-03-30, 15:48:58
https://i.gyazo.com/1566852be8e26b3a5d33acc21a50a31f.png
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/5/#abschnitt_leistungsaufnahme_in_spielen
Gear1 statt Gear2 scheint ja selbst in Spielen ordentlich zu nuckeln. :freak:
fondness
2021-03-30, 15:52:14
Intel sprach von 19% mehr IPC und das ist das Ergebnis? Wenn die angeblichen 20% mehr Single-Threaded Leistung bei Alder Lake genau so aussehen dann gute Nacht. Der Launch macht IMO null Sinn, da war das Vorgängerprodukt ja besser und im übrigen für Intel auch wesentlich billiger zu fertigen.
dildo4u
2021-03-30, 15:54:14
Performance scheint stark mit der Gameauswahl zu schwanken PCGH hat den i9 auf 5950X Level.
https://www.pcgameshardware.de/Core-i9-11900K-CPU-277110/Tests/11700K-11600K-Test-Rocket-Lake-1369258/3/
Z.b Cyberpunk 11700k vor 5950X, Red Dead 2 5600X vor 11900k.
robbitop
2021-03-30, 15:58:21
Im PCGH Performancerating (Spiele) liegt der 11700K immerhin +8% vor dem 10700K. Beide gleicher Speichertakt und ziemlich gleiche CPU Taktrate.
8% sind weit weg von 19% aber sie sind nicht nichts. :D
w0mbat
2021-03-30, 15:59:26
Performance scheint stark mit der Gameauswahl zu schwanken PCGH hat den i9 auf 5950X Level.
https://www.pcgameshardware.de/Core-i9-11900K-CPU-277110/Tests/11700K-11600K-Test-Rocket-Lake-1369258/3/
PCGH findet immer das Intel/Nvidia Optimum ;)
Bei TPU ist selbst der 5600X vor dem 11900K :biggrin:
fondness
2021-03-30, 16:00:37
Im PCGH Performancerating (Spiele) liegt der 11700K immerhin +8% vor dem 10700K. Beide gleicher Speichertakt und ziemlich gleiche CPU Taktrate.
8% sind weit weg von 19% aber sie sind nicht nichts. :D
Bleibt die Frage, warum nur PCGH solche Vorteile misst? Haben alle anderen Fehler gemacht oder doch was wahrscheinlicher ist PCGH?
dildo4u
2021-03-30, 16:02:59
Bleibt die Frage, warum nur PCGH solche Vorteile misst? Haben alle anderen Fehler gemacht oder doch was wahrscheinlicher ist PCGH?
Der i9 setzt sich dort nur gut ab, der i7 ist langsamer als 5800X und der i5 langsamer als 5600x.
Blediator16
2021-03-30, 16:03:30
Bei der DX11 Overhead Diskussion damals wurde gesagt, dass man bei Tests den worst case sucht.
Voodoo6000
2021-03-30, 16:05:24
Wie erwartet eine ziemliche Enttäuschung. Zu langsam, zu hohe Leistungsaufnahme und im Vergleich zu AMD auch preislich nicht besonders attraktive.
MiamiNice
2021-03-30, 16:06:22
Geht irgendwie schon ab die Kiste. Gibt es da ein Review in dem Wasser mit im Spiel ist?
rUy3WcDlBXE
Linmoum
2021-03-30, 16:10:54
Geht irgendwie schon ab die Kiste. Gibt es da ein Review in dem Wasser mit im Spiel ist?Für die Performance bringt Wasser doch nichts, falls du das darauf beziehst. CB hat schon mit AB gebencht, wodurch der 11900K mit 5.1GHz All Core läuft. Lass es vielleicht noch 200MHz mehr sein, dann hast du 1-2% mehr Performance.
Und reichen tut's auch dann nicht für Zen3.
Fetza
2021-03-30, 16:11:01
Wie erwartet eine ziemliche Enttäuschung. Zu langsam, zu hohe Leistungsaufnahme und im Vergleich zu AMD auch preislich nicht besonders attraktive.
Kommt drauf an welche CPU man sich ansieht. Der 11400F scheint wie bereits vermutet eine hervorragende Budget-CPU zu sein - und dies scheint auch vor dem Hintergrund des Stromverbrauchs zu gelten:
https://www.youtube.com/watch?v=tLW6FJEO93A
Wenn die hier ermittelten Werte stimmen ist der 11400F der "Star" des Lineups.
robbitop
2021-03-30, 16:18:43
Bleibt die Frage, warum nur PCGH solche Vorteile misst? Haben alle anderen Fehler gemacht oder doch was wahrscheinlicher ist PCGH?
Bei CB sehe ich ähnliche Differenzen.
10600K vs 11600K G1 sogar +15%. Mit G2 sind es immerhin +10%.
Leider hat CB keinen 11700K.
Insofern kann man nur den 10700K mit dem 11900K vergleichen. Wären dort 8%.
unl34shed
2021-03-30, 16:18:56
Irgendwie zwei Tage zu früh released...
Lehdro
2021-03-30, 16:20:04
Irgendwie zwei Tage zu früh released...
Das denke ich mir auch gerade :biggrin:
MiamiNice
2021-03-30, 16:20:18
Für die Performance bringt Wasser doch nichts, falls du das darauf beziehst. CB hat schon mit AB gebencht, wodurch der 11900K mit 5.1GHz All Core läuft. Lass es vielleicht noch 200MHz mehr sein, dann hast du 1-2% mehr Performance.
Und reichen tut's auch dann nicht für Zen3.
Nicht viel zumindest, schon klar. Interessant finde ich es halt aber doch wie hoch man Allcore mit Wasser kommt.
Ich finde das Gerät sieht gar nicht so schlecht aus gegen Zen3. Gerade in den CPU intensiveren Games wie z.b. Anno schlägt er sich ordentlich. Pack da mal noch dickeren Ram rein, Speichercontroller bissel tunen. Für Spieler schon ne geile Kiste wenn man vorhat AL zu überspringen und noch dicken DDR4 Ram at home hat.
Trifft eigentlich alles auf mich zu. :confused:
Linmoum
2021-03-30, 16:21:53
Nachdem man mehr und mehr Reviews gesehen hat fragt man sich eigentlich nur, warum Intel sich überhaupt den Aufwand dafür macht, obwohl ADL bereits vor der Tür steht.
Das ist doch einfach komplett absurd, zumal der RKL-Die auch noch mal deutlich größer als CML ist und zwei Kerne weniger bietet. Bessere iGPU hin oder her, keiner holt sich eine so teure CPU und zockt dann mit der iGPU.
y33H@
2021-03-30, 16:24:11
Insofern kann man nur den 10700K mit dem 11900K vergleichen. Wären dort 8%.Ich habe sogar +13% von 10700K auf 11700K:
https://www.golem.de/news/11900k-11700k-11600k-im-test-intels-lueckenbuesser-leistet-und-verlangt-viel-2103-155184.html
MiamiNice
2021-03-30, 16:24:21
Ja, sehe ich auch so. Allerdings aus Spieler Sicht macht es eventuell mehr Sinn AL zu überspringen und auf Raptor Lake zu warten. Dann bietet sich RKL schon an wenn man bissel auffrischen will.
Vor allem müsste man nicht die ersten Auskopplungen von DDR5 kaufen.
dildo4u
2021-03-30, 16:25:57
Nicht viel zumindest, schon klar. Interessant finde ich es halt aber doch wie hoch man Allcore mit Wasser kommt.
Ich finde das Gerät sieht gar nicht so schlecht aus gegen Zen3. Gerade in den CPU intensiveren Games wie z.b. Anno schlägt er sich ordentlich. Pack da mal noch dickeren Ram rein, Speichercontroller bissel tunen. Für Spieler schon ne geile Kiste wenn man vorhat AL zu überspringen und noch dicken DDR4 Ram at home hat.
Trifft eigentlich alles auf mich zu. :confused:
Scheint eher Rückwärts zu gehen was Ram OC angeht.
Auch der neue Speichercontroller hat ausgehend von DDR4-3200 im Gear1-Betrieb wenig Potenzial: Bei DDR4-3600 oder DDR4-3733 ist je nach Chip bereits Schluss, erst im Gear2-Modus lässt sich DDR4-4000 oder darüber fahren. Das ergibt jedoch wenig Sinn, da der halbierte Takt des Speichercontrollers die Latenz erhöht - gerade Spiele sprechen auf schnelle Zugriffe stärker an als auf eine größere Datentransferrate.
https://www.golem.de/news/11900k-11700k-11600k-im-test-intels-lueckenbuesser-leistet-und-verlangt-viel-2103-155184-7.html
robbitop
2021-03-30, 16:26:20
Ich habe sogar +13% von 10700K auf 11700K:
https://www.golem.de/news/11900k-11700k-11600k-im-test-intels-lueckenbuesser-leistet-und-verlangt-viel-2103-155184.html
Wahrscheinlich hängt es auch ein wenig vom Memoryclock ab und wie sehr man die CPUs freiläßt.
Viele benchen ja mit gleichem Memoryclock und gleichen Timings.
MiamiNice
2021-03-30, 16:27:22
Scheint eher Rückwärts zu gehen was Ram OC angeht.
https://www.golem.de/news/11900k-11700k-11600k-im-test-intels-lueckenbuesser-leistet-und-verlangt-viel-2103-155184-7.html
Ihhhh :eek:
hlynska
2021-03-30, 16:28:26
Schade, dass fast alle Reviews bei 720p mit der 3090 im NVIDIA-Bottleneck rumstochern. Ich hätte entweder die 6900XT oder beides genommen.
robbitop
2021-03-30, 16:30:19
Schade, dass fast alle Reviews bei 720p mit der 3090 im NVIDIA-Bottleneck rumstochern. Ich hätte entweder die 6900XT oder beides genommen.
Das CPU Limit wird dadurch doch nur erhöht. Also nicht so verkehrt für einen CPU Test.
Dennoch wäre vor diesem Hintergrund die Sauberkeit der Messergebnisse sicherlich mit Big Navi besser gewesen.
dildo4u
2021-03-30, 16:32:16
Schade, dass fast alle Reviews bei 720p mit der 3090 im NVIDIA-Bottleneck rumstochern. Ich hätte entweder die 6900XT oder beides genommen.
Igor nimmt 6900XT da er so mit SAM testen konnten, das NV Bios Update kam zu spät.
https://www.igorslab.de/intel-core-i9-11900k-core-i7-11700k-core-i5-11600k-und-core-i9-10900k-gegen-amds-aktuelle-ryzen-garde-schnell-heiss-und-ganz-schoen-durstig/2/
hlynska
2021-03-30, 16:35:04
Danke :up:
Platos
2021-03-30, 16:41:23
PCGH testet den 11700K mit realitätsnahen 2933MHz RAM :D
Aber ansonsten ganz gut der Test. Ist wohl wie erwartet. Mit Brechstande aufgeschlossen aber im P/L besser wie der 5800X. Der 11700KF dann noch etwas besser, schliesslich haben beide keine integrierte.
den ausführlicheren Komentar liegt dann von mir aber im anderen Rocketlake Thread.
Auf jeden Fall sind beide etwa gleich auf, wenn man bedenkt, dass man bei Intel noch ein paar Euro (über die Jahre hinweg) drauflegen kann für den höheren Stromverbrauch.
Eigentlich ist der 5800X ja vom P/L eher schlecht, wie eben die ganze Zen3 Reihe bisher. (Alles auf Listenpreise bezogen).
Linmoum
2021-03-30, 16:43:01
PCGH testet den 11700K mit realitätsnahen 2933MHz RAM :DWeil die offizielle Spec von Intel heißt: Gear1 für alles unterhalb des i9 nur mit maximal 2933MHz. 3200MHz hingegen offiziell nur mit Gear2 und das ist langsamer.
PCGH testet schon immer mit offiziellen Herstellerspecs.
X-Bow
2021-03-30, 16:43:43
Nach den ganzen Unstimmigkeiten der Benchmarks im CPU-Limit ("nVidias Flaschenhals bei DX12") frag ich mich eher wie man ernsthaft ein CPU-Review erstellen kann mit nur einer Grafikkarte ohne Gegenkontrolle mittels einer anderen Grafikkarte. Dadurch entsteht doch Null Aussagekraft des Artikels über dessen Wahrheitsgehalt.
Das einzige was man wirklich mitnehmen kann ist das die CPU einen hohen Stromverbrauch hat, denn darin stimmen alle Artikel überein.
Screemer
2021-03-30, 16:44:29
Warum bekommen es die reviewer eigentlich immer noch nicht hin während der Benchrunns die Leistungsaufnahme des Gesamtsystems zu messen? Fast niemand macht das und man bekommt nur bescheuerte Punktaufnahmen oder vielleicht von einem Bench nen Verlauf. Dabei wäre zumindest die Gesamtbetrachtung über alle Games und Produktivbenches eine der interessamtesten Metriken.
Lehdro
2021-03-30, 16:46:41
Nach den ganzen Unstimmigkeiten der Benchmarks im CPU-Limit ("nVidias Flaschenhals bei DX12") frag ich mich eher wie man ernsthaft ein CPU-Review erstellen kann mit nur einer Grafikkarte ohne Gegenkontrolle mittels einer anderen Grafikkarte. Dadurch entsteht doch Null Aussagekraft des Artikels über dessen Wahrheitsgehalt.
Das schlechte Abschneiden von NV unter DX12 im CPU Limit verschärft dieses doch noch einmal. Ein schnellere CPU ist dann halt definitiv schneller, da das NV Bottleneck auf der Treiberebene vorherrscht und eben nicht auf der GPU Ebene.
x-force
2021-03-30, 16:49:53
https://youtu.be/rUy3WcDlBXE
verlink bloß nicht das deutsche video, oder wolltest du uns den german accent nicht vorenthalten? :freak:
Savay
2021-03-30, 17:00:08
Photoshop & Lightroom, After Effects, Premiere Pro und (eingeschränkt) DaVinci Resolve ist der Gewinn durch die µArch zwar da aber doch irgendwie in Summe am Ende trotzdem alles eher ein wenig meh.
Wahrscheinlich doch zu viele Kompromiss beim Cache durch den Backport?!
https://www.pugetsystems.com/labs/articles/11th-Gen-Intel-Core-CPU-Review-Roundup-2106/
Die mit Abstand attraktivste CPU scheint doch tatsächlich der 6 Core in Form des 11600K zu sein.
X-Bow
2021-03-30, 17:02:40
Das schlechte Abschneiden von NV unter DX12 im CPU Limit verschärft dieses doch noch einmal. Ein schnellere CPU ist dann halt definitiv schneller, da das NV Bottleneck auf der Treiberebene vorherrscht und eben nicht auf der GPU Ebene.
Hast Du mir auch ein Link welche dies Aussage für Rocket Lake genau so darlegt?
dildo4u
2021-03-30, 17:07:39
Photoshop & Lightroom, After Effects, Premiere Pro und (eingeschränkt) DaVinci Resolve ist der Gewinn durch die µArch zwar da aber doch irgendwie in Summe em Ende eher ein wenig meh.
Wahrscheinlich doch zu viele Kompromiss beim Cache durch den Backport?!
https://www.pugetsystems.com/labs/articles/11th-Gen-Intel-Core-CPU-Review-Roundup-2106/
Die mit Abstand attraktivste CPU scheint doch tatsächlich der 6 Core in Form 11600K zu sein.
11400f ist bei 170€ dürfte ordentlich gegen Ryzen 3600 aussehen, da spart man ordentlich wenn man auf IGP verzichten kann.
Savay
2021-03-30, 17:22:45
Der 3600X liegt zumindest in Lightroom roundabout eher auf bzw. minimal unter 10700K level.
Bin mir nicht sicher ob ein kastrierter 11400f das dann wirklich packt gegen nen 3600.
In Photoshop und dem Rest könnte es aber zumindest (knapp) hinhauen.
Gipsel
2021-03-30, 17:26:55
Scheint eher Rückwärts zu gehen was Ram OC angeht.
Auch der neue Speichercontroller hat ausgehend von DDR4-3200 im Gear1-Betrieb wenig Potenzial: Bei DDR4-3600 oder DDR4-3733 ist je nach Chip bereits Schluss, erst im Gear2-Modus lässt sich DDR4-4000 oder darüber fahren. Das ergibt jedoch wenig Sinn, da der halbierte Takt des Speichercontrollers die Latenz erhöht - gerade Spiele sprechen auf schnelle Zugriffe stärker an als auf eine größere Datentransferrate.
https://www.golem.de/news/11900k-11700k-11600k-im-test-intels-lueckenbuesser-leistet-und-verlangt-viel-2103-155184-7.html
Entspricht dann wohl ziemlich genau den Werten, die auch bei AMD mit 1:1 möglich sind.
dildo4u
2021-03-30, 17:31:21
Der 3600X liegt zumindest in Lightroom roundabout eher auf bzw. minimal unter 10700K level.
Bin mir nicht sicher ob ein kastrierter 11400f das dann wirklich packt gegen nen 3600.
In Photoshop und dem Rest könnte es aber zumindest (knapp) hinhauen.
Computerbase hatte schon den 10400 auf Level mit 3600 beim zocken, aber kann sein das Anwendungen ein anderes Bild zeigen.
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/3/#diagramm-performancerating-1280-720-bildpunkte-frametimes_2
Savay
2021-03-30, 17:38:32
Spiele sind da wohl eher ein schlechter Gradmesser...vor allem für Zen2.
Wie gesagt: in LR ist es sonst eher 3600(X/T) ~ 10700K und in PS/AE/Premiere eher 3600(X/T) ~ 10600K (Die versch. Zen2 SKUs nehmen sich da nicht so viel)
robbitop
2021-03-30, 17:44:30
Entspricht dann wohl ziemlich genau den Werten, die auch bei AMD mit 1:1 möglich sind.
Schon seltsam, dass Intel hier einen Rückschritt macht.
Ex3cut3r
2021-03-30, 17:54:34
Wasn Schrott. Ich warte darauf das Zen 3 billiger wird, danke Intel, so wird das nix.
Muss der 3600X mit B-Die Tuning noch durchhalten, passt schon.
Hotstepper
2021-03-30, 17:59:34
Das erklärt wohl auch den kleinen Twitter-Meltdown.
Welchen genau? Da gabs ja so einige.
dildo4u
2021-03-30, 18:08:53
Ich finde den 11600k bei CB gar nicht mal so schlecht, wenn dort wirklich 2933 Ram reicht um mit dem 5600x + DDR4 3200 beim zocken mitzuhalten ist das Paket ja durch die Bank billiger.
Frametimes sind näher dran als fps.
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/3/#diagramm-performancerating-1280-720-bildpunkte-frametimes_2
Buddy Casino
2021-03-30, 18:15:27
> Preisaufschlag von 10% und 7%
Immerhin, Intel hat den Humor nicht verloren.
GerryB
2021-03-30, 18:31:58
Igor nimmt 6900XT ...
https://www.igorslab.de/intel-core-i9-11900k-core-i7-11700k-core-i5-11600k-und-core-i9-10900k-gegen-amds-aktuelle-ryzen-garde-schnell-heiss-und-ganz-schoen-durstig/2/
In seinem ausversehen mit reingerutschtem FC ND schaut der der i9-10900k leistungs-und verbrauchsmäßig ganz interessant aus.
Die schnellste CPU+GPU ist sogar in W/Fps am sparsamsten.(beim Ram mit XMP on)
(am Ende interessiert nur PC gesamt als Verbrauch)
Wen interessiert 720p ?
(ernsthaft)
Piccolo
2021-03-30, 18:46:54
Warte lieber auf Sockel 1700 . 4 Quartal /Anfang 2022. Solange reicht mein 9900k noch locker.
Savay
2021-03-30, 18:50:08
Die schnellste CPU+GPU ist sogar in W/Fps am sparsamsten.
Die FPS/Watt Metrik gewinnt in deinem Beispiel für das System allerdings eigentlich der 5600X und nicht der 10900K. ;)
Wenn man den GPU Anteil abzieht sogar signifikant...und auch der 5800X ist dann deutlich besser.
Abgesehen davon wie vglw. zweifelhaft das im GPU Limit evtl. eigentlich eh ist.
GerryB
2021-03-30, 18:58:32
Der 5600x ist 5 Fps langsamer.
(rechne halt mal 5% drauf als fiktiven Verbrauch bei gleichen Fps wie der i9)
Savay
2021-03-30, 18:59:34
Und? Rechne das doch mal aus.
CPU FPS W FPS/W GPU only W CPU only W CPU FPS/W
5600 103,8 396,4 0,2618567104 337,1 59,3 1,750421585
5800 106 413 0,2566585956 343,1 69,9 1,516452074
10900 108,4 417,1 0,2598897147 332 85,1 1,273795535
11600 104,1 429,7 0,2422620433 344,1 85,6 1,216121495
5900 106,8 434,2 0,2459695993 331,8 102,4 1,04296875
5950 105,8 440,2 0,2403452976 337,1 103,1 1,026188167
11700 108 450,8 0,2395740905 343 107,8 1,001855288
11900 108 455,9 0,2368940557 342,6 113,3 0,9532215357
Ist zudem eh DX11.
Lehdro
2021-03-30, 19:17:43
Hast Du mir auch ein Link welche dies Aussage für Rocket Lake genau so darlegt?
Warum sollte genau RKL da rausfallen? Wenn CPU A schneller als CPU B ist, so ist sie das auch im "Overheadlimit" mit einer NV Karte unter DX12. Wüsste nicht wieso da RKL anders sein sollte.
davidzo
2021-03-30, 19:40:05
Warum bekommen es die reviewer eigentlich immer noch nicht hin während der Benchrunns die Leistungsaufnahme des Gesamtsystems zu messen? Fast niemand macht das und man bekommt nur bescheuerte Punktaufnahmen oder vielleicht von einem Bench nen Verlauf. Dabei wäre zumindest die Gesamtbetrachtung über alle Games und Produktivbenches eine der interessamtesten Metriken.
Es sollte eigentlich auch kein problem sein das zu automatisieren. Das geht ja sogar per software. Aber auch so kann man ein paar Shunt power meter in das +12V P4 kabel und ggf. atx 24pin dazwischen löten, arduino oder ESP dran und schön per console (alternativ wifi) mitloggen.
Solche automatisierten Testsetups erwarte ich eigentlich, bzw. sehe ich darin den Job von professionellen Reviewern.
y33H@
2021-03-30, 20:53:24
Das ist wie üblich leider eine Zeitfrage, immerhin will das alles auch ausgewertet werden.
w0mbat
2021-03-30, 21:02:04
Ich finde den 11600k bei CB gar nicht mal so schlecht, wenn dort wirklich 2933 Ram reicht um mit dem 5600x + DDR4 3200 beim zocken mitzuhalten ist das Paket ja durch die Bank billiger.
Frametimes sind näher dran als fps.
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/3/#diagramm-performancerating-1280-720-bildpunkte-frametimes_2
Die kleinen RKL-CPUs sind auch nicht wirklich schlecht, abgesehen vom Stromverbrauch.
Ein 11400F für ~150€ auf nem günstigen B560 Mobo sollte nicht wirklich spürbar langsamer sein als ein 5600X + B550, dafür aber deutlich günstiger. Das Ding ist halt, das war schon immer so. Ein 3600 wird wohl auch noch eine ganze Weile reichen, und der wird demnächst 2 Jahre alt.
Intel hält übrigens gerade ein AMA auf Reddit zum Rocket Lake-launch (https://www.reddit.com/r/intel/comments/memyfv/ama_march_30th_830am_to_300_pm_pst_intel_11th/) - für neue Fragen ist noch bis Mitternacht Zeit.
Fusion_Power
2021-03-30, 21:29:45
Die mit Abstand attraktivste CPU scheint doch tatsächlich der 6 Core in Form des 11600K zu sein.
Da mir ein i5 ohne K komplett reichen würde, könnte ich mir sogar nen kleineres und vor allem preiswerteres 35W "T" Modell vorstellen. Dann spielt der Idle Verbrauch vermutlich nicht mal mehr ne Rolle. :D Hätte als Rocket Lake 6/12 Core CPU insgesammt immer noch 8 Threads mehr als mein nicht mehr so frischer 65W Skylake i5. :cool:
Linmoum
2021-03-30, 21:30:41
CB hatte ja auch schon was zum Idle-Verbrauch geschrieben, was hier letztens erst groß Thema war. Hardwareluxx hat dazu auch was im RKL-Review.
https://i.gyazo.com/38aa38397e20f9bad83c0f86eda677a8.png
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/55775-die-rakete-mit-fehlstart-core-i5-11600k-core-i7-11700k-und-core-i9-11900k-im-test.html?start=10
Und Intel hat hier überhaupt kein X570-Äquivalent, was den hohen Idle-Verbrauch ggü. diesem noch ein Stück weit schlimmer macht. Je mehr sich sämtliche Reviews und Resultate zusammenfügen, desto weniger verständlich wird dieser Release. Da stimmt quasi überhaupt nichts und selbst CML wird immer attraktiver.
dildo4u
2021-03-30, 21:37:18
Liegt das nicht eher am verwendeten Board?
Bei CB ist der 11600k im Bereich von Zen 3.
GerryB
2021-03-30, 21:47:34
Und? Rechne das doch mal aus.
CPU FPS W FPS/W GPU only W CPU only W CPU FPS/W
5600 103,8 396,4 0,26 337,1 59,3 1,750421585
5800 106 413 0,2566585956 343,1 69,9 1,516452074
10900 108,4 417,1 0,26 332 85,1 1,273795535
11600 104,1 429,7 0,2422620433 344,1 85,6 1,216121495
5900 106,8 434,2 0,2459695993 331,8 102,4 1,04296875
5950 105,8 440,2 0,2403452976 337,1 103,1 1,026188167
11700 108 450,8 0,2395740905 343 107,8 1,001855288
11900 108 455,9 0,2368940557 342,6 113,3 0,9532215357
Ist zudem eh DX11.
Beide 0,26(x) passt. Außerdem wirds mit nem 5600 OCed sicher schwer linear die fehlenden Fps zu holen.
Erstaunlich ist eigentlich, das die 6900@5600 anscheinend mehr W braucht.(im Leerlauf durch das CPU-Limit)
Mit den neuen 11ern scheints ähnlich zu sein!?
(x) zig Kommastellen einzuführen um den i9 unter 0,26 zu drücken ist ja wohl sinnlos
--> da kannste als Reviewer anfangen, um XYZ besser aussehen zu lassen
MD_Enigma
2021-03-30, 22:14:50
Im Vergleich 11900 vs 10900 (125W):
SingleCore ... 17% schneller. Check.
Spiele ... gleich schnell. Aha.
Anwendungen ... 24% langsamer. Hoppla.
Intel, das war ein Unfall mit Anlauf. Wieviel Milliarden hat der gekostet ;-)?
Wenn ich jetzt mal den 5600X (65W) gegen den 11900 (125W) lege, dann sind das keine 5% Leistungsunterschied laut CB. Und der 5800X vor 11900 (125W), dass ich das noch Erleben darf, dass AMD trotz Elfmeter vor Intel liegt.
Linmoum
2021-03-30, 22:20:03
Achja, viele Erkenntnisse zum IMC und wieso/warum beim AMA von Intel auf reddit:
Q: why the new IMC? latency and max 1:1 freq are worse now
A: When designing our Integrated Memory Controller architecture and it's associated supporting logic, there were decisions made to support a high 2:1 frequency capability. Optimization for operation in this mode as well as higher stock memory frequencies had some tradeoffs with 1:1 frequencies.
Q: well, my question is more why that 2:1 decision itself was made, CML could already go to 5000 MHz on 1:1
A: Today there are announcements from several memory vendors for kits in excess in 5000 MHz, as well as OC's ranging past 6000MHz+. To best support the industry, logic and timings were optimized with improved headroom in mind.
Q: So to best experience RKL, you'd need to buy one one of these newer kits that is designed to run in 2:1 mode?
A: The faster speeds enabled by these latest kits would only be available in a 2:1 mode operation. New kits based on the latest DRAM silicon may also have improved timings.https://www.reddit.com/r/intel/comments/memyfv/ama_march_30th_830am_to_300_pm_pst_intel_11th/gstmuwu/
Wisst ihr Bescheid. ;D
r3ptil3
2021-03-30, 22:23:52
Solange reicht mein 9900k noch locker.
Mit einem 8700k/9900k hat man damals alles richtig gemacht.
Der 8700k wird locker bis 2023/2024 selbst die dann aktuellen GPUs versorgen können, ein 9900k noch 1-2 Jahre länger.
PCIe 4.0 wird auch nicht mehr als maximal 10% Unterschied ausmachen und die schnellen SSDs merkt man unter normalen Anwendungen sowieso nicht.
Savay
2021-03-30, 22:27:38
(x) zig Kommastellen einzuführen um den i9 unter 0,26 zu drücken ist ja wohl sinnlos
--> da kannste als Reviewer anfangen, um XYZ besser aussehen zu lassen
Den einen aufrunden und den anderen abrunden um die eigene unwahre Behauptung zu stützen und es sich so hinzudrehen um es besser aussehen zu lassen als es ist, ist ja wohl sinnlos, weil so einen durchsichtigen Move eh jeder nachvollziehen kann...und ernst zu nehmen ist das auch definitiv nicht. :wink:
Dein Beispiel taugt jedenfalls nicht um deine Behauptung zu stützen.
Mehr habe ich dazu aber auch echt nicht mehr zu sagen.
Über die Validität von Igor's Zahlen muss ich jedenfalls nicht diskutieren, weil das eh gar nicht mein Punkt war! :tongue:
maximus_hertus
2021-03-30, 22:32:39
Das ist mal eine echte Überraschung. Das RKL nicht der ganz große Wurf sein würde war ja absehbar. Aber wenn man sich die ganzen Tests anguckt, sieht das ja echt übel aus.
AMD und Intel haben fast komplett die Rollen getauscht. Will man max Performance und eine (mittlerweile) ausgereifte Plattform => AMD
Will man Geld sparen und nimmt einige böse braune Flecken in kauf (weniger PErformance, teils krasser Stromverbrauch, Plattform noch nicht ganz bei 100%), dann gibt es im unteren Bereich einige interesante Preis / Leistungs - Optionen.
Hätte man das vor ca. 5 Jahren jemanden gesagt, man wäre in die Klapse gekommen.
ADL muss da definitiv ordentlich zulegen, um zumindest bis Zen 4 unangefochten die (Gaming) Krone zu bekomen. Schafft es AMD mit Warhol so 6-8% zuzulegen, dann wäre man, je nach Gaming PArcours, so 10-15% vor RKL. Dann würden +15% von ADL gerade so reichen, um hauchzart vor dem Zen 3 Refresh zu landen. Für Zen 4 wäre das wohl ein gefundenes Fressen.
Es sei den, Zen 4 kommt wirklich erst im 2. Halbjahr 2022. Das würde dann doch einiges ändern.
Zurück zu RKL: too little, too late. Nun ja, eigentlich ist es sogar egal, da aktuell eh ales gekauft wird. Von daher machen "Grabenkämpfe" auch wenig bis keinen Sinn.
Man kann es auch von der anderen Seite sehen: mit einem 11900K kann ich zocken, mit dem Ryzen nicht wirklich, da keine IGP und keine kaufbaren GPUs ;)
Am Ende noch ein Dankeschön an alle Reviewer :) Es ist schön, dass alle Tests eben nicht die exakt gleichen Ergebnisse haben und man verschiedene Parcoure / Schwerpunkte vergleichen kann. Merke: Vielfalt bringt mehr als Einheitsbrei :)
Platos
2021-03-30, 22:40:53
Naja, zum Glück ist der Unterschied zwischen den Modellen marginal in der Leistung. Es ist also zum Glück nicht so wie bei AMD vor 5 Jahren. Der Stromverbrauch ist mittlerweile wie bei AMD vor 5 Jahren (oder sogar höher?), aber die Leistung stimmt noch knapp, um mitspielen zu können.
Man kann jetzt nur hoffen, dass Alderlake mit 10nm wirklich reisst in Sachen Stromeffizienz (und dank den kleinen Cores evtl. auch spitze unter Niedriglast).
Naja, man muss jetzt hoffen, ansonsten dreht sich die Lage für die nächsten 2-3 Jahre um und AMD fängt an, sich an hohen Preisen zu erfreuen.
maximus_hertus
2021-03-30, 22:49:42
AMD fängt an, sich an hohen Preisen zu erfreuen.
Hätte, hätte, Fahradkette. Bei einem "normalen" Verlauf wie bei vorherigen ZEn Launches, wären die Straßenpreise für einen 5600X mittlerweile bei rund 260-270 Euro, beim 5800X bei rund 400-420 Euro, beim 5900X bei rund 520-530 Euro und beim 5950X bei rund 730-750 Euro.
Also in einem Bereich der okay wäre. Nicht toll, aber auch nicht mies. Dazu sollte sich ja ein 5600 non-X für 220 Euro gesellen, der aber wohl aufgrund der aktuellen Situation nicht benötigt wird / keinen Sinn für AMD ergibt.
Ganz nebenbei wäre es gar nicht so schlecht, wenn AMD mal über mehrere Jahre am Stück sich ein wenig Fett fressen kann aka Gewinne einsammelt, um die langfristige Entwicklung abzusichern. Es bringt jedem was, wenn AMD auf lange Sicht mithalten kann und nicht mehr so böse abfällt wie in den letzten Jahrzehnten gesehen.
Klar, kurzfristig wäre das für uns Käufer nicht das Beste, aber vorher hat man es bei Intel auch klaglos hingenommen (wenn man sich die Verkaufszahlen anschaut).
Platos
2021-03-30, 22:56:15
Nicht toll, aber auch nicht mies.
Sehe ich anders. Das ist eher nach dem Motto: "Ich nehme es hin".
Daran ist rein gar nichts nicht mies. Die Preise bei Zen 3 sind beschissen (und auch deine angenommenen sind das). Dank Intel bleibt das vorerst so.
Naja, es ärgert nunmal umso mehr, da man ein kurzes flaues Lüftchen gesehen hat (2017-2019) und jetzt gehts mit dem P/L Fortschritt wieder bergab bzw. der Fortschritt bleibt aus/ ist sogar noch Rückläufig momentan.
Und die Verkaufszahlen wiederspiegeln doch überhaupt nichts. Die entstehen zu 99% durch Leute, die den Markt nicht kennen. Vor allem kaufen die wenigsten Hardware einzeln, der Preisaufschlag verschwindet also in irgend einem Komplettsystem.
Ganz nebenbei wäre es gar nicht so schlecht, wenn AMD mal über mehrere Jahre am Stück sich ein wenig Fett fressen kann aka Gewinne einsammelt, um die langfristige Entwicklung abzusichern. Es bringt jedem was, wenn AMD auf lange Sicht mithalten kann und nicht mehr so böse abfällt wie in den letzten Jahrzehnten gesehen. .
Ja, das wird die Begründung sein, die wir nun noch oft von vielen hören werden;D:freak: Ganz dicht gefolgt von: "AMD hat es auch mal verdient, sich am Kuchen zu laben"... Ach ne, hää? Das ist ja das selbe...ups...
w0mbat
2021-03-30, 22:57:55
Hätte, hätte, Fahradkette. Bei einem "normalen" Verlauf wie bei vorherigen ZEn Launches, wären die Straßenpreise für einen 5600X mittlerweile bei rund 260-270 Euro, beim 5800X bei rund 400-420 Euro, beim 5900X bei rund 520-530 Euro und beim 5950X bei rund 730-750 Euro.
Den 5800X gabs gestern für 389€ im Mindstar.
Badesalz
2021-03-30, 23:04:57
Das ist mal eine echte Überraschung. Das RKL nicht der ganz große Wurf sein würde war ja absehbar. Aber wenn man sich die ganzen Tests anguckt, sieht das ja echt übel aus.Wie ich das manchmal hasse (ehrlich) immer Recht zu behalten...
Aber wie ich schon vor längeren Zeit sagte. Man kann sich jetzt an Intel anschauen was CPU-Entwicklung wäre, wenn es nicht auf Schritt und Tritt der technischen Entwicklung bei ASML folgen würde :usweet:
@Platos
Wann waren die Preise bei Intel nicht beschissen, als AMD Gen für Gen nur Scheinkonkurrenz war?
Wow, wenn man sich Intels Stromverbräuche anguckt: Das ist Intels Centurion ;D.
Ich hab ja damit gerechnet, dass der 11900k wenigstens über dem 5800X landet, aber sobald man Powerlimits reinhaut, wie es korrekt betrieben wäre, ist direkt Essig.
w0mbat
2021-03-31, 00:49:55
mxiuvQPL_qs
maximus_hertus
2021-03-31, 00:53:45
Sehe ich anders. Das ist eher nach dem Motto: "Ich nehme es hin".
Daran ist rein gar nichts nicht mies. Die Preise bei Zen 3 sind beschissen (und auch deine angenommenen sind das). Dank Intel bleibt das vorerst so.
Naja, es ärgert nunmal umso mehr, da man ein kurzes flaues Lüftchen gesehen hat (2017-2019) und jetzt gehts mit dem P/L Fortschritt wieder bergab bzw. der Fortschritt bleibt aus/ ist sogar noch Rückläufig momentan.
Und die Verkaufszahlen wiederspiegeln doch überhaupt nichts. Die entstehen zu 99% durch Leute, die den Markt nicht kennen. Vor allem kaufen die wenigsten Hardware einzeln, der Preisaufschlag verschwindet also in irgend einem Komplettsystem.
Ja, das wird die Begründung sein, die wir nun noch oft von vielen hören werden;D:freak: Ganz dicht gefolgt von: "AMD hat es auch mal verdient, sich am Kuchen zu laben"... Ach ne, hää? Das ist ja das selbe...ups...
Was wären denn "gute" Preise (deiner Meinung nach)?
Momentan ist ja sowieso alles "kaputt" (Hardwaremarkt), von daher ist es eh nur Theorie. Ohne GPU Markt spielt es eh kaum eine Rolle und ob 11600K, 11900K oder Ryzen 5000 - am Ende limitiert zu 99% die GPU, die man aber ja nicht kaufen kann ;)
Am Ende ist es sowieso völlig egal, welche UVP Preise AMD aufrufen würde - die können die Nachfrage eh nicht komplett bedienen.
Ich erinnere mich noch zum bzw. nach dem Skylake Launch. Den i7-6700K haben wir für sehr viele Wochen für 700+ Euro verkauft, weil die Nachfrage viel größer war, als das was lieferbar war.
Erst als es über 800 Euro ging, ging abrupt die Nachfrage zurück, 700-750 Euro war damals die Schmerzgrenze. UVP war grob die Hälfte.
Hätte AMD folgende UVPs zum Ryzen 5000 genant: 5600X - 249 USD, 5800X 399 USD, 5900X 499 USD, 5950X 699 USD, also die exakt gleichen wie bei Ryzen 3000, hätte das für Monate 0 Auswirkungen auf den realen Straßenpreis bzw. nach einer gewissen Zeit minimale Auswirkungen.
AMD hätte deutlich weniger verdient und die Scalper hätten mehr in der Tasche. Das würde uns Gamern doch nichts bringen?
Interessant wird es erst, sobald es wieder einen normalen Markt mit normaler Verfügbarkeit gibt. Dann wird es interessant, welche UVP Preise aufgerufen werden. Also wohl erst irgendwann 2022, Richtung Zen 4 Launch.
dildo4u
2021-03-31, 02:27:11
Einige Games können 160 Watt ziehen aber immerhin scheint er stabil bei 5.3 GHz.
vTZcs3Yv5jY
y33H@
2021-03-31, 07:52:18
Ich hab sogar 185W in Total War Troy.
Mega-Zord
2021-03-31, 08:28:27
Das erinnert mich ein wenig an den Launch des Pentium IV. Warum zur Hölle verkaufen die diese CPU? Ein später Erscheinendes Wunder-BIOS wäre eher nicht so Intel-like und es bleibt zu befürchten, dass das einfach so ist. Da braucht AMD auch keinerlei Energie in ein Zen3+ stecken. Die können ihre CPUs einfach weiter verkaufen.
Ach du Alarm, Rocket ist ja versoffener als Onkel Herbert auf der Weihnachtsfeier.
Opprobrium
2021-03-31, 08:57:51
Warum zur Hölle verkaufen die diese CPU? Ein später Erscheinendes Wunder-BIOS wäre eher nicht so Intel-like und es bleibt zu befürchten, dass das einfach so ist.
Sie wissen halt, daß es reichlich Abnehmer geben wird. OEMs, DAUs, Leute die aus Prinzip Intel (bzw. kein AMD) wollen, Leute die auf ein Wunder-BIOS hoffen. Leute die einfach einen kleinen sorglos-PC für den Alltag haben wollen. Nicht jeder kauft sich die Top Modelle und reizt die den ganzen Tag bis zum Limit aus ;)
Oder einfach Leute die mangels Verfügbarkeit keinen AMD bekommen.
Da braucht AMD auch keinerlei Energie in ein Zen3+ stecken. Die können ihre CPUs einfach weiter verkaufen.
Ja, das hat sich Intel vor 10 Jahren auch gedacht. Das Ergebnis sehen wir gerade ;)
Loeschzwerg
2021-03-31, 09:01:16
Also ich finde den kleinen 11400 ja gar nicht so doof :) CPU + 90€ für ein Board... keine schlechte Option.
dildo4u
2021-03-31, 09:10:56
11600k peakt hier bei 90 Watt in Cyberpunk alles im Rahmen Performance ist ok, AMD ist alleine eh nicht in der Lage genug CPUs zu liefern, der 5600X ist immer noch über der Preisempfehlung von AMD.
https://youtu.be/Xgt3j-rxFeA?t=59
Badesalz
2021-03-31, 09:29:27
Sie wissen halt, daß es reichlich Abnehmer geben wird. OEMs, DAUs, Leute die aus Prinzip Intel (bzw. kein AMD) wollenJa. Die brauchen aber keinen 11000er. Da reicht der 10000er auch völlig und ganz.
Lowkey
2021-03-31, 09:38:44
Der Grund für Rocketlake waren bestimmt die Mainboardhersteller. Intel sagte vor Jahren, dass sie so oft es geht und mindestens einmal im Jahr einen Refresh anbieten müssen, da die Kunden mehr Geld für neuste Hardware ausgeben wollen und dafür schon ein neuer Name reichen würde. Zweitens muss Intel mit AMD Features gleichziehen, was wohl auf PCI-E 4.0 zutrifft.
Insgesamt ist RKL weniger ein Fortschritt, sondern mehr ein Sidegrade. Bei der aktuellen Marktlage ist ein genaue Einordnung in ein paar Wochen wieder anders. Zum einen fallen Bugs weg, zum anderen schwanken die Preise stark. Wer kauft heute eine F CPU, wenn Grafikkarten auf ein Jahr nicht lieferbar sein sollen?
Wenn man sich die Benchmarks anschaut, dann ist RKL mal stark und mal schwach. Eben ein Sidegrade. Es ist keine Wunder CPU. Der Erfolg sinkt und steigt mit der Verfügbarkeit von günstigen CPUs und Mainboards. Wie im Vorfeld bekannt hat Intel mit der 10000er Serie das untere Feld besser besetzt und setzt es mit der 11000er Serie fort. Man kann in der Tat, wie hier angesprochen, von umgekehrten Rollen sprechen: Intel ist heiß, schlechtes P/L, OC ab Werk am Limit, Memory OC Rückschritt, Intel mit sehr hohem Stromverbrauch und besserer Lieferbarkeit als AMD.
Was kommt sind sicherlich noch 10 Bios Updates und bis zur Veröffentlichung von Alderlake ist die Plattform dann ausgereift. Bei Anwendungen ist die CPU geschlagen und bei Games durch Gear 1 und Stromverbrauch am Limit. Bis zur Zen3 Veröffentlichung hat Intel die Plattform als Gaming-Plattform Nummer 1 beworben. Und nun ist sie weder Fisch noch Fleisch. Die direkte Entscheidungsfrage lautet fast nur noch: 10x00 oder 11x00. Was ist günstiger? Und sollte man nicht doch mit iGPU kaufen?
PS: ich frage mich gerade, ob nun für die Plattform der Run auf Speicher losgeht, der mit CL12 bei 2933-3200 laufen wird?
ggü. dem 10900k ist er ein Downgrade, das ist das Problem. 11700k und 11600k sind ja ok, aber 2 Kerne weniger sind einfach ein Problem.
X-Bow
2021-03-31, 09:59:59
Warum sollte genau RKL da rausfallen? Wenn CPU A schneller als CPU B ist, so ist sie das auch im "Overheadlimit" mit einer NV Karte unter DX12. Wüsste nicht wieso da RKL anders sein sollte.
Weil es nicht ausgeschlossen werden kann. Wenn dem wirklich so wäre das eine CPU A immer scheller als CPU B ist egal ob fremde Einflüsse limitieren, dann kann man 720p Test auch gleich bleiben lassen.
Mega-Zord
2021-03-31, 10:25:09
Wie genau funktioniert das jetzt mit dem Gear 1 und 2? Wenn ich schnelleren RAM einbaue, also über 3200 bzw. 2933, dann wird das System langsamer? Das kann AMD doch auch schon länger. ;D
y33H@
2021-03-31, 10:34:26
Bis 3600 oder 3733 tut Gear1, darüber steigt der IMC aus.
Mega-Zord
2021-03-31, 10:52:13
Bis 3600 oder 3733 tut Gear1, darüber steigt der IMC aus.
Aber nur der 11900k oder?
Mich würde ja mal interessieren, wie groß der Vorteil im realen Leben gegenüber meinem 9900k ist. Ich kann ja die PCGH verstehen, wenn die sich beim RAM-Takt an die Intel-Vorgaben halten. Aber mich würde interessieren, wie viel von den ca. 20%-Vorteil durch den RAM zustande kommt. Die benchen den 9900k halt mit 2666, was fern ab jeder Realität ist.
Es mag ja den User geben, der einen Dell-Rechner mit Soße und scharf kauft und sich nicht für die Komponenten interessiert. Aber so ziemlich jeder, der sich die CPU im Retail-Markt kauft, dürfte "Overclock"-RAM kaufen. Dank XMP ist da ja auch überhaupt nichts mehr bei.
Virtual
2021-03-31, 11:13:46
Einige Games können 160 Watt ziehen aber immerhin scheint er stabil bei 5.3 GHz.
https://youtu.be/vTZcs3Yv5jY
Wie auch immer man die Aussagekraft dieses Vergleichs bewerten möchte, aber die Angabe der Taktfrequenz ist selbst gemittelt nur auf Marketing-Niveau. Wir sehen hier die offiziellen Spezifikationen und auch nicht einen Deut mehr.
aufkrawall
2021-03-31, 11:21:19
Der 11600K ließ sich bei HU nur auf 4,9GHz Allcore übertakten, also selbst bei der Taktbarkeit offenbar eher ein Rückschritt...
Badesalz
2021-03-31, 11:28:03
Die benchen den 9900k halt mit 2666, was fern ab jeder Realität ist.Man muss da auch Verständnis zeigen. Würdest du riskieren ins Misskredit zu fallen und keine Samples mehr bekommen, sprich, bestenfalls erst 1 Woche nach dem realen Marktstart mit dem Test einer Intel-CPU anzufangen? Wenn das SO in den NDAs steht, dann ist das halt so. Oder hat das wer auch anders getestet, der die Samples von Intel bekam?
Ich wüsste sonst nicht warum man das Parkour nicht nochmal wenigstens mit 3200/16 AFR durchfährt. Es muss ja nicht gleich 3600/16 sein, wo man sich noch mit seltener Exklusivität herausreden kann...
Im Bezug darauf, für wen genau sie da solche Sachen testen, das weiß ich eh nie so genau. Also, für welche "Community". Wenn man bei denen in das halt einzige (?) Forum geht, befindet man sich in etwas mit dem Namen "PCGHX". Das kommt wohl von eXoten. Die haben wohl nur ein Forum für Exoten, mit 4000er Riegeln und für die sind die Tests daher sowieso nicht gedacht. Oder sowas in der Art halt.
Hotstepper
2021-03-31, 11:44:08
Bleibt die Frage, warum nur PCGH solche Vorteile misst? Haben alle anderen Fehler gemacht oder doch was wahrscheinlicher ist PCGH?
Gute Frage! Igorlabs hat einen relativ interessanten Punkt zum Driver Overhead der Nvidia Karten genannt, die in niedrigen Auflösungen total rumzicken.
Beispielsweise fällt dann die 3080 hinter die 5700XT zurück und zwar deutlich. Er hat deswegen mit der 6900XT gemessen, was sinn macht.
Eventuell verhält sich der Treiberoverhead ja nicht linear auf verschiedenen Architekturen.
aufkrawall
2021-03-31, 12:01:31
Eventuell verhält sich der Treiberoverhead ja nicht linear auf verschiedenen Architekturen.
Das ist schon möglich. Auch nur bei PCGH war Vulkan mit AMD-GPU im Overhead-Test mit der krüppeligen 2+2 CPU etwas langsamer als NV, während es in bislang jedem anderen Test defakto umgekehrt ist.
Badesalz
2021-03-31, 12:13:02
@aufkrawall
Bezeugt doch nur die sehr hohe Kompetenz, wenn so spezielles Wissen vorhanden ist und man dementsprechend die Testsysteme zusammenstellt.
Wie ich oben schon andeutete. Die Kompetenz zielgerecht zu testen ist bei PCGH eine der besten auf dem Markt.
aufkrawall
2021-03-31, 12:16:06
Da widerspreche ich in dem Fall, denn ein 2+2 Ryzen ist nun wirklich nur eine Abart-CPU für Gaming. Kein Mensch auf der Welt betreibt eine GPU der Leistungsklasse 5700 XT oder aufwärts damit. Wenigstens einen 2600(X) hätte man nehmen können.
Edit: Kann sein, dass du heute morgen mal wieder arg viel Ironie gefrühstückt hast? :D
dildo4u
2021-03-31, 12:18:21
Könnte der NV Treiber hier Intel Ärgern?
Er hat den 10 Core vorne.
_jVAfk4AG3A
Linmoum
2021-03-31, 12:36:44
Igor hat noch etwas zu NV vs. AMD bei CPU-Reviews geschrieben:
Wenn man sich z.B. die Werte bei PCGH mal genauer anschaut und es bei Watchdogs in 720p zwischen den 8 relevanten CPUs nur 9 FPS Differenz gibt, also maximal um die 10%, dann ist da was oberfaul. Zwischen 3 der SKUs liegen da nicht mal 2% und man ist hier mit den drei Probanden bereits im deutlich Fehlerbereich. Eine Grafikkarte, die nicht im eigenen Treibermüll erstickt, schafft da 25 FPS Differenz zwischen allen 8 und ist auch bei den Absolutwerten um Längen schneller. Da liegt jede SKU sauber im Trend. Von den Varianzen mal ganz zu schweigen. Ich habe vorher beides getestet, auch die 3090. Hätte ich die genommen, wäre mein Review genauso verkorkst geworden, wie so manch anderes. Aber warum sollte ich meine Leser in die Irre führen?
Ich habe mal eben die Logfiles verglichen, um die Unterschiede zu veranschaulichen. Und jetzt nehme ich nur mal den Ryzen 9 5900X, um nicht wieder in Intel vs. AMD abzugleiten. In WQHD sind die RX 6900XT und die RTX 3090 in etwa gleich schnell, aber...
Eine MSI RTX 3090 SUPRIM schafft in SotTR in 720P mit dem Teil 211,2 FPS, die RX 6900XT satte 222,5. In BL3 sind es sogar brutale 244.7 FPS statt der 201.2 FPS mit der NV-Karte. Kinder, das sind 22 Prozentpunkte mehr, also fast ein Viertel! Je größer die FPS-Unterschiede zwischen den SKUs werden, weil eben die Grafikkarte samt Treiber NICHT so limitiert, um so sicherer kann man auch über die Differenzen zwischen den einzelnen SKUs urteilen. Ich würde einfach darum bitten, mal darüber nachzudenken.https://www.computerbase.de/forum/threads/core-i9-11900k-und-i5-11600k-im-test-die-14-nm-brechstange.2014315/page-23
Also gut, kann man solche Reviews in 720p mit NV-GPU im Prinzip vollkommen vergessen. Warum man aber nach der zuletzt aufgekommenen Diskussion nicht gleich eine Radeon dafür genommen hat, kann wahrscheinlich nicht einmal PCGH (oder sämtliche andere Reviewer) erklären. Verfälschte Reviews braucht dann auch niemand.
aufkrawall
2021-03-31, 13:00:54
Also gut, kann man solche Reviews in 720p mit NV-GPU im Prinzip vollkommen vergessen. Warum man aber nach der zuletzt aufgekommenen Diskussion nicht gleich eine Radeon dafür genommen hat, kann wahrscheinlich nicht einmal PCGH (oder sämtliche andere Reviewer) erklären. Verfälschte Reviews braucht dann auch niemand.
NV-Nutzern wird das mitunter nicht gefallen, aber defakto stimmt es: Die Leistungsfähigkeit der CPUs wird bei D3D12 durch den NV-Treiber gehemmt.
Man sollte also wirklich idealerweise D3D11 mit NV testen, D3D12 mit AMD, und bei Vulkan ist es bei zumindest potenten CPUs offenbar egal (wobei RDNA2 für 720p-Tests natürlich Auslastungsvorteile hat).
Da D3D11 zunehmend unwichtiger wird, wäre für CPU-Tests entsprechend nur eine AMD-GPU natürlich vorteilhafter als nur eine NV-GPU.
w0mbat
2021-03-31, 13:11:16
Ich könnte auch nebenher Prime95 auf 10C/20T laufen lassen und im Ergebniss wäre dann der 5950X die einzige CPU, mit der man noch Spielen kann. Wär halt falsch, aber in dem geschlossenen Test korrekt.
Und ob Prime95 die Leistung zieht oder der Nvidia-Treiber ist egal.
Rabiata
2021-03-31, 13:17:50
Und? Rechne das doch mal aus.
CPU FPS W FPS/W GPU only W CPU only W CPU FPS/W
5600 103,8 396,4 0,2618567104 337,1 59,3 1,750421585
5800 106 413 0,2566585956 343,1 69,9 1,516452074
10900 108,4 417,1 0,2598897147 332 85,1 1,273795535
11600 104,1 429,7 0,2422620433 344,1 85,6 1,216121495
5900 106,8 434,2 0,2459695993 331,8 102,4 1,04296875
5950 105,8 440,2 0,2403452976 337,1 103,1 1,026188167
11700 108 450,8 0,2395740905 343 107,8 1,001855288
11900 108 455,9 0,2368940557 342,6 113,3 0,9532215357
Ist zudem eh DX11.
Ist auch alles recht nahe beieinander. Da sind bei den FPS/W gerade mal 10% Unterschied zwischen bestem und schlechtestem System.
Wenn das repräsentativ ist, würde ich eher nach dem Preis und anderen Eigenschaften kaufen. Wie ausgreift ist die Plattform, werden andere Features unterstützt die mir wichtig sind (ECC RAM usw.)?
y33H@
2021-03-31, 13:39:31
Warum man aber nach der zuletzt aufgekommenen Diskussion nicht gleich eine Radeon dafür genommen hat, kann wahrscheinlich nicht einmal PCGH (oder sämtliche andere Reviewer) erklären.Die übliche Antwort: Es fehlt idR an der Zeit, dass alles (zeitnah) zu messen :(
Linmoum
2021-03-31, 13:44:43
Das war auch kein Vorwurf an dich, du bist halt komplett alleine und musst alles benchen, auswerten, gegenprüfen.
Es ist natürlich grundsätzlich auch mit mehreren Personen zusätzlicher Zeitaufwand. Aber ein CPU-Review zu veröffentlichen, mit dem Wissen, dass die maximale Leistungsfähigkeit der CPU schlicht nicht gezeigt wird, ist irgendwie meh. Gerade am Beispiel PCGH, die hatten vorher ja den gesamten Parcours schon mit 3090 und 6900XT durchgebencht und festgestellt, dass NV in DX12 mess- und spürbar schlechter performt (und fast die Hälfte des Parcours sind DX12-Titel). Den Aufwand hätte man z.B. eher dann jetzt beim RKL-Review mit einfließen lassen können.
Tarkin
2021-03-31, 13:51:33
Könnte der NV Treiber hier Intel Ärgern?
Er hat den 10 Core vorne.
https://youtu.be/_jVAfk4AG3A
finde ich lustig, vor allem da HWUB erst noch groß Wind bzgl. nVidia Treiber gemacht hat - und dann testet man die CPUs wieder mir einer 3090 - Idioten, echt :rolleyes:
X-Bow
2021-03-31, 14:09:14
Eigentlich zeigt die ganze Chose doch nur das man keinen Deut auf die Aussagekraft der Reviews geben kann da zu viele Einflüsse wie Gewohnheit, Zeitmangel, Testumfang etc. die Messergebnisse beeinflussen. Die Medienreviews zum Launch dienen doch eigentlich nur den Reviewern für Klicks (was nicht negativ gemeint ist denn das ist letztlich Ihr Job) und der Hardwarefirma ansich zwecks Werbung.
Benchmarks aus PCGH und Co. sind letztlich nichts anderes als die 0-100 Km/h aus der Autobild.
maximus_hertus
2021-03-31, 15:13:25
finde ich lustig, vor allem da HWUB erst noch groß Wind bzgl. nVidia Treiber gemacht hat - und dann testet man die CPUs wieder mir einer 3090 - Idioten, echt :rolleyes:
Idioten? Das ist ziemlich harsch.
Die Begründung von "denen": man hat halt schon eine Menge Bwenchmarks mit der RTX gemacht und hat so eine "Vergleichbarkeit". Zusätzlich wird man in den nächsten Tagen und Wochen weitere CPU / GPU Kombis testen, um einen umfassenderen Einblick zu bekommen.
Am Ende ist das sicherlich kein verkehrter Weg (für die aktuelle Situation, in dem man sich befand). Die Frage ist nur, wie das, mit dem (neuen) Wissen, in Zukunft gehandhabt wird, also bei Alder Lake und Warhol.
Da gilt das Argument "Zeit" dann nur noch bedingt.
Complicated
2021-03-31, 15:17:39
Also gut, kann man solche Reviews in 720p mit NV-GPU im Prinzip vollkommen vergessen. Warum man aber nach der zuletzt aufgekommenen Diskussion nicht gleich eine Radeon dafür genommen hat, kann wahrscheinlich nicht einmal PCGH (oder sämtliche andere Reviewer) erklären. Verfälschte Reviews braucht dann auch niemand.Das Thema wird wieder einmal nur zur Hälfte analysiert.
Wer sagt denn, dass die AMD GPU sich nicht ebenfalls einen Teil der CPU-Performance nimmt in 720p? Nur weil jetzt die GPU-Treiber-Bremse zwischen Nvidia und AMD in DX12 deutlich meßbar ist, bedeute es nicht, dass diese Bremse auf AMD nicht existiert. Sie ist mit hoher Wahrscheinlichkeit einfach nur kleiner, jedoch durchaus existent. Die Low-Res-Tests sind einfach unsinnig ganz allgemein. Mit dGPU kann man keinen CPU-Test mit Spielen machen. Alles Unsinn was da in Balken dargestellt wird. Und das bei der ständigen Zeit-Jammerei, wird diese in diesen Unsinn verplempert.
Linmoum
2021-03-31, 15:26:17
Ich fange diese nervtötende 720p-Diskussion nicht schon wieder an. Traurig genug, dass das selbst heute noch ernsthaft hinterfragt wird, obwohl zwischenzeitlich jeder kapiert haben sollte, dass Low-Res-Tests das einzig richtige Mittel für CPU-Reviews sind.
maximus_hertus
2021-03-31, 15:27:37
Das Thema wird wieder einmal nur zur Hälfte analysiert.
Wer sagt denn, dass die AMD GPU sich nicht ebenfalls einen Teil der CPU-Performance nimmt in 720p? Nur weil jetzt die GPU-Treiber-Bremse zwischen Nvidia und AMD in DX12 deutlich meßbar ist, bedeute es nicht, dass diese Bremse auf AMD nicht existiert. Sie ist mit hoher Wahrscheinlichkeit einfach nur kleiner, jedoch durchaus existent. Die Low-Res-Tests sind einfach unsinnig ganz allgemein. Mit dGPU kann man keinen CPU-Test mit Spielen machen. Alles Unsinn was da in Balken dargestellt wird. Und das bei der ständigen Zeit-Jammerei, wird diese in diesen Unsinn verplempert.
Was wäre daher dein Vorschlag? Einfach schreiben: Bulldozer Lake, sorry Rocket Lake ist ganz neu und damit besonders gut fürs Gaming geeeignet?
Klar gibt es bei dGPU imer eine "Bremse", man sollte nur versuchen, diese so gering wie möglich zu halten. Man nimmt einfach das, was am wenigsten Einfluss auf das Ergebnis hat.
Badesalz
2021-03-31, 16:11:02
Edit: Kann sein, dass du heute morgen mal wieder arg viel Ironie gefrühstückt hast? :DVolle Punktzahl :up: Wobei das war schon eher Sarkasmus. Das geht manchmal auch echt nicht anders -> Ich stehe leider oft selbst unter Zeitdruck und kann mir hier im Forum leider genauso oft wieder einmal auch nur die eine Seite der Medalie anschauen. Das ist übrigens auch oft meine "übliche Antwort". Ich hab hier nicht die Zeit für alles, Leute. Ich muss auch mal arbeiten und das ist nicht in irgendeiner Testredaktion...
Trotz allem aber halt noch ganz kurz mein Bier bitte. Die Zeit möchte ich mir heute noch nehmen:
Das Thema wird wieder einmal nur zur Hälfte analysiert.
Wer sagt denn, dass die AMD GPU sich nicht ebenfalls einen Teil der CPU-Performance nimmt in 720p? Nur weil jetzt die GPU-Treiber-Bremse zwischen Nvidia und AMD in DX12 deutlich meßbar ist, bedeute es nicht, dass diese Bremse auf AMD nicht existiert. Sie ist mit hoher Wahrscheinlichkeit einfach nur kleiner, jedoch durchaus existent.
Der Junge hat wirklich Recht. Bitte nochmal ganz genau lesen und verstehen was drin steht. Das ist alles richtig. Das kann jeder auch selbst gut direkt mit einem worst case nachprüfen. Der Testaufbau dazu: Wenn man die CPU rausnimmt, fallen die FPS direkt auf NULL :eek:
Es ist also 100% richtig, daß auch der GPU-Trieber von AMD sich "ebenfalls einen Teil der CPU-Performance nimmt". Den Umkehrschluss hat er zwar nicht mehr ausgearbeitet (wahrscheinlich auch wegen "übliche Antwort"), aber der ergibt sich draus eh automatisch. Ich hab grad noch so, die Zeit dafür. Dies bedeutet also:
Es ist deutlich meßbar, daß die "GPU-Treiber-Bremse" auf AMDs Seite deutlich weniger beträgt. Die Deutlichkeit ist hier erdrückend deutlich.
Das ist doch der Hammer oder?? Ich verfolge das Thema aktuell und das war mir SO deutlich noch nie klar. Ich dachte die ganze Zeit... ja was hab ich mir da nur gedacht :usad: Anscheinend aber verursacht ein AMD-Treiber, neben dem Spiel, auch selbst CPU-Last!
Ich bin ehrlich gesagt immernoch schockiert wie blauäugig ich bisher war.
y33H@
2021-03-31, 17:02:37
LOL :ulol:
robbitop
2021-03-31, 17:11:25
Was hab ich gelacht. :D
Complicated
2021-03-31, 17:27:37
Ja die Argumente bleiben auch immer die selben: Was sollen wir denn sonst messen?
Dämlicher kann man einen Testaufbau ja wohl kaum verteidigen/begründen.
Testet doch was ihr wollt, doch führt die Leute nicht in die Irre. Es wird das Spiel mit genau der Hardware des Testsystems getestet, mit den zugehörigen Treibern. Nicht die CPU. Schreibt einfach nicht CPU-Test drüber wenn Ihr Spiele einsetzt - die kann man damit nicht sinnvoll testen.
Hier werden 2 CPU-Hersteller miteinander verglichen, deren Werte abhängig von der verbauten GPU+Treiber differieren, auch je nach DX11 oder DX12 mehr oder weniger - wer das noch immer CPU-Test nennt, der schreibt einfach die Unwahrheit über den Testartikel. Vor allem diejenigen, die nur einen GPU-Hersteller verwendet hab.
Badesalz wohl hat auch kein Problem damit Server-CPUs zu testen und dafür Schreibzugriffe über das Netzwerk zu verwenden. Und die dann im "Netzwerklimit" mit schönen Balken auszustatten - Anstatt da Netzwerk-Test drüber zu schreiben, schreiben wir da auch CPU-Test drüber.
Es ist deutlich meßbar, daß die "GPU-Treiber-Bremse" auf AMDs Seite deutlich weniger beträgt. Die Deutlichkeit ist hier erdrückend deutlich.
Weniger? Du meist da mißt man das Delta zwischen NV und AMD? Und wie kommt da eine Kennzahl die bestimmen kann ob die CPU limitiert?
Nur weil jetzt die GPU-Treiber-Bremse zwischen Nvidia und AMD in DX12 deutlich meßbar ist, bedeute es nicht, dass diese Bremse auf AMD nicht existiert.
Weniger? Du meinst also da ist immer noch ein Einfluß vorhanden, doch den ignorieren wir und behaupten die CPU limitiert? Dafür, dass du meinen Beitrag nicht verstanden hast und dein mangelndes Leseverständnis hier demonstrierst packst doch etwas zu viel Sarkasmus aus. Es scheinen dir die sinnvollen Argumente zu fehlen. Warum äußerst du dich dann überhaupt dazu?
@y33H
Ja, dein Humor, ich weiß. Macht deine Tests nur kein bißchen valider. Bunte Balken produzieren ohne sinnvollen Inhalt scheint so manchen als Lebensaufgabe völlig erfüllend zu sein.
@Linmoum
Sorry wenn du in einem technischen Forum eine technische Diskussionen führen mußt. Wie wäre es mit einem anderen Hobby? Wie nervend dein Kommentar ist, scheint bei deinen Überlegungen ja ebenfalls keine Rolle zu spielen, vor dem tippen.
Ich dachte die ganze Zeit, wie wohl die meisten hier auch, daß alles was der Treiber erledigt, er auf der GPU erledigt. Der macht aber anscheinend, neben dem Spiel, auch selbst CPU-Last!Gähn, anscheinend hast du da falsch gedacht.
Aktueller Geforce-Treiber verursacht teils hohe CPU-Last - Update: Nvidia bringt Hotfix (https://www.gamestar.de/artikel/aktueller-geforce-treiber-sorgt-fuer-hohe-cpu-auslastung-nutzer-finden-workaround,3343411.html)
Bei manchen kommt das halt nicht an - lustig, nicht wahr?
Oder,
https://www.pcgameshardware.de/AMD-Catalyst-Crimson-Grafikkarte-255517/News/DirectX-11-Treiber-Draw-Calls-Verbesserung-1158379/
In CPU-limitierten Szenarien steigt die Performance mit dem modifizierten Treiber schnell um 20 Prozent, wohlgemerkt bei ansonsten gleichen Testbedingungen. Am ehesten sei der Unterschied bei Verwendung von vier oder mehr Kernen zu spüren. Neben der gestiegenen Framerate zeigen die Tests aber vor allem eines: Die Frametimes werden durch den Mod-Treiber deutlich glatter und das Spielgefühl damit spürbar flüssiger. Das soll an der gestiegenen Draw-Call-Rate liegen, welche die CPU an die GPU(s) senden kann und bei AMD bislang niedriger ausfiel als bei Nvidia.
y33H@
2021-03-31, 17:48:11
Ich habe erneut gelacht :ulol:
Platos
2021-03-31, 18:02:50
Was wären denn "gute" Preise (deiner Meinung nach)?
Momentan ist ja sowieso alles "kaputt" (Hardwaremarkt), von daher ist es eh nur Theorie. Ohne GPU Markt spielt es eh kaum eine Rolle und ob 11600K, 11900K oder Ryzen 5000 - am Ende limitiert zu 99% die GPU, die man aber ja nicht kaufen kann ;)
Am Ende ist es sowieso völlig egal, welche UVP Preise AMD aufrufen würde - die können die Nachfrage eh nicht komplett bedienen.
Für den besten 8 Kerner wäre maximal 349$ ein akzeptabler Preis. Jetzt mal abgesehen von irgendwelchen Sonder-für-Deppen-Serien wie damals der 3800XT bei AMD oder jetzt der 11900K. Und für den besten 6 Kerner maximal 249$.
Nur so als Erinnerung: der 2700X hatte einen Listenpreis von 329$ und der 2600X 229$. Ich bin also quasi noch "grosszügig". Zen 2 hatte bei manchen Modellen schon eine Preiserhöhung und Zen 3 dann bekanntlich eine deutliche Preiserhöhung. Und als weitere Beispiele: Der 10700KF hatte einen Listenpreis von 349$ und der 10600KF 237$.
Und die UVP Preise sind immer interessant. Steigen sie, ist es sehr wahrscheinlich, dass sie auch in Zukunft so bleiben (oder gar dazu verleiten, die Listenpeise noch weiter zu steigern), wenn die Strassenpreise sich wieder "normalisieren". Steigen sie aber nicht, ist die wahrscheinlichkeit eher höher, dass sich die Preise wieder an den Listenpreis anpassen. Also natürlich sind auch die Listenpreisen in diesen Zeiten sehr wohl wichtig.
Edit: Und noch so als kleine Randbemerkung: Es gab schon 2014 einen 6-Kerner mit HT für 389$. 2017 brachte Intel den 8700K für 359$. Und AMD bringt 6 Jahre später (bzw. 3) 6-Kerner für gerade mal 90$ (bzw. 59$) weniger. Das nenne ich mal Fortschritt. Natürlich ist die IPC gestiegen, aber wäre ja auch lächerlich, wenn nicht.
Aber es ist halt immer das Selbe. "Die Leute" sind anscheinend (?) nicht fähig, in die Vergangenheit zu schauen. Preiserhöhungen kratzen auch niemand, wenn sie von AMD kommen und Intel steigert sogar in der jetzigen Situation mit Rocket Lake die Preise leicht. Die Leute machen es mit...
OpenVMSwartoll
2021-03-31, 18:19:34
Ja die Argumente bleiben auch immer die selben: Was sollen wir denn sonst messen?
[... Viel Text mit Rundumschlägen]
Also bitte ohne Grafikkarte testen...
Complicated
2021-03-31, 18:28:06
Wenn ich CPU-Test drüber schreibe brauche ich eine Grafikkarte?
Was stimmt mit SPEC nicht als Benchmark? Die Klickzahlen wie es ausschaut....
Ich habe erneut gelacht
Du darfst über alles lachen, was du willst. Nur sagt es mehr über dein mangelndes Verständnis aus, als über meinen Beitrag. Man muss ja heutzutage als Tester nicht mehr als seriös/technisch bewandert gelten, um die gewünschten Klicks zu bekommen.
Badesalz
2021-03-31, 18:32:43
Ich habe erneut gelacht :ulol:Wenigstens ging das bei dir. Meine Birne hat für zig Sekunden einen Tilt erlitten :usad:
OpenVMSwartoll
2021-03-31, 18:44:16
Wenigstens ging das bei dir. Meine Birne hat für zig Sekunden einen Tilt erlitten :usad:
Keine Sorge, meine Tischplatte hat ne Delle...
MiamiNice
2021-03-31, 19:03:04
Hat den 11900k eigentlich mal jemand mit 4400er+ Ram gebencht und versucht die Nachteile von Gear 2 durch Takt zu negieren?
Falls net, kann das mal wer machen?!?
Complicated
2021-03-31, 19:26:36
Wenigstens ging das bei dir. Meine Birne hat für zig Sekunden einen Tilt erlitten :usad:
Das ist gut zu sehen bei deinem Beitrag - Gute Besserung, falls noch möglich.
Lowkey
2021-03-31, 19:30:24
Hat den 11900k eigentlich mal jemand mit 4400er+ Ram gebencht und versucht die Nachteile von Gear 2 durch Takt zu negieren?
Falls net, kann das mal wer machen?!?
Dazu ließt man von einigen Usern nur, dass Speicher outofthebox nicht läuft. Die MB-Hersteller müssen die Biose wieder neu anpassen und das könnte dauern.
x-force
2021-03-31, 19:41:41
Hat den 11900k eigentlich mal jemand mit 4400er+ Ram gebencht und versucht die Nachteile von Gear 2 durch Takt zu negieren?
Falls net, kann das mal wer machen?!?
ab ~6000er könnte es vielleicht was werden. mit 4400 läuft der imc noch immer~ 1400mhz(2200vs3600) langsamer als mit ausgereiztem gear1
MiamiNice
2021-03-31, 21:16:58
ab ~6000er könnte es vielleicht was werden. mit 4400 läuft der imc noch immer~ 1400mhz(2200vs3600) langsamer als mit ausgereiztem gear1
Ich glaub Du hast einen Rechen/Denkfehler. Oder ich ;D
Ist da tatsächlich ein 1:2 Teiler drin?!?
Virtual
2021-03-31, 21:34:44
Ich glaub Du hast einen Rechen/Denkfehler. Oder ich ;D
Ist da tatsächlich ein 1:2 Teiler drin?!?
Ja, ist schon drin, aber x-force ignoriert einfach den höheren Speichertakt.
Deine Frage ist schon valide und ab schätzungweise 4400er wird auch Gear2 schneller als Gear1 sein. Kenne ich einen Bench dazu, nein.
SKYNET
2021-04-01, 00:12:14
Bis 3600 oder 3733 tut Gear1, darüber steigt der IMC aus.
AMD:
https://www.youtube.com/watch?v=O79kaGvTD00&t=8s
Badesalz
2021-04-01, 06:50:53
Das mit dem Speicher oberhlab von 3200/14... Kennt jemand ein Video wo das besser herausgearbeitet ist als hier?
https://www.youtube.com/watch?v=SrKFEtAthS0
robbitop
2021-04-01, 08:49:12
Da gibt es leider wenig. Insbesondere wenn es um Subtimings geht, wird es richtig dünn.
Der Effekt des höheren IMC Taktes auf die Senkung der Gesamtmemorylatency (auch im Falle der gleichen eigentlichen Memorylatency - also CL wird proportional zum Gain aus dem Takt gesteigert) ist eindeutig sichtbar. Ähnliche Erfahrungen habe ich auch mit meinem 4790K gemacht und viele kennen es auch von Ryzen. Das gleiche gilt dann unabhängig auch für den Fabric Takt (siehe Ryzen und Skylake-X).
Fetza
2021-04-01, 09:28:29
Wann können wir eigentlich mit finalen Tests zu dem i5-11400F und i7-11700F rechnen? Mich würde sehr interessieren, wie sich die CPUs mit ihrem jeweiligen All-Core-Bost zeigen. Der i5 hat ja 4,2 und der i7 4,4 GHz. Das sollte doch eine Art sweet spot zwischen Leistungsaufnahme und Performance darstellen.
Badesalz
2021-04-01, 09:34:38
Der Effekt des höheren IMC Taktes auf die Senkung der Gesamtmemorylatency […]Das ist mir schon klar. Ich spiel doch selbst immer damit ;)
Wenn ich aber wieder sehe, daß mal wieder die Gesichtswahrung eines Lakes irgendwie gerettet werden soll, mit geheuchelten Interesse nach Apothekerware oberhalb von 3200/14...
Lasst es einfach Jungs :uclap:
dildo4u
2021-04-01, 09:35:13
Wann können wir eigentlich mit finalen Tests zu dem i5-11400F und i7-11700F rechnen? Mich würde sehr interessieren, wie sich die CPUs mit ihrem jeweiligen All-Core-Bost zeigen. Der i5 hat ja 4,2 und der i7 4,4 GHz. Das sollte doch eine Art sweet spot zwischen Leistungsaufnahme und Performance darstellen.
11400f hat hier ca 50 Watt beim zocken.
https://youtu.be/tLW6FJEO93A?t=42
Fetza
2021-04-01, 09:40:38
11400f hat hier ca 50 Watt beim zocken.
https://youtu.be/tLW6FJEO93A?t=42
Jo, den "Test" hatte ich ja vor ein paar Seiten bereits hier verlinkt. Das sieht mir aber fast schon zu gut aus um wahr zu sein - nach all den negativen Testurteilen zu Rocket Lake bisher. Könnte also ein Auslesefehler oder so sein.
Wenn sich diese Werte hingegen bestätigen, dürfte der i7 auch nicht mehr als 70 Watt ziehen und beide CPUs wären damit im Kontext des Energierverbrauchs mMn als gut zu bezeichnen.
dildo4u
2021-04-01, 09:42:35
Warum soll das nicht stimmen 4.2 Ghz sind unter Ryzen Clocks.
Die 65 Watt Intel Modell halten sich an den TDP.
10400 mit und ohne TDP Limit 5 Watt Unterschied.
https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/3/#diagramm-test-leistungsaufnahme-volllast-windows-10-komplettes-system
y33H@
2021-04-01, 09:43:39
i7 und i9 sind viel weiter vom Sweet Spot entfernt, kann schon hinkommen - mein 11400F ist allerdings noch nicht da.
Lowkey
2021-04-01, 09:44:54
Das Mainboard macht den Energieverbrauch aus. Nur wer holt sich das ASRock Z590 PG Velocita für 280 Euro zum 11400f?
VRM 14 virtuelle Phasen (12+2)
MOSFETs CPU 12x 50A
MOSFETs SoC 2x 50A
Es gibt vermutlich bei der 500er Intel Mainboard Generation einen Asrock Bonus. Wäre möglich, dass Asrock + Intel der Geheimtipp wird.
Fetza
2021-04-01, 09:52:48
Warum soll das nicht stimmen 4.2 Ghz sind unter Ryzen Clocks.
Die 65 Watt Intel Modell halten sich an den TDP.
10400 mit und ohne TDP Limit 5 Watt Unterschied.
https://www.computerbase.de/2020-05/intel-core-i5-10400f-test/3/#diagramm-test-leistungsaufnahme-volllast-windows-10-komplettes-system
Ok, dann passt es ja, danke. :)
i7 und i9 sind viel weiter vom Sweet Spot entfernt, kann schon hinkommen - mein 11400F ist allerdings noch nicht da.
Kannst Du das auch schon in Bezug auf den i7 F sagen, bzw. wirst Du ihn noch testen? Temps und Wattzahl würden mich halt sehr interessieren. Der non F boostet ja beispielsweise bereits um 200 MHz höher und wird deswegen bestimmt auch deutlich mehr schlucken, mutmaße ich mal.
Das Mainboard macht den Energieverbrauch aus. Nur wer holt sich das ASRock Z590 PG Velocita für 280 Euro zum 11400f?
VRM 14 virtuelle Phasen (12+2)
MOSFETs CPU 12x 50A
MOSFETs SoC 2x 50A
Es gibt vermutlich bei der 500er Intel Mainboard Generation einen Asrock Bonus. Wäre möglich, dass Asrock + Intel der Geheimtipp wird.
Also ich denke mal niemand, das wäre ja völlige Geldverschwendung. Mich reizt da eher ein H570. Mehr als 120-130 Euro möchte ich für ein Board für eine Budget-CPU eigentlich nicht ausgeben.
dildo4u
2021-04-01, 10:38:52
Die 8 Cores werden 4.7Ghz innerhalb der 125 TDP natürlich nicht halten, diese Tests gab es ja schon.
https://youtu.be/3n0_UcBxnpk?t=314
x-force
2021-04-01, 10:46:09
Ja, ist schon drin, aber x-force ignoriert einfach den höheren Speichertakt.
grundschulmathematik ist nicht gerade deine stärke, oder? :facepalm:
6000/2 ≠ 3600
Fetza
2021-04-01, 10:58:01
Die 8 Cores werden 4.7Ghz innerhalb der 125 TDP natürlich nicht halten, diese Tests gab es ja schon.
https://youtu.be/3n0_UcBxnpk?t=314
Ich weiß jetzt nicht woher Du die 4,7 GHz nimmst, aber der 11700K hat 4,6 und die F-Variante (um die es mir geht) hat derer 4,4 - daher rührt doch mein Interesse.
MiamiNice
2021-04-01, 10:58:28
@x-force: Das ist nicht der Speichertakt, Großer :wink:
dildo4u
2021-04-01, 11:01:52
Ich weiß jetzt nicht woher Du die 4,7 GHz nimmst, aber der 11700K hat 4,6 und die F-Variante (um die es mir geht) hat derer 4,4 - daher rührt doch mein Interesse.
Sieht man doch dropt auf unter 4.2Ghz, die billigeren Varianten werden nicht bessere Chips bekommen die effizienter laufen.
Fetza
2021-04-01, 11:07:11
Sie man doch dropt auf unter 4.2Ghz, die billigeren Varianten werden nicht bessere Chips bekommen die effizienter laufen.
Das stimmt natürlich, ein i7 oder i9 macht wahrscheinlich nur mit Wasserkühlung richtig Sinn. Denke mal ich bleibe doch einfach beim i5 dann.
x-force
2021-04-01, 11:10:57
@x-force: Das ist nicht der Speichertakt, Großer :wink:
was willst du sagen?:confused:
überfordert es euch, daß ich einen zwischenschritt nicht aufgeschrieben habe?
ich bewerte den erhöhten speichertakt(6000 vs 3600) mit einem äquivalent von 600mhz auf dem imc(6000/2 vs 3600)
das verhältnis stimmt ganz sicher nicht, jedoch verstehe ich nicht an welcher stelle der qualitative und nicht der quantitative fehler sein soll
dildo4u
2021-04-01, 11:16:49
Das stimmt natürlich, ein i7 oder i9 macht wahrscheinlich nur mit Wasserkühlung richtig Sinn. Denke mal ich bleibe doch einfach beim i5 dann.
Kommt drauf an wie lange du die CPU nutzen willst wenn die ersten Games die neuen Konsolen als Basis haben wären 8 Kerne sinnvoll.
Ich erwarte dann deutlich mehr CPU Last in Open World Games.
Fetza
2021-04-01, 12:20:23
Kommt drauf an wie lange du die CPU nutzen willst wenn die ersten Games die neuen Konsolen als Basis haben wären 8 Kerne sinnvoll.
Ich erwarte dann deutlich mehr CPU Last in Open World Games.
Bei so günstigen Budget-CPUs geht bei Bedarf auch immer was neues, wenn es sein muss. Für die hundert Euro, die eine gute Wasserkühlung kostet, könnte ich mir sonst auch gleich einen 5800X kaufen.
MiamiNice
2021-04-01, 12:53:09
was willst du sagen?:confused:
überfordert es euch, daß ich einen zwischenschritt nicht aufgeschrieben habe?
ich bewerte den erhöhten speichertakt(6000 vs 3600) mit einem äquivalent von 600mhz auf dem imc(6000/2 vs 3600)
das verhältnis stimmt ganz sicher nicht, jedoch verstehe ich nicht an welcher stelle der qualitative und nicht der quantitative fehler sein soll
4400er läuft real irgendwo bei 500? Mhz, während der 3600er bei írwo um 400? Mhz rangiert.
Oder stehe ich jetzt aufm Schlauch?
maximus_hertus
2021-04-01, 13:04:09
Für den besten 8 Kerner wäre maximal 349$ ein akzeptabler Preis. Jetzt mal abgesehen von irgendwelchen Sonder-für-Deppen-Serien wie damals der 3800XT bei AMD oder jetzt der 11900K. Und für den besten 6 Kerner maximal 249$.
Ich kann das nachvollziehen und bevor es falsch verstanden wird, ich bin überhaupt nicht Glücklich mit der Preisentwicklung bei PC Hardware: Mainboards haben sich teils nahezu verdoppelt (beim Preis), über Grafikkarten brauchen wir aktuell nicht reden und auch bei den CPUs zeigt der Trend nach oben.
Allerdings halte ich die Kernzahl als Metrik für nicht perfekt. Am Ende zählt die Performance, die man am Ende bekommt, egal wie viele Kerne es sind.
x-force
2021-04-01, 13:13:49
4400er läuft real irgendwo bei 500? Mhz, während der 3600er bei írwo um 400? Mhz rangiert.
Oder stehe ich jetzt aufm Schlauch?
ob interner takt, oder effektiver tut doch nichts zur sache und ist korinthenkackerei.
im bios einzustellen und üblich zu nennen ist jedenfalls der effektive.
kern der fragestellung ist, wie viel speicher-takt du brauchst, um imc-takt zu kompensieren.
y33H@
2021-04-01, 13:45:58
Grob DDR4-4400.
MiamiNice
2021-04-01, 13:46:45
Deine grobe Rechnung, 1:2, funktioniert aber nicht da mit dem Speichertakt auch die IO Leistung steigt und die Latenz sinkt. Muss man zumindest mit einbeziehen. Ich hätte da gerne einen Test gesehen - aber scheinbar macht der IMC vorher schon zu.
Kann ich nicht mal auf die Fachpresse schimpfen - blöder Tag XD
Nichts zu sehen, weiter gehen.
aufkrawall
2021-04-01, 13:48:18
Grob DDR4-4400.
Damit zieht dann wohl auch ein günstiger 10900F mit 4.2GHz RAM den 11900K ab. Völlig sinnfreie CPU.
dildo4u
2021-04-01, 14:33:03
Paar OC Werte vom 11900k Package Power geht Richtung 400Watt bei 5.2Ghz.
https://wccftech.com/msi-talks-intel-11th-gen-rocket-lake-desktop-cpu-overclocking-adaptive-boost-technology-gear-modes-power-temperatures/
r3ptil3
2021-04-01, 15:26:09
Ich lese jetzt tagtäglich nur noch von OC-Rekorden der Rocket Lakes: Bin ich der einzige dem das einfach mal gar nicht interessiert, wie man unter total realitätsfremden Gegebenheiten (Flüssigstickstoff...) CPUs übertaktet?
Das ist so dermassen Anno 2004 :freak:
OC generell finde ich bei Rocket Lake total idiotisch, 400Watt nur für die CPU, nochmals 400 wenn man eine RTX 3080/3090 hat... im Frühling schon eine Sauna im Zimmer.
Lowkey
2021-04-01, 15:37:27
Diese Max-OC-Mit-allen-Maßnahmen-OC-Ergebnisse sind in der Tat überflüssig. Irgendwann gibt es für die OCler dann keine Samples, weil die Werbung nicht mehr zieht.
Echte brauchbare OC Ergebnisse gibt es erst in Wochen, wenn der Speicher-PC maximiert wurde. Und haben normalerweise <300w bzw. deutlich <300w.
Was ist schneller? Ein 10900k mit DDR4-4500 oder ein 11900k mit DDR4-? Ich denke der 10900k gewinnt in der Summe, selbst ohne HT.
x-force
2021-04-01, 15:50:16
OC generell finde ich bei Rocket Lake total idiotisch, 400Watt nur für die CPU,
vielleicht sollte man auch gelegentlich sein hirn einschalten und aufhören prime95 zu "spielen":rolleyes:
Schnoesel
2021-04-01, 16:23:54
Man muss nicht Prime spielen um zu erkennen das RKL auch in Games absolut drüber ist. Da muss man nur den tollen Turbo anmachen:
https://i.postimg.cc/ZR1ZSgmm/1111.png
https://i.postimg.cc/CMqSNFCx/33333.png
Völlig Irre für nen 8 Kerner.
r3ptil3
2021-04-01, 16:38:38
Was ist schneller? Ein 10900k mit DDR4-4500 oder ein 11900k mit DDR4-? Ich denke der 10900k gewinnt in der Summe, selbst ohne HT.
Nach den Reviews des 11900k, ist mir der 10900k bzw. der aktuell sehr günstige 10850k deutlich lieber. Mit dem genannten RAM und sehr guten Timings, hast du genug Leistung bis 2025.
Trotz der Architekturnachteile haben die Intels immer noch einige gute Vorteile: Problemlos dauerhaft anliegender Takt (Stichwort Frametimes), Undervolting-Möglichkeiten ohne dass die CPU Leistung verliert und in Kombi mit DDR 4200+ RAM und sehr scharfen Timings, kann durchaus eine Performance gewonnen werden, welche durchgehend jeden Ryzen 5000 hinter sich lässt.
Fetza
2021-04-01, 16:45:22
Man muss nicht Prime spielen um zu erkennen das RKL auch in Games absolut drüber ist. Da muss man nur den tollen Turbo anmachen:
https://i.postimg.cc/ZR1ZSgmm/1111.png
https://i.postimg.cc/CMqSNFCx/33333.png
Völlig Irre für nen 8 Kerner.
Du fixierst dich dabei jetzt aber nur auf den 11900K mit seinem Dummbrot-Turbo, oder? Denn der 11600 sieht doch gut aus. Warum also ständig auf den uninteressantesten Prozzi aus der Linie rumreiten? Dass der 11900K kacke ist wissen doch mittlerweile alle. Eine lächerliche Witz-CPU. Aber dafür interessiert sich doch auch kein informierter Käufer.
Ich lese jetzt tagtäglich nur noch von OC-Rekorden der Rocket Lakes: Bin ich der einzige dem das einfach mal gar nicht interessiert, wie man unter total realitätsfremden Gegebenheiten (Flüssigstickstoff...) CPUs übertaktet?
Nee, also da bin ich völlig bei Dir! Finde das auch mehr als langweilig. Mich interessieren aber allgemein nur praxisnahe Szenarien.
Schnoesel
2021-04-01, 16:46:50
Seit wann korrelliert ein durchgehender Takt mit besseren Frametimes? Mir scheint eher, dass mehr Kerne die besseren Frametimes bringen. So würde ich zumindest die Werte bei CB und Igors Lab interpretieren.
@Fetza weil hier zuvor von RKL und 400 Watt bei OC die Rede war. Auch eine 11600k ist kein Kostverächter in Games, wenn man das mit der Konkurrenz vergleicht:
https://www.igorslab.de/intel-core-i9-11900k-core-i7-11700k-core-i5-11600k-und-core-i9-10900k-gegen-amds-aktuelle-ryzen-garde-schnell-heiss-und-ganz-schoen-durstig/10/
Platos
2021-04-01, 17:02:09
Allerdings halte ich die Kernzahl als Metrik für nicht perfekt. Am Ende zählt die Performance, die man am Ende bekommt, egal wie viele Kerne es sind.
Eben nicht. Das ist genau das selbe Prinzip, wie ich im letzten Post erklärt hatte. P/L ist kurzfristig gesehen (beim Kaufzeitpunkt) das Wichtigste, aber langfristig gesehen haben andere Dinge auch einen Einfluss, die dann später das dann herrschende P/L verschlechtern werden.
Hier ein hypothetisches Beispiel:
Wenn ein 6 Kerner in Generation 2 kommt, der in MT Anwendungen besser ist, wie der 8 Kerner von Generation 1, dann ist das natürlich zum Kaufzeitpunkt gut und egal, ob es nun 6 oder 8 Kerne sind, aber: Wenn man dann den Preis des 6-Kerners der Gen 2 auf den des 8-Kerners der Gen 1 stellt, dann ist schliesslich in der Gen 3 dann der 6-Kerner weiterhin teurer, wie der 8 Kerner aus Gen 1. Der enorme Fortschritt des 6-Kerners in Gen 2 war einmalig, die Preissteigerung wird längerfristig bestehen. Es müsste also wieder der 6-Kerner aus Gen 3 besser sein (in MT Anwendungen), wie der 8-Kerner aus Gen 2, ansonsten hast du eine dauerhafte Preissteigerung.
Ich denke, dir sollte klar sein, dass das nicht passieren wird. Es wird niemals jede Generation von neuem der 6-Kerner den 8 Kerner der vorherigen Generation in MT überflügeln. Vlt. einmal, aber sicher nicht öfters und schon gar nicht immer. Ergo gäbe es eine dauerhafte Preissteigerung. Und deswegen ist bei CPUs eine Preisbindung and die Kernanzahl richtig und wichtig.
Fetza
2021-04-01, 18:13:51
@Fetza weil hier zuvor von RKL und 400 Watt bei OC die Rede war. Auch eine 11600k ist kein Kostverächter in Games, wenn man das mit der Konkurrenz vergleicht:
https://www.igorslab.de/intel-core-i9-11900k-core-i7-11700k-core-i5-11600k-und-core-i9-10900k-gegen-amds-aktuelle-ryzen-garde-schnell-heiss-und-ganz-schoen-durstig/10/
Schon klar, Intel CPUs sind aber schon seit mehreren Generationen keine Kostverächter. Aber 170 Watt bei voller Kernauslastung sind doch zumindest ein akzeptabeler Wert (und ja, ich weiß, der 5600 liegt bei 90 Watt).
Fusion_Power
2021-04-01, 18:35:04
Liegt das vllt. auch an diesen hochgezüchteten "Z" Gaming-Mainboards dass die neuen Rocket Lake Chips mehr Strom ziehen? Wurde das mal auf den kleineren "B" und "H" Mainboards gegengetestet?
dildo4u
2021-04-01, 18:39:46
Mann kann auch beim Z590 Board das TDP limitieren.
11700k nimmt dann so viel wie 5800X.
https://youtu.be/3n0_UcBxnpk?t=1225
Badesalz
2021-04-01, 18:53:34
Seit wann korrelliert ein durchgehender Takt mit besseren Frametimes? Mir scheint eher, dass mehr Kerne die besseren Frametimes bringen. So würde ich zumindest die Werte bei CB und Igors Lab interpretieren.Muss man das noch lernen? Das ist die Erkenntnis der letzten Jahre, bereits.
Spätestens, allerspätestens, als der 3300X kam und sich - am Speicher genauso ausgefahren - in minFPS mit dem 3600X anlegte - sah man an den Frametimes, daß der 3600er dann doch feststellbat glatter lief.
Es bleibt natürlich immer die Frage, ob die Pikes dann grundsätzlich relevant tief nach unten rutschen und wie oft bis man es als ausreichend oft störend definiert, aber am Allgemeinbild ändert das nichts.
@Fetza
Wieviel Leistung bringt das denn mehr (in FPS/Frametimes), daß ein nahezu doppelter Verbrauchswert es akzeptabel erscheinen lässt?
y33H@
2021-04-01, 19:00:50
Liegt das vllt. auch an diesen hochgezüchteten "Z" Gaming-Mainboards dass die neuen Rocket Lake Chips mehr Strom ziehen? Wurde das mal auf den kleineren "B" und "H" Mainboards gegengetestet?Die Package Power ist davon unabhängig, also nein - es liegt schlicht an der CPU und dem eingestellten PL1/PL2.
Fetza
2021-04-01, 19:14:20
@Fetza
Wieviel Leistung bringt das denn mehr (in FPS/Frametimes), daß ein nahezu doppelter Verbrauchswert es akzeptabel erscheinen lässt?
Ich sehe das eher als theoretische Leistungsspitzen - den 11600K würde ich mir auch nie kaufen, als Gesamtpaket einfach unattraktiv, dann lieber den 11700F. Wenn wir nochmal zurück zum 11400F gehen, der scheint ja tatsächlich sogar 20 Watt durchschnittlich beim Gaming weniger zu schlucken als der 5600X.
https://www.youtube.com/watch?v=tLW6FJEO93A&t=42s
Letztlich kommt es bei Intel scheinbar einfach darauf an im Bios entsprechend einzustellen, dass die CPU nicht eine Stromverschwendungsorgie feiert.
Und das einzige Argument für Rocket Lake ist für mich auch der Preis. Aber dort sind die beiden genannten F Modelle denke ich dann auch ganz überzeugend - der 11700F aber auch erst für 280 Euro maximal.
Nachtrag: Und Rocket Lake bringt ja ganz allgemein gesehen nie mehr Leistung als Zen 3, von daher macht es der hohe Stromverbrauch ja nun wirklich nicht besser. Aber ein performanter 6 Kerner für 150 Euro, der schluckspechtmäßig manierlich daherkommt ist doch völlig ok.
Badesalz
2021-04-01, 19:27:19
Ich sehe das eher als theoretische LeistungsspitzenTheoretisches Zeug, rechnet man aus. Praktisches, wird gemessen. Da gibt es nicht wirklich Spielräume für persönliche Ansichten.
Letztlich kommt es bei Intel scheinbar einfach darauf an im Bios entsprechend einzustellen, dass die CPU nicht eine Stromverschwendungsorgie feiert.Die von uns, die älter als 16 sind, dürften sich an die Zeit erinnern als man einiges erst richtig kaufen musste und dann auch konfigurieren musste, bis so mancher vor-Zen AMD auf irgendeine Weise attrakitv/sinnig erscheinen konnte. Zum einen. Zum anderen dürfte das gleichzeitig auch Erinnerungen zurückrufen, wieviel Spott das auch immer bei den Blauen produzierte, was das für eine Frickelplatform wäre bis es mal vernünftig läuft. Hmm...
Aber ein performanter 6 Kerner für 150 Euro, der schluckspechtmäßig manierlich daherkommt ist doch völlig ok.Keine Frage. Die gibt es aber auch schon eine ganze Weile. Noch weiß ich nicht was man da jetzt feiern soll.
Fetza
2021-04-01, 20:50:30
Theoretisches Zeug, rechnet man aus. Praktisches, wird gemessen. Da gibt es nicht wirklich Spielräume für persönliche Ansichten.
Da habe ich mich unklar ausgedrückt. Mit "für mich theoretisch" meinte ich, dass ich diese Anwendungsszenarios nur selten fahre und die CPU deswegen bei mir letztlich nicht so viel Strom ziehen würde.
Die von uns, die älter als 16 sind, dürften sich an die Zeit erinnern als man einiges erst richtig kaufen musste und dann auch konfigurieren musste, bis so mancher vor-Zen AMD auf irgendeine Weise attrakitv/sinnig erscheinen konnte. Zum einen. Zum anderen dürfte das gleichzeitig auch Erinnerungen zurückrufen, wieviel Spott das auch immer bei den Blauen produzierte, was das für eine Frickelplatform wäre bis es mal vernünftig läuft. Hmm...
Ja an diese Zeiten erinnere ich mich gut. Ich habe aber noch nie auf Fanboygehabe etwas gegeben. Ich bin sehr pragmatisch was meine Kaufentscheidungen angeht.
Keine Frage. Die gibt es aber auch schon eine ganze Weile. Noch weiß ich nicht was man da jetzt feiern soll.
Rocket Lake legt aber tatsächlich in diesem Bereich deutlich an Leistung zu. Du hast natürlich recht, der 10400F war ja auch super in dieser Hinsicht. Aber mit Rocket Lake gibt es dazu jetzt halt nochmal richtig gut Leistung extra - zum gleichen Preis.
Gamers Nexus ist dem 11600K ja auch nicht gerade abgetan und die haben (zu Recht) den 11700K und 11900K richtig verrissen.
https://www.youtube.com/watch?v=lbch8LW-Bz0
dildo4u
2021-04-02, 09:42:57
Gameing sieht gut aus Anwendungen weniger da vermutlich massiv TDP limitiert.
LYdHTSQxdCM
r3ptil3
2021-04-02, 12:50:32
Ich weiss nicht so recht was ich vom 11400 halten soll, trotz dem eigentlich sehr guten Preis.
Entweder ist der Ryzen 5000 seit Release im November noch ein gutes Stückchen besser geworden oder Intel wirkt auf mich einfach subjektiv nochmals unattraktiver als damals Comet Lake.
Die 20% IPC Uplift merkt man ein bisschen bis gar nicht, was am Schluss nur den Eindruck festigt, dass Rocket Lake unfertig wirkt.
Wenn ich jetzt einen Intel kaufen würde, dann wäre es der 10850K bzw. der 10900k - siehe aktuelle Preise. Bei Rocket Lake kommt hinzu, dass man nicht weiss inwiefern die Plattform wirklich "reif" ist, sprich wie harmonieren die Nvidia und AMD Grafikkartentreiber, wie ist die Qualität der BIOS-Versionen und wie sieht's nach einem Jahr aus. Da die Plattform zudem ja nach wenigen Monaten schon abgelöst wird, bekommt man nicht den Eindruck, dass Intel oder die Boardpartner da den allerhöchsten Fokus darauf legen werden, obwohl hier könnte man wiederum damit kontern, dass das Mainboard-Lineup wirklich herausragend ist.
Was mich interessieren würde:
Plant hier jemand eigentlich überhaupt einen Rocket Lake zu kaufen?
Wenn ja, weshalb?
dildo4u
2021-04-02, 12:55:11
Gibt hier schon Erfahrungen, das neue ist halt das man auf den billigen Boards schnellen RAM nutzen kann, also grad fürs Zocken wirds Interessant wenn man keine 300€ nur für die CPU zahlen will.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12641942#post12641942
Troyan
2021-04-02, 14:01:45
Gibt es irgendwo Raytracing-Benchmarks mit einer 3080/3090? Gibt ja haufenweise Spiele, die in 1080p CPU limitiert sind.
sulak
2021-04-02, 14:31:13
Gibt hier schon Erfahrungen, das neue ist halt das man auf den billigen Boards schnellen RAM nutzen kann, also grad fürs Zocken wirds Interessant wenn man keine 300€ nur für die CPU zahlen will.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12641942#post12641942
Liefert wohl grademal ähnliche Perf wie ein alter i7-8700 non-k, der hat auch seltenst über den AllCore geboostet, damit ist der 11400F bei nur 4,2GHz, aber 100Watt vs 65-83Watt des Coffee-Lake.
dildo4u
2021-04-02, 14:41:23
Wie Kommst du da drauf CB hat Ryzen 3600 und und 8700k gleichauf beim zocken Gamernexus sieht 11400f aber weit vor Zen 2.
Matrix316
2021-04-02, 14:50:20
Hat jemand schon die neue PCGH? Die bewerten den 11900K besser als den 5900X und 5800X und behaupten "beste Spieleleistung". Sind die bekloppt? :ugly:
Linmoum
2021-04-02, 15:07:08
Wie man grundsätzlich von "bester Spieleleistung" sprechen kann, wenn der "Abstand" zur zweitschnellsten CPU mit einem selbst "ermittelten" ""Vorsprung"" bei 0.1% liegt, ist schon grotesk genug (wie kann man Abweichungen von <1% überhaupt in irgendeine Richtung auslegen unter Berücksichtigung von immer vorhandenen Messtoleranzen? Einfach nur lol).
Hat man im Heft eigentlich noch die Anwendungen im Index drin? Die hat man im Online-Index nämlich komplett gestrichen. Ausgerechnet dann, wenn Intel eine CPU rausbringt, die langsamer als der eigene Voränger ist. Bestimmt ein dämlicher Zufall.
Schade, dass Carsten nicht mehr dort für die CPU-Reviews zuständig ist. Seitdem leider... nunja.
Matrix316
2021-04-02, 15:31:00
Vor allem hat man 13 Spieletests und nur 4 davon gewinnt der 11900K. Und der 5900X lag 9 mal vor dem 11900K. Hä?
Savay
2021-04-02, 16:07:29
Das ist in der Tat lächerlich!
Wie generieren die denn den Index? Addieren die die FPS einfach auf oder was?! ;)
Naja ich halte von solchen Indexen eh nicht viel. Das bügelt zu viele Details platt.
Man sollte schon wirklich selbst schauen was man so für Workloads hat und erwartet.
Mangel76
2021-04-02, 16:13:01
Ich habe die und das ist mir auch aufgefallen. Schaut man sich die einzelnen Ergebnisse an, passen die nicht zur Überschrift. Wird Zeit das Abo zu kündigen...
w0mbat
2021-04-02, 16:23:27
PCGH hat häufig klick-bait Titel die nicht zu den inhaltlich guten Tests passen. Die Website bräuche zudem mal ein längst überfälliges re-design.
Platos
2021-04-02, 16:35:58
Vor allem hat man 13 Spieletests und nur 4 davon gewinnt der 11900K. Und der 5900X lag 9 mal vor dem 11900K. Hä?
Also online haben sie 20 Tests und nicht 13 und da stimmt das schon. Aber sie werden den Index vermutlich an Avg FPS orientieren und nicht an min FPS. Das ergibt aber nur sehr kleine Abweichungen (in diesem Fall).
Und bezüglich dem Begriff "schnellste" Gaming CPU... Es ist nunmal mathematisch gesehen an der ersten Stelle. Das Heft schreibt wohl aber etwas andere Zeilen, wie im Online Artikel, da steht das nämlich nicht so, wie du es beschreibst.
Ps. Wer kauft sich noch heftchen (für egal was) ? Was für ne Papierverschwendung (und vor allem auch Platzverschwendung).
Matrix316
2021-04-02, 16:50:01
Also online haben sie 20 Tests und nicht 13 und da stimmt das schon. Aber sie werden den Index vermutlich an Avg FPS orientieren und nicht an min FPS. Das ergibt aber nur sehr kleine Abweichungen (in diesem Fall).
Und bezüglich dem Begriff "schnellste" Gaming CPU... Es ist nunmal mathematisch gesehen an der ersten Stelle. Das Heft schreibt wohl aber etwas andere Zeilen, wie im Online Artikel, da steht das nämlich nicht so, wie du es beschreibst.
Ps. Wer kauft sich noch heftchen (für egal was) ? Was für ne Papierverschwendung (und vor allem auch Platzverschwendung).
Unabhängig von den FPS sind auch Online von 20 Games 11 Mal der 5900X vorne.
Und man sollte bei einem CPU Test auch die Anwendungsleistung mitberücksichtigen beim Endergebnis. Und den Stromverbrauch.
Im Heft hat der 11900K eine Wertung von 1,28 und der 5900X 1,35 und selbst wenn ich die Online 0.1% nehme die der 11900K angeblich vorne liegt, sollte der Abstand auf keinen Fall so groß sein in der Bewertung, WENN ÜBERHAUPT, denn der 5900X ist auf jeden Fall die bessere CPU insgesamt und auch beim Gaming.
Was denken die sich überhaupt mit ihren kruden bescheuerten Wertungssystemen? Ich war eigentlich immer PCGH Fan, aber der Test hier ist eher ein PC Computer Bild GH Test.
Der größte Bullshit überhaupt. JEDER Tester sagt, dass der 11900K zu teuer und zu langsam ist und zu viel Strom verbraucht. Wie kann ich dem eine bessere Bewertung geben als einem 5900X oder 5800X??? Spinnen die? Also das regt mich ziemlich auf, weil das Endergebnis ist einfach nur getürkt und geschmiert und sonst nix.
Savay
2021-04-02, 16:59:00
Wenn sie einen Index für die "Gesamtplatzierung" erzeugen wollen müssten sie m.E. eh eher ein Rating aus der absoluten Platzierung in den einzelnen Tests generieren und das nicht unbedingt primär an den FPS orientieren...egal ob relativ oder absolut. ;)
Das führt sonst m.E. nur dazu, dass starke Ausreißer stärker in die Gewichtung einfließen.
Was man IMHO eigentlich eher nicht will, vor allem wenn man eine Art Meta-Score damit generieren möchte.
Aber alle anderen machen es ja für diese "Ratings" auch nicht wirklich anders. :popcorn:
Matrix316
2021-04-02, 17:12:29
Wenn ich die Average FPS addiere kommt bei den 20 Games der 5900X auf 2927,1 und der 11900K auf 2826.3 FPS. =) Wo ist hier Intel 0.1% vorne?
MiamiNice
2021-04-02, 17:34:41
:popcorn:
x-force
2021-04-02, 17:41:29
Wenn ich die Average FPS addiere kommt bei den 20 Games der 5900X auf 2927,1 und der 11900K auf 2826.3 FPS. =) Wo ist hier Intel 0.1% vorne?
eindimensionale indizies sind sowieso das wichtigeste überhaupt, keine der getsteten cpus hat over 9000, daher sind alle mist und höchstens für cinebench zu gebrauchen.
dayo21
2021-04-02, 17:46:59
PCGH wiegt die P1 zu 80% in die Gesamtwertung mit ein ("Geschmeidigkeits-Index"). Ist mir tatsächlich auch aufgefallen, dass AMD die meisten Benches gewinnt und trotzdem Intel die beste Endnote bekommt. Also nur auf Spiele bezogen gebe ich PCGH recht, aber insgesamt liefert AMD das beste Gesamtpaket an CPU. Daher ist PCGH für mich ab sofort auch nur ein Nischen-Index. Über die Leistung einer CPU sagt sie also nur teilweise was aus (nur auf Games bezogen). Ansonsten, für Anwender sind die Tests dort tatsächlich ab sofort wertlos.
Platos
2021-04-02, 18:10:26
Wenn ich die Average FPS addiere kommt bei den 20 Games der 5900X auf 2927,1 und der 11900K auf 2826.3 FPS. =) Wo ist hier Intel 0.1% vorne?
Ihr habt schon nichts besseres zu tun, als euch über 0.1% aufzuregen, oder ;D
Lehdro
2021-04-02, 18:30:53
Bin auf den Index von Leonidas gespannt, bisher kommt mir PCGH wie ein krasser Ausreißer vor, so rein vom "Gefühl" her, nach dem Studium vieler anderer Launchreviews.
Edit: Man beachte bei PCGH Anno, KCD, Planet Zoo, Borderlands 3, SS4 & RDR2. Diese Titel skalieren so unfassbar verschieden auf AMD und Intel. Zudem ist AC:V der reinste Clusterfuck, das gehört mit einer NV Karte definitiv nicht als CPU Bench in den Parcours, da liegen nicht einmal 10% zwischen schnellster und langsamster CPU. Wenn ich da nur eines dieser "Ausreißergames" dazu oder weg nehme, dreht sich der Index komplett. mMn hat PCGH zu viele Spezialfälle drin, was durch die demzufolge zu geringe Menge an "normalen" Spielen nicht weggemittelt wird. Das ist aber auch gar nicht die Aufgabe eines solchen CPU Testparcours, sondern eher eine Sache der Auswertung bzw. Erstellung.
BlacKi
2021-04-02, 18:35:08
Wenn ich die Average FPS addiere kommt bei den 20 Games der 5900X auf 2927,1 und der 11900K auf 2826.3 FPS. =) Wo ist hier Intel 0.1% vorne?:biggrin:
y33H@
2021-04-02, 19:27:51
Bin auf den Index von Leonidas gespannt, bisher kommt mir PCGH wie ein krasser Ausreißer vor, so rein vom "Gefühl" her, nach dem Studium vieler anderer Launchreviews.
Edit: Man beachte bei PCGH Anno, KCD, Planet Zoo, Borderlands 3, SS4 & RDR2. Diese Titel skalieren so unfassbar verschieden auf AMD und Intel. Wenn ich da nur eines dieser "Ausreißergames" dazu oder weg nehme, dreht sich der Index komplett. Ich hab Anno 1800, KCD und Planet Zoo auch drin - weil die halt schlicht stark an der CPU hängen :freak:
Lehdro
2021-04-02, 20:44:12
Ich hab Anno 1800, KCD und Planet Zoo auch drin - weil die halt schlicht stark an der CPU hängen :freak:
Weiß ich und das bestätigt ja die PCGH Ergebnisse in diesen Spielen, nicht das ich diese generell in Frage stellen würde.
Aber da komme ich direkt mal naiv um die Ecke und frage: Wieso genau die Titel auf denen RKL tatsächlich eine Rakete ist, aber nicht die anderen drei Titel in den Ryzen 5000 alles "abryzt"? "Verfälscht" das Ganze doch enorm - wo wir dann wieder beim Thema "How to test CPUs" sind - viele Wege führen nach Rom. Ich möchte da keinem Reviewer richtig oder falsch unterstellen, allerdings auch auf keinen Fall in eurer Haut stecken. Ich bin einfach nur froh dass wir mit Leonidas jemanden haben der diese Ergebnisse aggregiert und auswertet.
Rein hypothetisch würde sich deine Analyse ja noch deutlich negativer lesen, wenn du statt Anno, KCD & Planet Zoo eben SS4, Borderlands 3 und eben RDR2 drin hättest - diese schlagen ähnlich aus der Reihe, nur eben zugunsten AMD. Nur mal so zum hypothetischen drüber nachdenken, gerade als Konsument. Da kommt dann das bei raus was Leonidas immer predigt: Je breiter der Testparcour, je zuverlässiger ist das Ergebnis, weil Ausreißer sich wegmitteln oder gar ausgleichen auf beiden Seiten. Wie siehst du das als Reviewer? Ist das ein Anlaß die Testspiele eventuell anders auszusuchen oder zu bewerten? Die Streuung ist ja mittlerweile wirklich enorm und 2-3 anders ausgesuchte Titel können die gesamte Leistungeinordnung komplett auf den Kopf stellen. Gerade bei RKL, wo manche Reviewer RKL teilweise im Schnitt hinter CML sehen, geschweige denn in der Nähe von Zen 3, andere widerrum knapp vor Zen 3 und CML verorten, ist das sehr auffällig.
WedgeAntilles
2021-04-02, 21:22:59
Wenn ich die Average FPS addiere kommt bei den 20 Games der 5900X auf 2927,1 und der 11900K auf 2826.3 FPS. =) Wo ist hier Intel 0.1% vorne?
Vielleicht ist ein aufaddieren statistischer Bullshit?
Schon mal nachgedacht, dass das manches ausdrückt, aber keinen statistischen Vergleich zweier Produkte?
rentex
2021-04-02, 21:30:54
Der Verbrauch von RKL zur gebotenen Leistung, kann nur den zweiten Platz bedeuten.
Tarkin
2021-04-02, 21:52:28
Ich habe die und das ist mir auch aufgefallen. Schaut man sich die einzelnen Ergebnisse an, passen die nicht zur Überschrift. Wird Zeit das Abo zu kündigen...
Abo? OMG ;D:freak:
BlacKi
2021-04-02, 22:40:40
soll das heißen, weil euch die zahlen nicht in den kram passen, beendet ihr abos, zu gunsten von medien die eurem geschmack besser passen? wait a minute... irgendwo her kenn ich diese logik^^
SKYNET
2021-04-02, 23:20:49
soll das heißen, weil euch die zahlen nicht in den kram passen, beendet ihr abos, zu gunsten von medien die eurem geschmack besser passen? wait a minute... irgendwo her kenn ich diese logik^^
mhhh.... wenn ein test total aus der rolle fällt, werden kaum alle anderen falsch liegen... :rolleyes:
Matrix316
2021-04-02, 23:25:33
Vielleicht ist ein aufaddieren statistischer Bullshit?
Schon mal nachgedacht, dass das manches ausdrückt, aber keinen statistischen Vergleich zweier Produkte?
Naja, verstehst du die Methode von denen? Ich nicht. In allen objektiven Fakten liegt der 5900X vorne. Performance in Anwendungen, In den meisten Spielen (auch sogar in deren Heftreview), im Stromverbrauch.
Trotzdem kriegt der 11900K eine deutlich bessere Wertung. Laut Webseitenreview ist der Performancevorteil 0.1%. Wie passt da 1.28 zu 1.35 als Wertung im Heft dazu?
Überhaupt gar nicht. Zumal jedes andere Review ein ganz anderes Fazit hat.
Badesalz
2021-04-02, 23:26:01
@BlacKi
Du bist überrascht, daß Leute auch mal moralische Vorstellungen darüber haben mit wem sie sich einlasen und mit wem nicht? (warum nur überrascht mich deine Verwunderung nicht...)
Ich bin da sogar viel empfindlicher. Mir passt es jedes Mal "nicht in den kram", wenn mich wer verschaukeln will. Und das gilt natürlich nicht nur für pfiffig verschnurbelte PCGH-Artikel. Deine strunzd... Polemik tuts natürlich auch.
edit @all
Also, gut merken Leute. Nicht daß mir noch einmal jemand kommt und den Rißka als blauen Fanboy beschimpfen will.
Es gibt wirklich weit schlimmere(s)...
WedgeAntilles
2021-04-03, 00:03:01
Naja, verstehst du die Methode von denen? Ich nicht. In allen objektiven Fakten liegt der 5900X vorne. Performance in Anwendungen, In den meisten Spielen (auch sogar in deren Heftreview), im Stromverbrauch.
Trotzdem kriegt der 11900K eine deutlich bessere Wertung. Laut Webseitenreview ist der Performancevorteil 0.1%. Wie passt da 1.28 zu 1.35 als Wertung im Heft dazu?
Überhaupt gar nicht. Zumal jedes andere Review ein ganz anderes Fazit hat.
Ich habe den Test nicht gelesen - ich habe nur gesagt, dass statistisch ein aufaddieren absoluter FPS Werte keinerlei Relevanz hat.
Beispiel: Du hast 4 Spiele, 2 Prozessoren.
3 Spiele hat Prozessor A jeweils 60 Frames, Prozessor B jeweils 50 Frames.
1 Spiel hat Prozessor A 400 Frames, Prozessor B 440 Frames.
Dann hat bei ner Aufaddierung Prozessor A 580 Frames und Prozessor B 590 Frames -> Prozessor B besser.
Ist aber Stuss, da du statistisch bei Prozessor A 3 x das um 20% bessere Ergebnis hast.
Nur in 1 von 4 Fällen ist Prozessor B um 10% besser.
-> Prozessor A ist statistisch gesehen der bessere Prozessor.
Prozessor B hat zwar absolut mehr Frames, das spielt aber statistisch gesehen keine Rolle.
Da absolute Framezahlen eine Übergewichtung von FPS hohen Spielen erzeugt. (z.B. Rainbox Six Siege mit seinen 400 Frames aufwärts.)
Das bedeutet NICHT, das deine Kritik an dem PCG Test falsch sein muss - du kannst da völlig recht haben.
Es bedeutet nur, dass deine Argumentationsweise (AMD hat absolut mehr Frames) nicht aussagekräftig ist.
Ich hatte schon relativ wenig Lust den Test zu lesen als ich in der Überschrift: "Beste Gamingleistung" las - hatte vorher ja schon mal Test gesehen und im Endeffekt nehmen sich AMD / Intel da schlicht nix. Und das HardwareUnboxed und GamerNexus jetzt totalen MÜll benchen glaube ich nicht.
Ob da jetzt mal ein Prozessor 2% schneller ist oder nicht spielt keine Rolle.
Alles bis 5% ist für mich Gleichstand.
Platos
2021-04-03, 00:08:26
Ja, man zählt natürlich alles Prozentual.
Prinzenrolle
2021-04-03, 00:11:58
Die sauberen Tests bekommen diesmal von den AMD Fantanten ganz schön ihr Fett weg, Popcorn schmeckt, amüsant.
Da hat sich Intel ja einen großen Haufen mit dem BIOS Murks ins Nest gelegt. Hier skaliert der stock 11900K mit 125/250 G1 32 16cl über den 10900K 125/250 2933 15cl mit 10 bis 15 % im Mittel.
Den Hexer mag er nicht so stark ( Stagnation!), Anno u. Cyber explodiert förmlich um 20%.
Testets halt noch bissle, irgendwann lüppt schon die richtige Bios/RAM Kombi. Habe „nur“ 4 Tage gebraucht und nun läuft er wie geschnitten Brot.
Intel holt sich ganz knapp die Gaming Krone zurück, Hand voll Prozent.
Der gute Troy heizt der CPU ganz schön ein. Aber auch fast 20%.
Nicht von schlechten Eltern. Wer der den Schrott zum Laufen bringt.
Noch viel Spaß bei der Fehlersuche.✌🏻
Lehdro
2021-04-03, 00:37:43
Die sauberen Tests bekommen diesmal von den AMD Fantanten ganz schön ihr Fett weg, Popcorn schmeckt, amüsant.
Also alle Tests die Intel nicht vorne sehen sind dann einfach unsauber, oder wie ist das gemeint? Au Backe. :freak:
Ich habe, nur aus rein persönlichem Interesse, einfach mal die PCGH Zahlen fix ins Spreadsheet gekloppt und für die AVG Frames den Mittelwert und Median ausgerechnet (https://docs.google.com/spreadsheets/d/1hMLplc6GNdvuFWH8OVr1xtUqwPjIh_PxaoZI6-Ox-aQ/edit?usp=sharing) - sollte dann mit dem CB Test vergleichbarer sein. Surprise, AMD hat die "Gamingkrone" dann wieder, wenn auch nur hauchdünn. Auf die lows hatte ich jetzt keine Lust mehr, ist schon spät, kann mir aber vorstellen dass sich da noch etwas in beide Richtungen tut, je nachdem wie allergisch das Game auf die jeweilige Architektur (chiplets, corecount) reagiert.
Linmoum
2021-04-03, 00:49:54
Die sauberen Tests bekommen diesmal von den AMD Fantanten ganz schön ihr Fett weg, Popcorn schmeckt, amüsant.
Erschreckend, dass es im 3DCenter User gibt, die sowas
https://i.gyazo.com/6b9a83140d2e8346d99f6e582de2d40f.png
als "sauberen Test" bezeichnen. Bei einem CPU-Review in 720p. Und da geht es gar nicht um irgendeinen Hersteller, sondern schlicht und ergreifend die Resultate von der schlechtesten bis zur besten CPU hin. Grotesk einfach nur. Alleine so ein epic fail wirft dann auch kein gutes Licht auf den Rest.
Prinzenrolle
2021-04-03, 00:58:22
Also alle Tests die Intel nicht vorne sehen sind dann einfach unsauber, oder wie ist das gemeint?:
Es ist so gemeint wie es da steht.
Raketen See muss,bevor man den Vergleich mit der AMD Plattform sucht, erst mal im inhouse Vergleich ran.
Zieht der nichts vom Teller und kackt ab, braucht man gar nicht erst starten. Manchmal klemmts eben.
Spoileralarm, cu.
@Lin
Assassins Creed und CPU Tests sind Sperrgebiet.
Kann man in die Tonne treten, Engine bedingt.
Bei so vielen Games fällt der Fail nicht ins Gewicht.
Fusion_Power
2021-04-03, 02:05:57
Ok, das überrascht mich dann doch etwas:
Intels Desktop-Prozessoren der 11. Generation sind seit Ende März offiziell erhältlich. Während die Chips bereits ausgeliefert werden bietet Intel keinerlei Treiber für die integrierte Xe-iGPU an, sodass der Grafikchip derzeit beinahe nutzlos ist. (https://www.notebookcheck.com/Der-Apple-iMac-mit-M1X-und-24-Zoll-bis-31-5-Zoll-Display-soll-in-ein-bis-zwei-Monaten-marktreif-sein.530574.0.html)
Muß man sich vllt. doch Sorgen bezüglich Intel und Rocket Lake machen? :uponder:
Montag soll es den Treiber geben. (https://twitter.com/gfxlisa/status/1378084373241622528)
Aus der .zip soll es etwas umständlicher auch jetzt schon gehen. (https://www.reddit.com/r/intel/comments/mihc6d/intel_awkwardly_forgot_to_release_graphics/gt4s7y2/?context=3)
Trotzdem sehr strange von Intel. :hammer:
dildo4u
2021-04-03, 09:18:29
Macht Sinn 30.3 wird die Deadline gewesen sein damit sie ihren Investoren sagen können das es ein Q1 Launch war, Treiber und Bios Updates kommen Hot rein.
Badesalz
2021-04-03, 10:36:00
Es ist so gemeint wie es da steht.Ok, aber was soll man mit der Fremdschämnummer jetzt anfangen? Fürs Popcorn fehlt da bisschen an Inhalten.
Matrix316
2021-04-03, 11:17:41
Also alle Tests die Intel nicht vorne sehen sind dann einfach unsauber, oder wie ist das gemeint? Au Backe. :freak:
Ich habe, nur aus rein persönlichem Interesse, einfach mal die PCGH Zahlen fix ins Spreadsheet gekloppt und für die AVG Frames den Mittelwert und Median ausgerechnet (https://docs.google.com/spreadsheets/d/1hMLplc6GNdvuFWH8OVr1xtUqwPjIh_PxaoZI6-Ox-aQ/edit?usp=sharing) - sollte dann mit dem CB Test vergleichbarer sein. Surprise, AMD hat die "Gamingkrone" dann wieder, wenn auch nur hauchdünn. Auf die lows hatte ich jetzt keine Lust mehr, ist schon spät, kann mir aber vorstellen dass sich da noch etwas in beide Richtungen tut, je nachdem wie allergisch das Game auf die jeweilige Architektur (chiplets, corecount) reagiert.
Jo ich meine, ich hab die absoluten FPS nur aufgezählt, weil ich mir nicht erklären kann wie die auf so ein Ergebnis kamen. Wobei der Online Tests halt knapper ist als der im Heft. Klar, je nach dem welche Spiele man nimmt ist die eine und mal die andere CPU vorne, wobei vielleicht auch die Grafikkarte eine Rolle spielen kann, stichwort Driver Overhead. Jayz 2 Cents hat z.B. fast gar keine Spiele in seinem Review berücksichtigt, sondern vor allem Anwendungensbenchmarks.
dildo4u
2021-04-03, 11:35:58
Das hängt mit der Game Auswahl zusammen Hardware Unboxed hat auch eine 3090 genutzt und dort ist RL langsamer als der alte 10 Core.
PCGH Testet in Deutschland natürlich mehr Simulationen z.b Anno 1800 das hat kaum ein US Reviewer drin.
Opprobrium
2021-04-03, 11:45:18
Bei Phoronix (https://www.phoronix.com/scan.php?page=article&item=spectre-rocket-lake&num=1) gibt es ein paar Benches zum Einfluß der Spectre Mitigationen. Da das Meiste davon mittlerweile in Hardware erfolgt halten sich die Performancegewinne durch deaktivieren der Mitigationen in Grenzen.
Badesalz
2021-04-03, 12:18:55
@Opprobrium
Meine Fresse Junge... Schon wieder?? :D Ich hebe mir dieses Thema seit Tagen auf und wollte nun langsam wie defizil in diese Richtung lenken, um mal wieder paar blau-äugige Boys auflaufen zu lassen. Da fällst du wieder direkt mit der Tür ins Haus :tongue:
Natürlich sind die bisherigen "Mitigations" größtenteils behoben bzw. nun so in die CPU eingeflossen, daß es dadurch kaum noch Regressions gibt, gegenüber der Microcode/OS-Lösung. Die Boys feiern diesen FIX jetzt als eine weitere Leistungssteigerung der Architektur :uup:
Wo uns die "Mitigations" davor um Generationen zurückgeworfen haben (taktbereinigt). Aber auch das merken die nicht. Die merken garnichts. Man kann sie jedes Mal nur voll auflaufen lassen, weil die sonst nichts dazulernen (möchten).
p.s.:
Natürlich schmälert das deine Verdienste trotzdem nicht. So mein ich das nicht. Jeden der den Idiotenweg nicht geht und nur den der Aufrichtigen beschreitet kann man nicht oft genug loben =)
Opprobrium
2021-04-03, 12:43:56
Ja, ein paar Vergleiche der letzten paar Intelgenerationen untereinander mit deaktivierten Mitigationen wären schon interessant :uponder:
Find das generell sehr löblich von Phoronix immer mal wieder ein paar Benchmarks zum Thema zu bringen.
aufkrawall
2021-04-03, 12:49:44
Ja, ein paar Vergleiche der letzten paar Intelgenerationen untereinander mit deaktivierten Mitigationen wären schon interessant :uponder:
Gibt schon auch ohne Mitigations starke einzelne Ausreißer nach oben, im Octane 2.0 JS-Benchmark (also 100% ST) in Firefox erreiche ich einen Score von 29k mit dem 11400F vs. 23,4k mit dem 6700k.
Matrix316
2021-04-03, 12:51:15
OK ich muss meine Aussage korrigieren.
Der PCGH Test ist noch schlimmer als gedacht!
Das hab ich eben erst gemerkt.
Die Leistung spielt bei der Endwertung gar keine große Rolle!
Es ist die Ausstattungsnote 1.23 zu 1.6 die den 11900K vor den 5900K setzt!
Mal abgesehen davon, dass der 5900X mehr Kerne und mehr Cache hat, haben die etwa die Integrierte Grafik vom Intel genommen um die Note nach oben zu pushen???
Wer kommt denn auf SO eine Idee?
mboeller
2021-04-03, 12:51:35
Bei Phoronix (https://www.phoronix.com/scan.php?page=article&item=spectre-rocket-lake&num=1) gibt es ein paar Benches zum Einfluß der Spectre Mitigationen. Da das Meiste davon mittlerweile in Hardware erfolgt halten sich die Performancegewinne durch deaktivieren der Mitigationen in Grenzen.
Ausnahme Firefox :eek:
Zusammenfassung:
https://www.phoronix.com/scan.php?page=article&item=spectre-rocket-lake&num=7
BlacKi
2021-04-03, 12:51:41
@Opprobrium
Die Boys feiern diesen FIX jetzt als eine weitere Leistungssteigerung der Architektur :uup:
achso, und wer war das gleich nochmal? das ist im übrigen auch nur ein teil der erklärung warum rkl manchmal langsamer ist als cmt. die benches laufen mit den software fixes, die bestimmt nicht schneller sind als die hardwarefixes.
die architekturen(teile davon) sind vermutlich noch älter als das bekanntwerden der anfälligkeiten. die hardware/software fixes werden vermutlich erst bei architekturen nach 2018 neu designed werden nicht mehr nötig. wer weiß wann das passiert. in intels interesse würde ich mir wüschen, das sie damit 2018 schon begonnen haben.
Badesalz
2021-04-03, 12:57:19
Es ist die Ausstattungsnote 1.23 zu 1.6 die den 11900K vor den 5900K setzt!
Mal abgesehen davon, dass der 5900X mehr Kerne und mehr Cache hat, haben die etwa die Integrierte Grafik vom Intel genommen um die Note nach oben zu pushen???
Wer kommt denn auf SO eine Idee?Warum nicht? Noch nie gesehen, daß in einem Autotest der Verbrauch weggelassen wurde und ein GTI vor einem M2 lag, weil der GTI Sitzheizung hatte?
:ulol:
Daredevil
2021-04-03, 13:09:19
Es ist die Ausstattungsnote 1.23 zu 1.6 die den 11900K vor den 5900K setzt!
Wer kommt denn auf SO eine Idee?
Es ist das, was dort steht. Eine Benotung für die Ausstattung und da ist die iGPU halt ein Pluspunkt.
Wenn dir die Ausstattung egal ist, rechne sie raus.
Deswegen wird sie ja auch - oh Wunder - separat mit aufgelistet, damit man Transparent ist.
Wenn Renoir besser steht als Skylake, weil die iGPU besser ist, kann Rocket Lake in der Kategorie auch besser stehen als Zen3, weil dort überhaupt keine Möglichkeit gegeben ist, einen Monitor anzuschließen.
Lehdro
2021-04-03, 13:18:57
Es ist die Ausstattungsnote 1.23 zu 1.6 die den 11900K vor den 5900K setzt!
Mal abgesehen davon, dass der 5900X mehr Kerne und mehr Cache hat, haben die etwa die Integrierte Grafik vom Intel genommen um die Note nach oben zu pushen???
Wer kommt denn auf SO eine Idee?
Völlig legitim, da es zb die F Modelle auch abwertet gegenüber den non-F Modellen. Ist ja nicht so als ob die iGPU komplett nutzlos ist, nur weil DU sie nicht nutzen würdest.
Du kannst, wie weiter oben schon gesagt, doch einfach die CPUs anhand der Leistungsnote für dich selber bewerten. Verstehe jetzt die Aufregung darüber nicht.
Savay
2021-04-03, 13:50:46
Ok, das überrascht mich dann doch etwas:
Muß man sich vllt. doch Sorgen bezüglich Intel und Rocket Lake machen? :uponder:
Ist ja nicht so als ob die iGPU komplett nutzlos ist, nur weil DU sie nicht nutzen würdest.
Oh the Irony! :biggrin:
Es ist das, was dort steht. Eine Benotung für die Ausstattung und da ist die iGPU halt ein Pluspunkt.
Angesichts des oben genannten, frage ich mich dann doch schon etwas auf welcher Grundlage sie die iGPU denn eigentlich bewertet haben?! :tongue:
Und ich hab mich btw schon ernsthaft gewundert wieso nicht ein Test auf die XE/Gen12 GPU eingeht!:uponder:
Das ist nämlich tatsächlich das was mich auch mit am meisten technisch an der CPU interessiert.
aufkrawall
2021-04-03, 13:53:22
Die Bewertungsmethode ist fragwürdig, aber nun ist auch langsam gut, oder?
Opprobrium
2021-04-03, 13:54:42
Abgesehen von den fehlenden Treibern ist ein iGPU doch praktisch und durchaus eine Aufwertung wert. Nicht unbedingt für ein Magazin namens PC Games Hardware welches Anwendungsbenchmarks ignoriert, aber es gibt genügend Fälle in denen es nur auf die CPU Leistung ankommt. Und da ist es dann eben von Vorteil keine extra Grafikkarte einbauen zu müssen.
aufkrawall
2021-04-03, 14:03:36
Dafür ist RKL viel zu ineffizient. Wenn die Intel 8/10C-CPU jeden Tag zig Stunden auf 100% läuft, heizt das den Raum im Sommer unerträglich auf und dann werden in DE auch langsam die Stromkosten ein Thema. Da kann man klaren Verstandes nur zu einem Zen 2/3 mit viel mehr MT-Leistung greifen und steckt angesichts der momentanen Marktsituation halt irgendeine Steinzeit-Karte dazu...
Freestaler
2021-04-03, 14:40:31
Die Ironie das gerade PC"Games"HW die nichtmal mit Treiber supported IGPU den Ausschlag gibt ist mMn. einer der geilsten Aprilscherze 2021. Definitiv in Fazit nicht viel Wert. Ne "Office" CPU gewinnt wegen Office attributen. Nicht Workstation und nicht Gaming Eignung. Evtl. Renaming: BrowserGamesHW? Wobei ohne igpu treiber.. ach lassen wir das..
Loeschzwerg
2021-04-03, 14:44:54
Angesichts des oben genannten, frage ich mich dann doch schon etwas auf welcher Grundlage sie die iGPU denn eigentlich bewertet haben?! :tongue:
Und ich hab mich btw schon ernsthaft gewundert wieso nicht ein Test auf die XE/Gen12 GPU eingeht!:uponder:
HWLuxx schon. Die Treiber wurden über das Review-Kit mitgeliefert.
Thunder99
2021-04-03, 14:46:57
Die iGPU ist aus meiner Sicht Verschwendung. Wer ausserhalb OEM und Notebook verwenden die interne Grafik wirklich, abgesehen von ein paar Bastler/Selbstschrauber?
RKL mit mehr Kernen wäre besser als was sie hier geliefert haben.
Matrix316
2021-04-03, 14:53:11
Die Ironie das gerade PC"Games"HW die nichtmal mit Treiber supported IGPU den Ausschlag gibt ist mMn. einer der geilsten Aprilscherze 2021. Definitiv in Fazit nicht viel Wert. Ne "Office" CPU gewinnt wegen Office attributen. Nicht Workstation und nicht Gaming Eignung. Evtl. Renaming: BrowserGamesHW? Wobei ohne igpu treiber.. ach lassen wir das..
Genau das. Anwendungsbenchmarks lässt man weg, weil es nur um Gaming geht, aber die integrierte Grafik wird mit in die Bewertung genommen... :rolleyes:
Loeschzwerg
2021-04-03, 14:53:43
Ich nehme die IGP gerne mit, es gibt derzeit keine sinnvollen LowEnd Alternativen von AMD/NV.
Matrix316
2021-04-03, 14:59:37
Ich nehme die IGP gerne mit, es gibt derzeit keine sinnvollen LowEnd Alternativen von AMD/NV.
Das heißt du käufst dir lieber fürs gleiche Geld einen 11900K als einen 5900X nur weil du eine integrierte Grafik hast?
Ich meine, ich kanns verstehen, wenn dein PC besonders leicht sein soll, weil du ihn viel rumschleppst... aber sonst?
Loeschzwerg
2021-04-03, 15:01:31
Es ist bezeichnend dass hier angenommen wird es ginge mir um die Top-End CPUs ;)
Matrix316
2021-04-03, 15:06:42
Es ist bezeichnend dass hier angenommen wird es ginge mir um die Top-End CPUs ;)
Es geht hier aber um die Top End CPUs.
Bei den kleinen ist Intel ja nicht so schlecht. Wobei die letzte Ryzen Generation auch nicht so teuer ist.
rentex
2021-04-03, 15:11:01
Es ist bezeichnend dass hier angenommen wird es ginge mir um die Top-End CPUs ;)
Um was denn sonst :freak:
Loeschzwerg
2021-04-03, 15:11:38
Es geht hier aber um die Top End CPUs.
Sagt wer? Weil das hier das 3DC ist und nur Highend zählt?! :|
Hier wurde behauptet die Reviewer hätten keine Treiber, was aber falsch ist. Habe ich meinen Senf zu abgegeben. Dann schreibt jemand die IGP wäre Verschwendung, was ich für meinen Einsatzzweck nicht so sehe. Ist doch also alles beim Thema?!
Edit: Sind wir mal ehrlich, zwei mehr Kerne hätten es für RKL nun echt nicht rausgerissen, aber dafür wäre die CPU für OEMs teilweise richtig unbrauchbar geworden. Das passt schon so. Wer da mehr braucht kann immer noch zu anderen Alternativen am Markt greifen (CML oder ZEN3) oder nimmt sich Zeit bis Ende des Jahres.
Fusion_Power
2021-04-03, 15:21:30
Montag soll es den Treiber geben. (https://twitter.com/gfxlisa/status/1378084373241622528)
Aus der .zip soll es etwas umständlicher auch jetzt schon gehen. (https://www.reddit.com/r/intel/comments/mihc6d/intel_awkwardly_forgot_to_release_graphics/gt4s7y2/?context=3)
Trotzdem sehr strange von Intel. :hammer:
Ob der Treiber dann auch schon so brauchbar ist wie jener der XE Grafikeinheiten auf den mobilen Tiger Lake CPUs?
Abgesehen von den fehlenden Treibern ist ein iGPU doch praktisch und durchaus eine Aufwertung wert. Nicht unbedingt für ein Magazin namens PC Games Hardware welches Anwendungsbenchmarks ignoriert, aber es gibt genügend Fälle in denen es nur auf die CPU Leistung ankommt. Und da ist es dann eben von Vorteil keine extra Grafikkarte einbauen zu müssen.
Ich stelle mir kleine, kompaktere "NUC"-ähnliche Mini PCs vor mit etwas dickerer CPU, da würde also theoretisch so ein 35W Rocket Lake Modell gut passen. Und da könnte die XE Grafik glänzen. Wenn wohl auch kastriert im Vergleich zu den mobilen Tiger Lake Modellen mit bis zu 96 XUs. Die Desktop Modelle haben da leider deutlich weniger, warum auch immer.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.