Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Rocket Lake (14nm, max. 8C, "Cypress Cove" CPU-Kerne, Xe-Grafik, PCIe 4.0, 2021)
Ich bezweifle irgendwie, dass H45 dafür getaugt hätte, mit durchschnittlich so hohen Taktraten zu laufen.
Fetza
2021-03-24, 15:07:07
Also du kannst wie gesagt auch auf ein 490 zurückgreifen..
Z.b das msi meg 490, das ist ja auch rocket lake kompatibel und bietet dann auch pcie 4.0 ...
Bzw. Die offene spannungsversorgung ist von MSI garantiert..
Das Board ist etwas teuerer aber das Geld definitiv wert.
Ja, also dein Posting hatte ich schon gelesen und finde die Option auch interessant. Allerdings wird Rocket Lake auf dem Board ja sicher nicht ohne vorheriges Bios-Update booten.
Auf der anderen Seite gibt es ja auch schon Z590 Boards mit 3x m2 Slots (2x 3.0 4x und 1x 4.0 4x angebunden) für unter 150 Euro.
Mein MSI z590 startet direkt wieder mit dem Wasserkühlungs 4000w Preset als Default :D Und da es das "kleinste" aus der Reihe ist dürften wohl alle die Funktion weiterhin haben.
Nicht das ich was anderes als CPU Default mit 65w nutzen würde, aber da ist es aufjedenfall. Ich frag mich wirklich wie die Intel das mit den Specs ansieht wenn die MB hersteller direkt alles ignorieren, wäre dann theoretisch nicht sofort die Garantie futsch weil OC anliegt?
4000 Watt Preset? :eek: Ernsthaft? :eek: Ich wusste noch gar nicht, dass es sowas krankes überhaupt gibt! :freak:
dildo4u
2021-03-24, 15:09:31
Das High-End Modell Tiger Lake H maxt mit 5ghz, der Vorgänger ging auf 5.3.
https://blog.notebooksbilliger.de/intel-tiger-lake-h45-core-i9-11980hk-wird-das-spitzenmodell/
https://ark.intel.com/content/www/de/de/ark/products/201838/intel-core-i9-10980hk-processor-16m-cache-up-to-5-30-ghz.html
Ich vermute Tiger Lake ist im Notebook gerade so schneller schon deshalb da 3200 Ram nutzen kann, das spielt im Desktop kaum eine rolle da man bei Comet Lake 4000 Ram nutzen konnte wenn man wollte.
Das High-End Modell Tiger Lake H maxt mit 5ghz, der Vorgänger ging auf 5.3.
https://blog.notebooksbilliger.de/intel-tiger-lake-h45-core-i9-11980hk-wird-das-spitzenmodell/
https://ark.intel.com/content/www/de/de/ark/products/201838/intel-core-i9-10980hk-processor-16m-cache-up-to-5-30-ghz.html
Ich vermute Tiger Lake ist im Notebook gerade so schneller schon deshalb da 3200 Ram nutzen kann, das spielt im Desktop kaum eine rolle da man bei Comet Lake 4000 Ram nutzen konnte wenn man wollte.
Der schafft das auf wenigen Kernen. Im Desktop schafft RKL aber 5,3GHz und er schafft hohe Takte auf allen Kernen. Wenn du das gleiche mit TGL H45 probierst gehe ich jede Wette ein, dass die Ausbeute super gering ist, was bedeutet, du musst mit den Durchschnittstaktraten runter. RKL ist bei hoher TDP einfach schneller, weil er höher takten kann.
Er funktioniert ja dann aber auch wiederum nicht gut mit total geringen TDPs, weswegen der ja H45 heißt. Ihr überschätzt das Ding. Die Ausbeute für Desktop-fähige TGL H45 muss so derart gering sein, dass man den gar nicht in den Desktop bringt, sonst hätte man ja sowas wie bei Broadwell machen können.
Im Notebook läuft der um die >=3GHz unter Last, erheblich weniger mit AVX, im Desktop muss mindestens 4,5 GHz allcore drin sein!
Badesalz
2021-03-25, 13:23:40
Der Test den ich jetzt auf Nexus erwischte ("Waste of Sand"), auch wenn man das gesprochene Wort auch komplett ausblendet, und sich dabei nur auf einen Vergleich zwischen 11700k und 10700k konzentriert...
CypressCove... Nö ist klar. Was für ein peinlicher PR-Schwachsinn.
y33H@
2021-03-25, 14:55:45
Die Werte von Gamers Nexus kann ich nicht bestätigen, mag an Board/Firmware liegen.
blaidd
2021-03-25, 15:06:40
4000 Watt Preset? :eek: Ernsthaft? :eek: Ich wusste noch gar nicht, dass es sowas krankes überhaupt gibt! :freak:
Eigentlich sogar 4.096 Watt ;)
Ich bin beim Lesen allerdings auch fast von Stuhl gefallen...
*Schnipp*
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74717&stc=1&d=1616681171
Schnoesel
2021-03-25, 15:11:09
Man stelle sich vor das neue Auto wird als Standard mit Slicks audgeliefert, wenn du nicht innerhalb von Sekunden das zuvor im Konfigurator geändert hats. Gibt dann auch die beste Performance ... bis es regnet. Sowas nennt man grob fahrlässig.
BlacKi
2021-03-25, 15:20:21
ach leute, als würden die verglühen...
ob hier 4096w oder 4096 mio w eingetragen werden spielt doch keine rolle.
Fetza
2021-03-25, 15:34:24
Die Werte von Gamers Nexus kann ich nicht bestätigen, mag an Board/Firmware liegen.
Das klingt ja irgendwie nach besseren Werten bei Euch. :)
Eigentlich sogar 4.096 Watt ;)
Ich bin beim Lesen allerdings auch fast von Stuhl gefallen...
*Schnipp*
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74717&stc=1&d=1616681171
Na damit wäre ein solches System auf jeden Fall eine gute Heizung für die Übergangsphase zwischen den Jahreszeiten. :D
y33H@
2021-03-25, 15:35:40
Eigentlich sogar 4.096 Watt ... ich bin beim Lesen allerdings auch fast von Stuhl gefallen ...Das ist ja grundsätzlich nicht neu, gibt's schon seit CFL-S bzw Refresh ^^
Badesalz
2021-03-25, 17:50:27
Die Werte von Gamers Nexus kann ich nicht bestätigen, mag an Board/Firmware liegen.Ist bei dir der 10700k schneller?...
Was soll mit solchen Boards sein? Und was könnte das Bios damit zu tun haben? Solche, die mit TDP strengst nach Datenblatt umgehen?
y33H@
2021-03-25, 18:05:15
Ich hab beides gemessen, also PL1/PL2/TAU nach Intel Spec und halt volle Pulle noch.
Cubitus
2021-03-25, 18:22:39
Ja, also dein Posting hatte ich schon gelesen und finde die Option auch interessant. Allerdings wird Rocket Lake auf dem Board ja sicher nicht ohne vorheriges Bios-Update booten.
Auf der anderen Seite gibt es ja auch schon Z590 Boards mit 3x m2 Slots (2x 3.0 4x und 1x 4.0 4x angebunden) für unter 150 Euro.
4000 Watt Preset? :eek: Ernsthaft? :eek: Ich wusste noch gar nicht, dass es sowas krankes überhaupt gibt! :freak:
Das mit dem Bios ist ein guter Punkt :uponder:
Virtual
2021-03-25, 22:39:20
Ich werfe nachher das B560 auf den Tisch und gucke, weil wenn man DDR4-3600 als Gear1 fahren kann, braucht's kein Z590.
B560 oder Z590 ... DDR-3600 als Gear1 ist außerhalb der Spezifikationen, muss nicht Bestand haben. Intel toleriert zwar auch volle Pulle, denn es dient ja 'nem gutem Zweck, aber um den 11700K vom 11900K wirksam zu trennen, kann es jederzeit wieder verschwinden, falls der adaptive Boost ABT nicht reicht.
basix
2021-03-25, 22:57:03
Das ist ja grundsätzlich nicht neu, gibt's schon seit CFL-S bzw Refresh ^^
Nö *auf X99 schiel* :D
dildo4u
2021-03-26, 10:15:53
I9 und i7 im Passmark.
https://www.cpubenchmark.net/singleThread.html
Badesalz
2021-03-26, 11:15:47
Die Werte von Gamers Nexus kann ich nicht bestätigen, mag an Board/Firmware liegen.Dann weiß ich nicht was du da machst und wozu überhaupt. HwUnboxed hat sich das auch mal angeschaut. Nennst du das einen "Unterschied", was da zwischen 10700 und 11700 liegt? Mit Gear1 erwürgte 4% und mit Gear1 irgendwas mikriges hinterm Koma?
Sowas kann man 10770 nennen, aber nicht 11700. Hauptsache irgendwas herumgefummelt um im Gespräch zu bleiben. Was man ja machen kann. Das Teil kostet aber knapp über 140€ mehr als 10700k.
Denen ist echt garnichts mehr peinlich. Ich hätte vielleicht ab und zu wenigstens Mitleid gezeigt, wenn die Preisgestaltung nicht so dreist wäre. Das kratzt ja fast schon an Betrug.
BlacKi
2021-03-26, 11:19:14
einfach nochmal die paar tage stillhalten und auf die finalen reviews mit dem finalen bios warten. dann kann man immernoch drauf rumreiten^^
Badesalz
2021-03-26, 11:28:18
An sich ja :smile: Warum aber Tester ihre Sachen raushauen können bzw. dürfen wo angeblich und vermeindlich die Biose noch STARK :rolleyes: bremsen, das verwundert schon.
Was meinst du was ein Bios alles bringen kann? Sind mit den aktuellen Biosen 1/4 der ALUs deaktiviert oder was soll da kommen?
dildo4u
2021-03-26, 11:32:09
Die größeren Unterschiede kommen davon das sich nicht alle Boardhersteller an die 56 Sekunden Boost halten sondern dauerhaft 200 Watt ziehen, nicht davon das Intel 1-2% Performance mit Microcode Updates holt.
BlacKi
2021-03-26, 11:32:10
An sich ja :smile: Warum aber Tester ihre Sachen raushauen können bzw. dürfen wo angeblich und vermeindlich die Biose noch STARK :rolleyes: bremsen, das verwundert schon.
Was meinst du was ein Bios alles bringen kann? Sind mit den aktuellen Biosen 1/4 der ALUs deaktiviert oder was soll da kommen?
mark hat doch schon ausgeführt, dass das bei ihm anders aussieht.
dildo4u
2021-03-26, 11:32:43
Weil sein Board nicht auf 125 Watt drosselt.
https://youtu.be/S_-p5Zq9u9c?t=1012
Badesalz
2021-03-26, 11:39:44
mark hat doch schon ausgeführt, dass das bei ihm anders aussieht.Der hätte sich damals lieber bei Apple fürs Labor als unsere Geheimwaffe bewerben sollen. Dann hätte man sich jetzt nicht wegen M1 Gedanken machen müssen, weil Apple weiterhin x86 nutzen würde...
BlacKi
2021-03-26, 11:41:00
@dildo das bezweifle ich.
davon mal abgesehen, wer lässt hier seinen k stock laufen? die werte interessieren mich nichtmal.
dildo4u
2021-03-26, 11:45:03
Es könnte sein das 10 Gen nicht schlechter ist aber so aussieht weil RL mehr Strom zieht, daher muss man aufpassen was man testet.
10 Gen Intel ist so billig das man damit besser fährt wenn man PCI-E 4.0 nicht braucht/will.
BlacKi
2021-03-26, 11:49:21
ich würde mir rocketlake garnicht mehr kaufen. imho steht alderlake dafür zu nah vor der tür. und wenn ich aufs geld schaue weil mir ddr5 zu teuer wird, dann kann ich auch bei comet oder r5000 bleiben.
vinacis_vivids
2021-03-26, 12:16:29
Nur mal so angemerkt: PCI-E 4.0 Zugriffe bspw. auf den VRAM der GPU für rBar zieht bei Intel auch mehr Strom. Bei einer TDP von 125W hat sicherlich der Peak-Takt eine gewisse Präferenz. Und nach wie vor ist eine iGPU vorhanden, die auch versorgt werden will.
Alles in allen sehr viele Nachteile, die man so mitschleppt und mit bezahlen muss als Desktop-Gamer.
Ein Ryzen 7 2700 mit 65W von 2018 hält sicherlich noch sehr gut mit dem neuesten Intel mit, wenn man die Spiele-Test mit einer AMD-Karte und low-lvl API durchtestet.
Ich vermute mal dass Intel 8C/16T ~ 65W auf dem Level von AMD im Jahre 2018 liegt. Also ungefähr 3 Jahre zurück.
w0mbat
2021-03-26, 12:21:05
Noch vier mal Schlafen, dann wissen wir mehr. Bis dahin einfach mal die Füße still halten :)
Badesalz
2021-03-26, 12:24:43
@vinacis_vivids
Real ist man da imho irgendwo um die 150W in dem Fall.
Weil sein Board nicht auf 125 Watt drosselt.Vernünftig lesen. Er hat schon gesagt, er hat nach beiden messen können. Also 1x nach Datenblatt und 1x "volle Pulle", und die Ergebnisse anders als auf Nexus aussehen. Und damit wohl auch anders als auf HwUnboxed (?)
Wobei bis dahin sollte man wirklich mit den Mutmassungen nicht übertreiben. Es kann ja sein, daß nach Datenblatt der Architekturen getestet, wirklich like a pro vergliechen wurde und der 10700k bei ihm gleich schnell mit dem 11700k ist.
davon mal abgesehen, wer lässt hier seinen k stock laufen? die werte interessieren mich nichtmal.Wenn in Cypres mehr Potenzial steckt, warum liegt der ab Werk-Turbo da wo er eben liegt? (und vergliechen mit 10700k...).
Was erwartest du also? =) Daß 5.8 Ghz gehen? Oder, daß sobald man mit OC anfängt, pro 1Mhz plötzlich mehr geleistet wird als ohne OC?
Das ist der nächste Abfall (hier mal nicht als Müll gemeint) von Xeons Gabentisch. Das erwähnenswerte bei Cypres ist bisher imho, daß AVX bisschen mehr leistet und bisschen weniger zieht. Ist zwar ok, würde aber immernoch eher einem 10770k gerecht als diesem Schwachsinn mit der Cypres-PR.
Nun gut. Bis später.
edit @all
Nochmal. Wenn so ein Ding 40€ mehr kosten würde, ok. Läuft dann über die Features und nicht über eine Mehrleistung. Aber knapp über 140€ MEHR für eine Nullnummer bei der wahrnehmbaren Mehrleistung - also die Art von Leuten die sie mal groß gemacht haben nun auch noch so richtig ausnehmen wollen - ist ein übler Joke.
BlacKi
2021-03-26, 12:37:04
wie kannst du den preis jetzt schon vergleichen? lass doch erstmal MF listen um einen preisvergleich anzustellen.
wir kennen die kommenden preise nicht, wir kennen die performance nicht. nicht, das ihr nächste woche kommando zurück müsst ;)
Badesalz
2021-03-26, 12:43:58
wie kannst du den preis jetzt schon vergleichen? lass doch erstmal MF listen um einen preisvergleich anzustellen.
wir kennen die kommenden preise nicht, wir kennen die performance nicht. nicht, das ihr nächste woche kommando zurück müsst ;)Ja gut. Das wäre natürlich ein kardinaler Fehler.
Da ich aber verheiratet bin hab ich dann jemanden, der das immer gerne auf Zuruf macht, wenn es darum geht mich in den A... zu treten.
Ich melde mich dann ggf. wie es gelaufen ist :wink:
Fetza
2021-03-26, 17:48:00
@vinacis_vivids
Das ist der nächste Abfall (hier mal nicht als Müll gemeint) von Xeons Gabentisch. Das erwähnenswerte bei Cypres ist bisher imho, daß AVX bisschen mehr leistet und bisschen weniger zieht. Ist zwar ok, würde aber immernoch eher einem 10770k gerecht als diesem Schwachsinn mit der Cypres-PR.
AVX 512 leistet nicht ein bisschen mehr, sondern ist in den entsprechenden Anwendungsszenarios um mehrere Faktoren schneller.
Rocket Lake bietet eine Vielzahl an Verbesserung im Bereich der IT-Sicherheit und die dazugehörigen Chipsätze bieten deutlich mehr Features als Comet Lake und die 4xx Chipsätze.
https://www.golem.de/news/11th-gen-core-das-kann-intels-rocket-lake-2103-154928.html
https://www.pcgameshardware.de/Mainboard-Hardware-154107/Specials/intel-500-series-pchs-1368771/
Rocket Lake ist nunmal eine echte neue Prozessorgeneration, in alter (extrem :D) gereifter Fertigungstechnik. Das sollte man in einem Hardwareforum schon verstehen können.
Ich würde mir auf keinen Fall mehr Comet Lake kaufen. Featuretechnisch ist die Plattform einfach outdated. Rocket Lake ist hingegen modern.
Ich bin nach wie vor der Überzeugung, dass der 11400F sowie der 11700F extrem konkurrenzfähig sein werden.
Cubitus
2021-03-26, 18:10:20
Och der Comat Lake ist schon auch ziemlich Feature Reich..
Einzig PCIE 4.0 aber ganz ehrlich da ist der FPS Impact relativ klein..
Ich finde den Preis für nen 10 Kerner halt schon geil..
Ansonsten gibts jetzt schon BAR Support..
und Intels sind per se keine Strom Fresser, vorallem im Idlen und beim Spielen, obwohl das die AMD Jünger ja alle samt glauben.. ;D
Meine 10900F verbraucht bei einer ganzen Nacht BL3 z.b AVG 52 Watt
und das bei stellenweise All-Core auf 4,8 Ghz..
Die Mär vom Stromschlucker Intel hält sich einfach hartnäckig.
Aber Gaming ist halt kein Prime oder Cinebench.. :rolleyes:
Hier mal ein Idle Betrieb, von Heute, einzig YT lief für die Musik..
der ach so stromhungrige Comet Lake der im pösen Prime 230 Watt aus der Steckdose zieht, kann doch ganz handzahm sein ;D
https://abload.de/img/2021-03-2617_57_50-eifrjab.png (https://abload.de/image.php?img=2021-03-2617_57_50-eifrjab.png)
Aber warum poste ich eigl das Bild, HW Info ist eh nicht verlässlich xD Vermutlich ist das Komma nur falsch gesetzt, verdammte Beta...
Blediator16
2021-03-26, 20:07:26
Was sparst du denn jetzt am Ende nach deinem Plattformwechsel?
Cubitus
2021-03-27, 02:28:17
Zeit und Nerven... :wink:
[...]
Vernünftig lesen. Er hat schon gesagt, er hat nach beiden messen können. Also 1x nach Datenblatt und 1x "volle Pulle", und die Ergebnisse anders als auf Nexus aussehen. Und damit wohl auch anders als auf HwUnboxed (?)
[...]
Man sollte sich das Video auch mal anschauen, denn genau darum geht es ja in dem Video. Nexus testet immer mit Intel-Grenzen aktiv und haben festgestellt, dass das Board sich nicht daran hält. Man hat daher ein anderes Board besorgt, das sich daran hält und dann diese Ergebnisse bekommen.
Intel Propagandist Cubitus :freak:. Es ist halt schon bezeichnend auf ein langsameres System zu wechseln, das weniger Features bietet, und da noch mal zusätzliches Geld für auszugeben nur weil OC nicht funktioniert hat...
Fetza
AVX512 ist irrelevant für den Consumer-Markt und für alle anderen Märkte eigentlich auch. Es gibt unfassbar wenig Anwendungsfälle dafür. Und es ist im Normalfall auch nicht soviel schneller. Da sollte man vielleicht nicht allzusehr auf Intels Marketing reinfallen.
Skysnake
2021-03-27, 09:42:53
Fetza
AVX512 ist irrelevant für den Consumer-Markt und für alle anderen Märkte eigentlich auch. Es gibt unfassbar wenig Anwendungsfälle dafür. Und es ist im Normalfall auch nicht soviel schneller. Da sollte man vielleicht nicht allzusehr auf Intels Marketing reinfallen.
Ja es gibt schon Fälle wo es richtig was bringt, aber wenn man ganze Applikationen betrachtet und nicht nur einzelne Funktionen oder gar Clips, dann reduziert sich der Nutzen oft oder geht sogar ins Negative, einfach weil man Takt verliert bei der Nutzung von AVX512 und die Umschaltzeiten solange sind hat man eben Probleme. Ich kenne Leute die extra einzelne Funktionen in eigene Files auslagern, damit sie nur genau diese mit AVX512 compilieren können und den Rest ohne...
Bei consumer Software kannst du das doch total vergessen und selbst bei 99% der kommerziellen Software wird keiner den Aufwand treiben
vinacis_vivids
2021-03-27, 09:47:50
Zu AVX 512
https://www.zdnet.de/88381431/scharfe-kritik-an-intel-avx-512/
Das ist sozusagen Intels Marketing-Müll, das Serverbetreiber dazu bewegt hat AVX 512 abzuschalten.
"Basis für diese Entscheidung ist Cloudflares Beobachtung, dass der Intel-Chip seine Frequenz drosselt, wenn er AVX-Code ausführt, sodass andere Anwendungen entsprechend langsamer ablaufen."
Ist wie mein Lehrer es in der 6. Klasse erzählt hat. Vier Personen sitzen an einem großen Tisch mit kleiner Tischdecke. Wenn der eine an seiner Ecke zieht, hat der andere weniger Tischdecke.
Dass immer wieder Leute diese AVX Story`s für Laien rausholen, zeugt einfach davon wie schlecht Intel noch ist und wie wenig Intel zu bieten hat. Echte Techniker lachen halt drüber, nicht nur über den, der diese Storys verbreitet, sondern auch über die Welt der dummen Käufer.
r3ptil3
2021-03-27, 09:58:18
Gerade mal etwas durchgelesen: Bezüglich Gear 1 und RAM OC ab 3600 Mhz weiterhin keine Infos?
Wäre gut, wenn einer der Reviewer speziell RAM OC/Gear 1 und Undervolting analysiert. Könnte sein, dass UV bei Rocket Lake deutlich mehr bringt als bei Comet Lake.
Nach dem Launch. GN hat das ja auch schon so angekündigt.
BlacKi
2021-03-27, 11:34:51
Gerade mal etwas durchgelesen: Bezüglich Gear 1 und RAM OC ab 3600 Mhz weiterhin keine Infos?
Wäre gut, wenn einer der Reviewer speziell RAM OC/Gear 1 und Undervolting analysiert. Könnte sein, dass UV bei Rocket Lake deutlich mehr bringt als bei Comet Lake.UV verhalten ist zuviel verlangt^^ mit glück bekommt man core OC getestet, aber ram OC fähigkeiten muss man sich durch heft abos durchwühlen, oder besser, im nachhinein von usern(CB community) bringen lassen.
bbott
2021-03-27, 12:13:03
Och der Comat Lake ist schon auch ziemlich Feature Reich..
Einzig PCIE 4.0 aber ganz ehrlich da ist der FPS Impact relativ klein..
Ich finde den Preis für nen 10 Kerner halt schon geil..
Ansonsten gibts jetzt schon BAR Support..
und Intels sind per se keine Strom Fresser, vorallem im Idlen und beim Spielen, obwohl das die AMD Jünger ja alle samt glauben.. ;D
Meine 10900F verbraucht bei einer ganzen Nacht BL3 z.b AVG 52 Watt
und das bei stellenweise All-Core auf 4,8 Ghz..
Die Mär vom Stromschlucker Intel hält sich einfach hartnäckig.
Aber Gaming ist halt kein Prime oder Cinebench.. :rolleyes:
Hier mal ein Idle Betrieb, von Heute, einzig YT lief für die Musik..
der ach so stromhungrige Comet Lake der im pösen Prime 230 Watt aus der Steckdose zieht, kann doch ganz handzahm sein ;D
https://abload.de/img/2021-03-2617_57_50-eifrjab.png (https://abload.de/image.php?img=2021-03-2617_57_50-eifrjab.png)
Aber warum poste ich eigl das Bild, HW Info ist eh nicht verlässlich xD Vermutlich ist das Komma nur falsch gesetzt, verdammte Beta...
Die Watt Zahlen und mulit passen aber zu den Temps, nur deine GHz Angabe nicht ;-) Nimm lieber ein Strommessgerät, bevor du dich zu weit aus dem Fenster lehnst ;-)
r3ptil3
2021-03-27, 12:29:20
@Cubitus
Teste mal Cyberpunk (auch mit RT) und BF5, dann solltest du feststellen, weshalb Intel den Ruf hat.
Ich kam mit der Kombi RTX 3080 + 5900X bereits auf knapp 600 Watt ingame.
Freestaler
2021-03-27, 12:32:19
Lasst doch Cubitus. Er will weiterhin glauben, was er für richtig hält, nicht was richtig ist. Kommt ihm da bitte nicht mit Strommessgerät.
BlacKi
2021-03-27, 12:41:43
@Cubitus
Teste mal Cyberpunk (auch mit RT) und BF5, dann solltest du feststellen, weshalb Intel den Ruf hat.
Ich kam mit der Kombi RTX 3080 + 5900X bereits auf knapp 600 Watt ingame.
dafür das hier 5,1ghz anliegen sind die 140-160w eigentlich nicht viel, aber eigentlich schon worst case.
https://youtu.be/6yghp0y223I?t=823
r3ptil3
2021-03-27, 12:51:40
dafür das hier 5,1ghz anliegen sind die 140-160w eigentlich nicht viel, aber eigentlich schon worst case.
https://youtu.be/6yghp0y223I?t=823
Ich habe es übrigens in meinem Fall bei 3840x1600 getestet mit einem Strommessgerät.
BlacKi
2021-03-27, 13:11:06
whats your point? glaubst du dann zieht die cpu mehr?
r3ptil3
2021-03-27, 13:19:22
whats your point? glaubst du dann zieht die cpu mehr?
Ja, darum meinte ich: Cyberpunk und BF5.
Die unterscheiden sich schon deutlich vom Rest, was CPU Auslastung in hohen Auflösungen angeht.
1080p ist cool zu sehen, aber eigentlich nutzlos. Es zockt doch niemand in der Auflösung hier.
Ansonsten kann man auch gleich reine CPU Benchs ausführen, um den Vebrauch der CPU zu messen.
BlacKi
2021-03-27, 13:36:33
fhd mit dlss und rt psycho ist schon worst case wie ich schrieb
Fetza
2021-03-29, 00:30:51
Fetza
AVX512 ist irrelevant für den Consumer-Markt und für alle anderen Märkte eigentlich auch. Es gibt unfassbar wenig Anwendungsfälle dafür. Und es ist im Normalfall auch nicht soviel schneller. Da sollte man vielleicht nicht allzusehr auf Intels Marketing reinfallen.
Grundsätzlich hast Du ja recht (und Du verstehst ja von dem ganzen Kram eh viel mehr als ich). Ich habe hier ja schon selbst geschrieben, dass aktuell AVX512 für den Normalnutzer keine Bedeutung hat. Das ändert aber doch nichts daran, dass es gut ist dieses Feature in der CPU zu wissen, vor allem da es auch performant ausgeführt wird.
Und Anwendungsszenarien gibt es doch bereits, bzw. sie entstehen gerade:
- Wer mit Blender arbeitet wird AVX512 zu schätzen wissen.
- Wer Videoschnitt betreibt und die richtige Software verwendet (bald) ebenfalls.
- Spätestens bei Handbrake profitiert doch jeder von AVX512. Selbst wer nicht die neueste Vega Version nutzt profitiert somit direkt von diesem Feature.
- Dann gibt es mittlerweile auch Software, die AVX512 für Machine Learning im Kontext von Bildbearbeitung nutzt.
- Letztlich scheint ja sogar AMD auf den AVX512 aufzuspringen:
https://www.techpowerup.com/279129/amd-zen-4-microarchitecture-to-support-avx-512
Was braucht es mehr Gründe als die genannten um anzuerkennen, dass AVX512 einer modernen CPU-Architektur gut zu Gesicht steht?
Zu AVX 512
https://www.zdnet.de/88381431/scharfe-kritik-an-intel-avx-512/
Das ist sozusagen Intels Marketing-Müll, das Serverbetreiber dazu bewegt hat AVX 512 abzuschalten.
[...]
Dass immer wieder Leute diese AVX Story`s für Laien rausholen, zeugt einfach davon wie schlecht Intel noch ist und wie wenig Intel zu bieten hat. Echte Techniker lachen halt drüber, nicht nur über den, der diese Storys verbreitet, sondern auch über die Welt der dummen Käufer.
Möchtest Du nicht mal zu einer sachlichen Argumentation zurückfinden? :rolleyes: :facepalm:
Cubitus
2021-03-29, 01:35:21
@Cubitus
Teste mal Cyberpunk (auch mit RT) und BF5, dann solltest du feststellen, weshalb Intel den Ruf hat.
Ich kam mit der Kombi RTX 3080 + 5900X bereits auf knapp 600 Watt ingame.
Also Cyberpunk gerade gezoggt, komme nach einer halben Stunde auf ca 88 Watt Avg bei der CPU (All-Core 4,6-4,7) und mit meiner GPU ca auf 295 Watt AVG bei 1875 Mhz@850 mv... bei 3440*1440 und allem auf Psycho+RTX+DLSS
Leistungstechnisch habe ich zwischen 50-60 FPS.. mir reicht das ^^
dildo4u
2021-03-29, 13:41:05
Mehrere RL Modelle auf Lager.
https://www.proshop.de/CPU?pre=0&b=intel
Lehdro
2021-03-29, 13:56:28
Mehrere RL Modelle auf Lager.
https://www.proshop.de/CPU?pre=0&b=intel
550 € für den i9 - sportlich. Hoffentlich rechtfertigt er den Preis, ansonsten sieht es düster aus.
dildo4u
2021-03-29, 14:10:14
Die Mainstream Modelle sehen alle gut aus da AMD nix unter 300€ mit Zen 3 hat, der i9 ist natürlich uninteressant.
Daredevil
2021-03-29, 14:11:30
Wollte auch gerade sagen, der 6 Kerner sieht lecker aus. ^^
r3ptil3
2021-03-29, 14:15:25
Der 11400f für 165 Euro :cool:
Wäre in Kombination mit sehr gutem RAM, selbst für eine RTX 3080/3090 eine gute Wahl.
WedgeAntilles
2021-03-29, 15:04:19
550 € für den i9 - sportlich. Hoffentlich rechtfertigt er den Preis, ansonsten sieht es düster aus.
Wen interessiert der i9?
Klar, der ist völlig uninteressant für den Preis.
Ansonsten sind die Preise nicht übel, es gibt sowohl sehr günstige 6-Kerner als auch ordentliche 8-Kerner.
Jeweils mehr Leistung für den Euro als bei AMD.
Daredevil
2021-03-29, 15:11:34
Intel hat mit seinen Prozessoren halt verschiedene Taktstufen, die sie je nach Preis anbieten können. Der Max Takt steigt dabei immer mehr ein wenig an, das maximum ist halt 5.3Ghz.
Den gleichen Weg geht AMD auch, nur kombinieren sie das geschickter mit mehr Kernen.
Ein 5950x ist mit 16 Kernen total unsinnig fürs Gaming, da der Prozessor aber den höchsten Takt hat, ist das auch der schnellste.
Intel schwurbelt sich einfach drölf verschiedene 8c Versionen zusammen und macht die gleiche Sauce, das wirkt aber ( mal wieder ) unübersichtlich und schwammig und nervt mich total. :D
Gerade die Einschränkung, OC bei manchen Modellen zu "verbieten" zeigt immer noch sehr stark, das es Intel schlicht zu gut geht.
Ein offener 11400 "mit GPU" für 150€ und niemand würde auch nur den 5600x anschauen... aber nö, arrogantes Intel halt. ^^
Troyan
2021-03-29, 15:18:31
Wann kommen die Reviews? Morgen oder Mittwoch?
r3ptil3
2021-03-29, 15:23:42
"Offizieller Markstart für Rocket Lake-S ist bis dahin der 30. März 15 Uhr. Tests aller Modelle mit finalem BIOS (mit adaptivem Turbo) werden zum Marktstart erwartet."
https://www.computerbase.de/2021-03/intel-rocket-lake-s/#abschnitt_ramoverclocking_fuer_alle_cpus_auf_500er_boards
Fetza
2021-03-30, 02:08:15
Ein offener 11400 "mit GPU" für 150€ und niemand würde auch nur den 5600x anschauen... aber nö, arrogantes Intel halt. ^^
Och... Intel könnte die CPU auch gleich für 'nen Appel und 'n Ei raushauen. Da wäre AMD gleich mal richtg chancenlos! ;)
dildo4u
2021-03-30, 04:49:14
11900k 16000 Punkte im cb23 mit 5.1 GHz.
https://videocardz.com/press-release/gigabyte-b560-aorus-motherboards-can-overclock-core-i9-11900k-to-5-1-ghz-in-all-cores
Virtual
2021-03-30, 09:31:37
Wen interessiert der i9?
Klar, der ist völlig uninteressant für den Preis.
Ansonsten sind die Preise nicht übel, es gibt sowohl sehr günstige 6-Kerner als auch ordentliche 8-Kerner.
Jeweils mehr Leistung für den Euro als bei AMD.
Diese Metrik war in den vergangenen Jahren immer AMDs Verkaufsargument.
Jetzt ist Intel offensichtlicher der Billigheimer. Wie sich die Verhältnisse mit ZEN 3 doch umgekehrt haben.
Der Intel Corp. dürfte diese Metrik aber nicht ganz so gefallen wie deren Käuferschicht mit rot/grüner Farbenblindheit.
dildo4u
2021-03-30, 10:23:10
Mal sollte besser beten das die Intels was taugen.
Vom 3600 zum 5600X sinds mal Ebend + 80% Aufpreis für den selbe Core Count ein extrem schlechter Witz, mal sehen ob das Heute Abend noch haltbar ist.
Das ganze sollte für alle besser werden wenn Leute Intel High-End kaufen kann AMD vielleicht irgendwann auch mal die versprochenen 12 oder 16 Core Modelle liefern, da nicht alle Chips für 5800X/5600X draufgehen.
r3ptil3
2021-03-30, 10:27:32
Mal sollte besser beten das die Intels was taugen.
Vom 3600 zum 5600X sinds mal Ebend + 80% Aufpreis für den selbe Core Count ein extrem schlechter Witz, mal sehen ob das Heute Abend noch haltbar ist.
Das ganze sollte für alle besser werden wenn Leute Intel High-End kaufen kann AMD vielleicht irgendwann auch mal die versprochenen 12 oder 16 Core Modelle liefern, da nicht alle Chips für 5800X/5600X draufgehen.
Auch vor den Reviews kann man fast schon ziemlich sicher sagen, dass für sehr preisbewusste Kunden, ein 11400f die Empfehlung ist.
Hier in der CH lagernd und für den HALBEN Preis eines 5600X verfügbar.
Da könnte ich mir echt überlegen, den 5600x zu verkaufen und für das Geld einen 11400f + B560 Board zu holen. :freak:
Einen 11700f gibt's übrigens genau zum Preis eines 5600X... Verbrauch hin oder her, das sind 2 Kerne bzw. 4 Threads mehr.
Troyan
2021-03-30, 10:39:51
"Offizieller Markstart für Rocket Lake-S ist bis dahin der 30. März 15 Uhr. Tests aller Modelle mit finalem BIOS (mit adaptivem Turbo) werden zum Marktstart erwartet."
https://www.computerbase.de/2021-03/intel-rocket-lake-s/#abschnitt_ramoverclocking_fuer_alle_cpus_auf_500er_boards
Top, danke. Heute also.
WedgeAntilles
2021-03-30, 10:44:08
I
Intel schwurbelt sich einfach drölf verschiedene 8c Versionen zusammen und macht die gleiche Sauce, das wirkt aber ( mal wieder ) unübersichtlich und schwammig und nervt mich total. :D
Oh ja, die Namensgebung bei Intel ist mit "Krankheit" noch sehr nett beschrieben.
Bei AMD kann man zumindest halbwegs am Namen erkennen um was es geht.
3600 - 6 Kerner
5600 - 6 Kerner
3800 - 8 Kerner
5800 - 8 Kerner
Klar, der 3700 ist kein 7-Kerner, halt ein etwas langsamerer 8 Kerner.
Nicht perfekt die Namensgebung, aber zumindest ein Teil davon ist einfach und übersichtlich.
Intel? Falls das Ziel ist die maximal Intransparenz zu erreichen - Gratulation, das dürftet ihr geschafft haben.
Und das ist ja schon seit Jahren so.
Eine Namensgebung aus der Höllle (ähnlich wie bei der X-Box. X-Box. X-Box 1X. X-Box Series X. Dudes, seriously? Da lobe ich mir noch Playstation 1-5. Und die bessere Version dann halt "pro")
Ich hasse das und ganz ehrlich: Wenn ich erstmal mehrere Minuten mich durch ein Namensschema kämpfen muss um zu kapieren was ich jetzt vor mir habe - da ist der Schritt zu: "Leckt mich doch am Arsch und behaltet euren Dreck, ich kauf mir das Konkurrenzprodukt" nicht mehr sooo weit weg.
Cubitus
2021-03-30, 11:31:22
Einen 11700f gibt's übrigens genau zum Preis eines 5600X... Verbrauch hin oder her, das sind 2 Kerne bzw. 4 Threads mehr.
Hoi etwas ganz was neues, dass man bei Intel plötzlich mehr fürs Geld bekommt ;D
+ Man bekommt einen aus gereifteren Unterbau im Gegensatz zu der x570er Plattform... Ich fühl mich hier im 3DC stellenweise wie Kassandra :usad:
https://de.wikipedia.org/wiki/Kassandra_(Mythologie)
w0mbat
2021-03-30, 11:47:26
Naja, ein 10700K ist in Spielen langsamer als ein 5600X und verbraucht über 60% mehr Strom (unter AVX sogar deutlich mehr als doppelt soviel!). Dazu hat er die schlechtere Plattform und kann zB kein PCIe gen4. Klar, dass der billiger ist, ist einfach das deutlich schlechtere Produkt.
WedgeAntilles
2021-03-30, 11:53:59
Naja, ein 10700K ist in Spielen langsamer als ein 5600X und verbraucht über 60% mehr Strom (unter AVX sogar deutlich mehr als doppelt soviel!).
Das stimmt so pauschal nicht.
Es gibt Szenarien wo er deutlich mehr Strom braucht - in anderen Szenarien nimmt es sich nicht viel.
Da du aber im Jahr wohl kaum ausschließlich Worst-Case Szenarien hast, hast du unterm Strich einen etwas höheren Stromverbrauch.
Der aber meilenweit von 60% entfernt ist.
Eine Pauschalaussage: Braucht 60% mehr Strom suggeriert etwas völlig falsches und ist damit schlicht gelogen.
Stichwort: Wie lüge ich mit Statistik.
Traue keiner Statistik die du nicht selbst gefälscht hast :biggrin:
M.f.G. JVC
Cubitus
2021-03-30, 11:59:15
Naja, ein 10700K ist in Spielen langsamer als ein 5600X und verbraucht über 60% mehr Strom (unter AVX sogar deutlich mehr als doppelt soviel!). Dazu hat er die schlechtere Plattform und kann zB kein PCIe gen4. Klar, dass der billiger ist, ist einfach das deutlich schlechtere Produkt.
Wie oft denn noch im cinebench ... und im prime...
Bei den Games wird die CPU anders belastet und ist mit einer synthestischen Benchmark-Leistung eigl nicht zu vergleichen..
Ich sage nicht das die Architektur besser ist, aber es sind einfach zu viele Faktoren abhängig.. Manche Intel User prügeln Allcore weit über 5 Ghz immer. Damit ist das System schneller und der Verbrauch hoch..
Gibt aber so Typen wie mich, die kaufen sich ne 65 Watt Intel CPU drehen den Strom Hahn auf und begnügen sich dann mit einer Leistung von 4,6 - 4,8 Ghz All-Core was im Verhältnis zu nem dicken 12 Kerner z.b bei AMD nicht unbedingt mehr Strom verbraucht, aber die Spiele nicht mal meine 10 Kerne komplett abrufen sondern sich im Endeffekt auf 6-8 Kerne begnügen..
Die Leistung ist somit quasi identisch und der Verbrauch geringer..
Vergleicht man mit der exakten Anzahl der Cores, + der exakten Ghz Anzahl dann ist AMD da sicherlich schneller,
aber der Intel ist auch nicht wesentlich langsamer bei etwas mehr Stromverbrauch.. Dafür im Preis aber doch schon günstiger..
Also ist ist nicht immer alles so schwarz und weiß...
Zudem bin ich von der "Fachpresse" ziemlich enttäuscht das Niveau ist merklich gesunken..
MiamiNice
2021-03-30, 12:03:20
Ich fühl mich hier im 3DC stellenweise wie Kassandra :usad:
Liegt daran das Du Kassandra bist :eek:
robbitop
2021-03-30, 12:03:29
Also in Spielen ist der 5600X 4% vor dem 10700K bei CB im 720p Performance Rating:
https://www.computerbase.de/2020-11/amd-ryzen-5000-test/4/#abschnitt_amd_ryzen_vs_intel_core_in_720p
Der 5800X legt da noch was drauf und ist 9% vor dem 10700K.
Wenn Spiele irgendwann mal >8 Threads intensiv nutzen, kann es auch passieren, dass der 10700K vor dem 5600X liegen könnte.
Leistungsaufnahme bei Spielen gibt es in dem Test leider nicht. Ich tippe aber mal darauf, dass in Spielen die Differenz in Bezug auf TDP nicht so groß sein wird.
dildo4u
2021-03-30, 12:03:37
Sein vergleich Macht eh kein Sinn da AMD keine IGP hat, Intel ist unschlagbar was Preis/Leistung angeht wenn man KF Modelle betrachtet.
Daredevil
2021-03-30, 12:05:15
Naja, ein 10700K ist in Spielen langsamer als ein 5600X und verbraucht über 60% mehr Strom (unter AVX sogar deutlich mehr als doppelt soviel!). Dazu hat er die schlechtere Plattform und kann zB kein PCIe gen4. Klar, dass der billiger ist, ist einfach das deutlich schlechtere Produkt.
Hier ist ja auch die Rede vom 11700
x-force
2021-03-30, 12:10:03
Wie oft denn noch im cinebench ... und im prime...
cinebench ist komplett schwachsinn, prime ist einzig als stabilitätstest für oc interessant, was die amd jünger natürlich nicht davon abhält, diese beiden aaa games rund um die uhr zu zocken :wink:
aufkrawall
2021-03-30, 12:39:22
Ob man dem 11400F wohl noch etwas Leistung entlocken kann? RAM-OC mit dem P-Chipsatz bis 3800, ohne Teiler-Gedöns?
Schnoesel
2021-03-30, 12:40:24
Mein Gott Cubitus kann einfach seinen Bullshit nicht lassen. Wenn ich 5 Jahre lang keinen Architekturwechsel habe, dann sollte das auch langsam alles funktionieren und zwar potentiell besser als bei einer neuen Architektur. Das wird nämlich alles andere als Rund laufen bei Intel laut Volker:
https://www.computerbase.de/forum/threads/intel-rocket-lake-s-das-sind-die-19-core-i-11000-mit-neuer-architektur-in-14-nm.2011529/page-25#post-25470730
"Das BIOS-Spiel ist hier noch lange nicht zu Ende, es ist wie beim Start von Zen 1 damals, die Plattform ist total unfertig. AMD hat seitdem aber gelernt, Intel hat es zuvor zehn Jahre gut gemacht und nun das °_°"
Aber als Intelfan wird man das sicherlich nicht einsehen wollen.
davidzo
2021-03-30, 12:55:15
Das stimmt so pauschal nicht.
Es gibt Szenarien wo er deutlich mehr Strom braucht - in anderen Szenarien nimmt es sich nicht viel.
Es ist aber durchaus vorhanden. Zwischen 5600x und 10700K respektive 5800x und 10900K liegen auch in Games gute 20Watt:
https://www.techpowerup.com/review/amd-ryzen-5-5600x/19.html
Das sind im Jahr bei 4h Nutzung am Tag immerhin 10€ Stromkosten die der Intel teurer ist. Und wenn du neben Gaming auch renderst, transcodierst, etc. werden das schnell mal 50Watt Differenz statt der 20W.
Die 10€ an Strom pro Jahr stören mich als Midrangekäufer weniger, aber eher schon der Wiederverkaufswert eine solchen stromfressenden CPU in einigen Jahren. Niemand will eine heiße, laute, hochgezüchtete gaming CPU für einen OfficePC oder als Wohnzimmersystem.
Gibt aber so Typen wie mich, die kaufen sich ne 65 Watt Intel CPU drehen den Strom Hahn auf und begnügen sich dann mit einer Leistung von 4,6 - 4,8 Ghz All-Core was im Verhältnis zu nem dicken 12 Kerner z.b bei AMD nicht unbedingt mehr Strom verbraucht, aber die Spiele nicht mal meine 10 Kerne komplett abrufen sondern sich im Endeffekt auf 6-8 Kerne begnügen..
Die Leistung ist somit quasi identisch und der Verbrauch geringer..
Vergleicht man mit der exakten Anzahl der Cores, + der exakten Ghz Anzahl dann ist AMD da sicherlich schneller,
aber der Intel ist auch nicht wesentlich langsamer bei etwas mehr Stromverbrauch.. Dafür im Preis aber doch schon günstiger..
Vergleichst du über CPU Segmente hinweg die leistung und energieffizienz in Spielen?
Das ist ziemlich bullshit, denn genau wie du sagst hängt das davon ab ob die Software überhaupt genug Threads auslasten kann um z.B. einen 5950x anzusteuern. Das sind eher HEDT CPUs, AMDs explizite gaming CPUs sind der 5600x, 5800x und z.T. vermarktet man auch noch den 5900x als gaming CPU. Der 5950x wird eher für Poweruser (Video workstation, Streamer, etc,) angepriesen.
Andererseits hinkt auch dein unfairer vergleich, denn in gaming ist der 5900x Immer noch fast 20watt sparsamer als ein deutlich langsamerer 10900K oder 10700K, ja sogar als ein 65Watt 10700 nonK: https://www.techpowerup.com/review/amd-ryzen-9-5900x/19.html
aufkrawall
2021-03-30, 12:59:11
An der Steckdose mit dem gemittelten Gesamtsystemverbrauch ist der Verbrauch der CPU in Spielen wirklich nicht besonders wichtig. Intel hat viele Fans/Fanboys, der Wiederverkaufswert auf ebay sollte kein Problem sein.
dildo4u
2021-03-30, 13:03:20
Bei Techpowerup fehlt dem 10700 (65w Watt SKU) 1% zum 5600X ist passt doch wenn man keine Heizer will.
Linmoum
2021-03-30, 13:06:33
https://www.computerbase.de/forum/threads/intel-rocket-lake-s-das-sind-die-19-core-i-11000-mit-neuer-architektur-in-14-nm.2011529/page-25#post-25470730
"Das BIOS-Spiel ist hier noch lange nicht zu Ende, es ist wie beim Start von Zen 1 damals, die Plattform ist total unfertig. AMD hat seitdem aber gelernt, Intel hat es zuvor zehn Jahre gut gemacht und nun das °_°"
Amüsant ist es, wie sich zuletzt hier und da über AM4/X570 beschwert wurde und man auf Intel verwiesen hat, die es ja all die Jahre besser gemacht haben. Ja, warum wohl. Ewig keine neue Architektur und Skylake-Aufguss Nummer 214 und ewig nur PCIe 3.0. Beides ändert sich auch jetzt bei Intel mit RKL.
Und plötzlich fangen die Probleme an. Kurios. Dabei war doch eigentlich zu 100% davon auszugehen, dass das doch wegen all der letzten Jahre problemlos bei Intel laufen muss und wird. /scnr
Daredevil
2021-03-30, 13:13:54
Was hat MSI eigentlich für ein Problem?
https://gzhls.at/i/85/94/2468594-n0.jpg
Findste doch nix wieder auf dem Mainboard, wtf
Screemer
2021-03-30, 13:15:58
Hast du schon mal was auf nem Mainboard verloren?
mironicus
2021-03-30, 13:21:25
Ich finds ja lustig, das Intel jetzt PCIe 4.0 unterstützt und dann Ende des Jahres schon PCIe 5.0.
Rocket Lake sollte man einfach nur überspringen.
Daredevil
2021-03-30, 13:21:32
Ich finde gerade den Sinn des "PCI_PWR" Anschlusses da unten nicht. :D
Und CMOS Clear finden auf dem Mobo ist doch der Horror.
Lass dir mal ne M2 Schraube auf das Mobo fallen, die ist für immer verloren.
WedgeAntilles
2021-03-30, 13:27:48
Es ist aber durchaus vorhanden. Zwischen 5600x und 10700K respektive 5800x und 10900K liegen auch in Games gute 20Watt:
https://www.techpowerup.com/review/amd-ryzen-5-5600x/19.html
Da sind wir aber Lichtjahre von den 60% entfernt.
Und ganz pauschal - was interessieren 20 Watt? 10 Euro im Jahr?
Ernsthaft?
Das ist doch als Kaufargument fast noch hinter "Der Verpackungskarton ist schöner".
Die AMD Fanatiker tun hier so, als bräuchte man für Intel ein neues Kraftwerk im Keller - und dann sind es 10 Euro Stromkosten im Jahr.
Wofür ich bei AMD 50-150 Euro Aufpreis zahlen soll.
Also brauche ich ca. 10 Jahre bis sich das amortisiert.
Wissen die Leute es nicht besser oder wird bewusst gelogen?
Wiederverkaufswert ist natürlich nicht unwichtig, aber Intel verkauft sich generell besser als AMD - und wenn du weniger Anschaffungskosten hast brauchst du natürlich auch weniger Wiederverkaufswert um besser dazustehen.
Der absolute Wertverlust eines günstigen 6-Kerner oder 8-Kerner Rocketlake dürfte unter dem absoluten Wertverlust des 5600X bzw. 5800X sein.
Wenn ich nur 165 Euro für den 6-kerner zahle - was für nen Wiederverkaufswert habe ich da in 3 Jahren?
80 Euro locker.
Dann hätte ich 85 Euro Wertverlust.
Glaubst du ernsthaft du kannst im Vergleich dazu den 5600X mit 85 Euro Wertverlust noch verkaufen? Also für 250 Euro? Wenn es den RL in meinem Beispiel für 80 Euro gibt? Oder nicht doch eher für 200 Euro Maximum? Dann ist dein Wertverlust prozentual zwar niedriger - aber absolut verlierst du beim RL 85 Euro und beim 5600X 130 Euro.
Überteuerte Hardware hat immer einen höheren Wertverlust - nicht zwingend prozentual, aber immer absolut.
davidzo
2021-03-30, 14:03:38
Und ganz pauschal - was interessieren 20 Watt? 10 Euro im Jahr?
Ernsthaft?
Naja, die meisten hier nutzen ihre CPU 3-5 Jahre. Das sind immerhin 30-50€ die ich auch gleich in die bessere CPU investieren kann. Und ganz nebenbei ist das auch viel besser für die Umwelt, man hat weniger Abwärme im Gehäuse, weniger Geräuschpegel, günstigeres Netzteil, board, etc.
Wofür ich bei AMD 50-150 Euro Aufpreis zahlen soll.
Bullshit, der 10700K kostet genau soviel wie ein 5600x und vergleichbar ausgestattete AM4 boards sind auch eher günstiger als bei Intel.
w0mbat
2021-03-30, 14:04:30
Das Argument "fast genauso schnell und wen interessiert schon der Stromverbrauch" kenne ich sehr gut, nur kam das bisher immer von den AMD-Fanbois :P
Dazu passt auch sehr gut "das P/L-Verhältnis" ist aber besser!!!
Daredevil
2021-03-30, 14:06:20
Warum zum Himmel redet ihr noch immer über Comet Lake, wenn Rocket Lake direkt vor der Tür steht? Das mit den Mainboards stimmt nicht unbedingt. Mir sind z.B. 2.5GBIT Lan wichtig, die bekomme ich ( überraschender weise ) bei Intel deutlich günstiger.
mironicus
2021-03-30, 14:07:57
Ein klares Vorwort bereits vor dem Review. Wahrscheinlich bezieht es sich auf der Tatsache, das der 10900k mit 10 Kernen natürlich die schnellere CPU ist.
IfnAbyxOTk8
aufkrawall
2021-03-30, 14:09:13
Mir sind z.B. 2.5GBIT Lan wichtig, die bekomme ich ( überraschender weise ) bei Intel deutlich günstiger.
Mir sind 6C 12T wichtig, die bekomme ich bei Intel mit 200MHz weniger in Spielen voraussichtlich für die Hälfte des 5600X. :ulol:
Daredevil
2021-03-30, 14:11:17
Ja gut :D
Lehdro
2021-03-30, 14:15:00
Warum zum Himmel redet ihr noch immer über Comet Lake, wenn Rocket Lake direkt vor der Tür steht? Das mit den Mainboards stimmt nicht unbedingt. Mir sind z.B. 2.5GBIT Lan wichtig, die bekomme ich ( überraschender weise ) bei Intel deutlich günstiger.
Die Unterschiede bei vergleichbar ausgestatteten Mainboards sind aber eher lächerlich. Da geht es bei beiden knapp oberhalb von 120€ los. Deswegen würde ich da kein Fass aufmachen.
Da sind die reinen CPU Preise doch eher interessanter, da man deutlich günstiger bei wegkommt, wenn man eben nicht direkt eine aktuelle 300€+ CPU braucht. Da kann dann auch das Mainboard gar nicht soviel mehr/weniger kosten, wenn doch die CPU so viel günstiger ist.
Gipsel
2021-03-30, 14:43:22
Gesunder Menschenverstand sagt eigentlich, daß die bisherigen Preise der 5000er Serie von AMD vom begrenzten Angebot hochgetrieben wurden. Bringt intel was Konkurrenzfähiges (auch wenn es nur bis zum 5800er reichen sollte), werden die 5600X und 5800X schon sehr bald im Preis fallen (einfach weil das Angebot im Verhältnis zur Nachfrage größer wird). Da mache ich mir wenig Sorgen.
Platos
2021-03-30, 14:51:55
Naja, die meisten hier nutzen ihre CPU 3-5 Jahre. Das sind immerhin 30-50€ die ich auch gleich in die bessere CPU investieren kann. Und ganz nebenbei ist das auch viel besser für die Umwelt, man hat weniger Abwärme im Gehäuse, weniger Geräuschpegel, günstigeres Netzteil, board, etc.
In Computerforen darfst du ja nie mit Umwelt oder ähnlichem kommen. Das gilt nämlich für alles, nur nicht für sein eigenes Hobby:D
Aber man muss dann fairerweise auch anmerken, dass Intel CPUs immer noch besser unter Teillast sind vom Stromverbrauch. Das liegt wohl am Chiplet Design von AMD. In der Praxis ist der Stromverbrauch absolut gesehen aber gar nicht soooooo hoch (als "Normalogamer).
Aber schau mal die Grafikkarten an. Beide Hersteller werden da immer schlimmer (ok, AMD war es schon lange). Aber man erinnere sich mal, wie viel Strom die GTX 1080 verbraucht hat und jetzt schaut man sich mal die RTX 3080 an... Das sind absolut gesehen riesen Beträge im Strom(mehr)verbrauch.
Aber da könnte ich noch ganz viele andere Produkte als Beispiel nennen. Aber das wird dann OT.
aufkrawall
2021-03-30, 14:59:40
Gesunder Menschenverstand sagt eigentlich, daß die bisherigen Preise der 5000er Serie von AMD vom begrenzten Angebot hochgetrieben wurden. Bringt intel was Konkurrenzfähiges (auch wenn es nur bis zum 5800er reichen sollte), werden die 5600X und 5800X schon sehr bald im Preis fallen (einfach weil das Angebot im Verhältnis zur Nachfrage größer wird). Da mache ich mir wenig Sorgen.
RKL ändert da eigentlich nicht so viel, Spiele-Leistung inkls. Preise war bei Intel schon mit CML gut und RKL säuft bei Number Crunching weiterhin.
Gut, RKL wird halt, zumindest abseits von der Spitze, noch besser bei P/L, sodass bei AMD die Nachfrage etwas runter gehen wird. Kann aber sein, dass sie trotzdem noch jede CPU überteuert verkauft bekommen.
w0mbat
2021-03-30, 15:11:50
Autsch! Schlimmer als gedacht: langsam und stromhungrig :(
robbitop
2021-03-30, 15:40:01
Die RKLs sind was ich sehen kann nicht wirklich langsamer als die Zen 3s bei gleicher Kernanzahl. Aber deutlich stromhungriger.
Linmoum
2021-03-30, 15:42:37
Laut CB ist der 5800X immerhin 12% flotter bei MC-Apps wenn man den 11900K innerhalb der offiziellen Specs betreibt.
Das ist natürlich nicht weltbewegend, aber trotzdem ein gewisser Abstand bei gleicher Kernzahl.
robbitop
2021-03-30, 15:49:35
In Spielen liegen sie zumindest gleichauf. Bei MC ohne ihn freizumachen wird er dann wahrscheinlich ordentlich Takt rausnehmen müssen.
w0mbat
2021-03-30, 15:54:33
Bei TPU wird der 11900K in 720p schon von einem 5600X geschlagen.
robbitop
2021-03-30, 16:13:55
Man muss aber konstatieren, dass bei TPU so ziemlich alles in dem Bereich auf 5% Delta in der Tabelle sich aufhält im 720p Performancerating. Auch der 5800X.
Insofern - einen Blindtest würde da niemand bestehen. :)
Platos
2021-03-30, 16:25:40
Also bei der PCGH liegt der 11700K 3.7% hinter dem 5800X (min FPS). PCGH sagt zwar (gerundet) 3%, entweder habe ich mich verrechnet oder (ich glaube eher) die PCGH hat Avg FPS für den Index benutzt (schliesslich wird in den Diagrammen jeweils auch nach Avg geordnet).
Beachten muss man aber, dass der Listenpreis vom 5800X 11% höher liegt. Das macht dann ein um ~8% besseres P/L für den 11700K.
Und die PCGH hat den 11700K auch noch mit langsameren RAM getestet.
Bei CB schneidet der 11900K etwa gleich ab, wie bei der PCGH. Und ob 720p oder 2160p spielt auch keine grosse Rolle. Bei 1080p ist der Unterschied aber dahin. Man könnte jetzt also vermuten, die 3% Unterschiede sind Messungenauigkeit.
Der Stromverbrauch ist dann wie erwartet höher. Aber das P/L ist bei Intel immer noch besser. bzw. kann man die 50 Euro weniger gleich in Stromkosten investieren :D Also plus/minus etwa gleich auf.
Edit: 14% besseres P/L für den 11700KF. Immerhin hat der 5800X keine integrierte, der 11700K aber schon. Also ist der Vergleich eigentlich mit dem 11700KF zu machen. Bei 14% besserem P/L wird es dann vlt. langsam schwierig, das mit den höheren Stromkosten wieder auszgleichen. Aber wenn man die stromkosten abzieht, ist man auch in diesem Fall vermutlich etwa gleichauf, wenn man +/-3% Messungenauigkeit annimmt.
Also Fazit: Enttäuschend. Der 5800X ist immerhin überteuert und der 11700K ist eben eine Stromschleuder. Ansonsten wäre er eig. ganz gut vom P/L (zumindest im Vergleich zum 5800X). Das selbe bitte nächstes Mal mit besserer Effizienz und dann wäre das Top ;)
aufkrawall
2021-03-30, 16:51:08
Nochmal ganz dumm gefragt: Kann ich mit dem 11400F ohne XMP-Preset 3800MHz RAM ohne weitere Einschränkungen einstellen?
Savay
2021-03-30, 16:52:36
falscher Faden.
x-force
2021-03-30, 20:35:50
Nochmal ganz dumm gefragt: Kann ich mit dem 11400F ohne XMP-Preset 3800MHz RAM ohne weitere Einschränkungen einstellen?
was heißt ohne weitere einschränkungen? wenn du pech hast musst du dafür auf gear2.
ansonsten ist xmp nur ein preset für ein paar vordefinierte werte, meistens sogar nur primary timings, bestenfalls steht der speicher noch auf der qvl.
man kann trotzdem alles und noch viel mehr ebenso per hand einstellen.
das muss man sogar, wenn man die leistung maximieren will.
davidzo
2021-03-30, 21:10:49
Aber man muss dann fairerweise auch anmerken, dass Intel CPUs immer noch besser unter Teillast sind vom Stromverbrauch. Das liegt wohl am Chiplet Design von AMD. In der Praxis ist der Stromverbrauch absolut gesehen aber gar nicht soooooo hoch (als "Normalogamer).
Sind sie nicht. Rocket lake hat mittlerweile auch einen sehr hohen idle Stromverbrauch: https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/55775-die-rakete-mit-fehlstart-core-i5-11600k-core-i7-11700k-und-core-i9-11900k-im-test.html?start=10
Und Igors Spielelast Test sind auch sehr gute "Teillast" Tests, vor allem die hohen Auflösungen im GPU-Limit. Da verbraucht ein 11700K zwar nur 81Watt, aber das ist mal eben das doppelte wie ein 5600x der genausoviele Frames ausspuckt:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74798&stc=1&d=1617131968
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74799&stc=1&d=1617131970
Von dem perfekten Idle verbrauch von 4 Watt bei Broadwell haben wir uns stück für stück immer weiter entfernt für ein paar mehr MHz im Prozess in Top.
Bisher waren die Benchmarks auf AMD werden aber immer auf krassen fully featured x570 mainboards gemacht die einen hohen Grundverbrauch haben im Vergleich zu wald wiesen z490 brettern. Für den 5600x ist das nicht die richtige Referenz.
Der z590 hat auch gar keine PCIe gen4 lanes, ist nur ein etwas weniger beschnittener mainstream chipsatz. Featuremäßig ist daher der B550 viel näher (bzw. B450 zu Z490), der hat auch nur CPU PCIgen4 Lanes und lässt OC ebenfalls zu wie die Z-serie.
Platos
2021-03-30, 22:30:55
Das verstehe ich nicht unter Teillast. Teillast ist für mich bisschen die Maus rumschubsen im Browser oder ähnliches.
Aber bezüglich Idle: Scheint ja wohl wirklich ziemlich beschissen zu sein. Aber laut Igor liegt das vermutlich auch am Chipsatz.
Aber gehört ja schliesslich zur CPU quasi dazu, also ist die Stromeffizienz selbst da wohl kaputt. Das ist ja mal mies. Ich finde die Entwicklung ziemlich beschissen, dass die Stromeffizienz an allen Ecken so dermassen leidet. CPUs unter Last, unter Teillast im idle, Grafikkarten... Natürlich hat ein i7 heute 8 Kerne und früher nur 4, aber dennoch ist der Stromverbrauch deutlich angestiegen und bei Grafikkarten ist es mindestens genau so schlimm.
Abgesehen davon steigert auch Intel leicht die Listenpreise. Und das Gesamtpacket reicht einfach nicht richtig aus, damit AMD die Preise anpassen müsste. Denn die überteuerten Zen3 CPUs sind weit weg von einem guten P/L.
Man kann sich jetzt also schonmal fragen, ob die Zeit vom Preiskampf für eine Weile vorbei ist, jetzt wo AMD wieder oben mitspielt. Naja, man siehts ja schon bei Zen3, man muss sich nichts mehr fragen.
maximus_hertus
2021-03-30, 22:41:05
Nochmal ganz dumm gefragt: Kann ich mit dem 11400F ohne XMP-Preset 3800MHz RAM ohne weitere Einschränkungen einstellen?
Ja. Die Frage lautet aber: Willst du das? Antwort: Nein. 3600 oder max 3733 (mit Glück) sind mit Gear 1 drin. Gear 2 macht ann erst weit in den 4000er wieder Sinn.
aufkrawall
2021-03-30, 23:36:30
3600 würde ich noch akzeptieren, Krempel ist bestellt. :D
Distroia
2021-03-31, 00:56:45
Man muss aber konstatieren, dass bei TPU so ziemlich alles in dem Bereich auf 5% Delta in der Tabelle sich aufhält im 720p Performancerating. Auch der 5800X.
Insofern - einen Blindtest würde da niemand bestehen. :)
Das ist aber auch nicht gerade beeindruckend, wenn man bedenkt, wie klein die Zen3-Kerne im Vergleich sind. Intel hat die Kerne so weit aufgeblasen und schafft es gerade mal in ihrer starken Disziplin (Spiele) gleichzuziehen, von stark parallelisierbaren Anwendungen ganz abgesehen. Da hat AMD noch jede Menge Potential, während Intel sein Pulver erstmal verschossen hat.
MiamiNice
2021-03-31, 02:57:07
... während Intel sein Pulver erstmal verschossen hat.
Alder Lake soll im Winter kommen.
Denniss
2021-03-31, 03:26:04
Und Rocket Lake sollte Zen3 vernichten, außer viel heißer Luft kam da aber nicht viel
WedgeAntilles
2021-03-31, 10:32:35
Bullshit, der 10700K kostet genau soviel wie ein 5600x und vergleichbar ausgestattete AM4 boards sind auch eher günstiger als bei Intel.
Du vergleichst jetzt 6-Kerner mit 8-Kerner?
Sorry, ich bin vom 6-Kerner vs 6-Kerner und 8-Kerner vs 8-Kerner ausgegangen.
Ok, bei meiner Angabe 50-150 Euro war die 150 etwas zu hoch.
Da wäre knapp 100 angemessen gewesen.
Aber klar, man kann natürlich auch den 6-Kerner mit dem 8-Kerner vergleichen und sagen: Hey, kostet gleich viel :)
Technisch ist RL langweilig und uninteressant.
Die Preisgestaltung macht RL für jene Anwender (vor allem Spieler), deren Ziel nicht die maximale Performance sondern ein gutes Preis-Leistungs-Verhältnis ist zu einem attraktiven Produkt.
Für Bastelenthusiasten die das Non-Plus-Ultra wollen ist RL uninteressant.
Wer sich einfach nur ne Kiste zum zocken hinstellen will und aufs Geld schaut ist bei RL gut bedient.
Das "Umwelt" Argument lasse ich bei 20 Watt übrigens auch nicht gelten.
Sonst müsste ja jeder der 2 Monitore hat seine AMD GraKas wegschmeißen - die saufen bei Dual-Monitor ja Strom ohne Ende. Und das Problem gibt es ja seit zig Jahren.
Komischerweise ist das Stromargument bei AMD Fans aber immer nur dann interessant wenn AMD mal weniger braucht. (Auch bei der 5700XT hat man das ja so gut wie nie gelesen...)
Da ist dann jeder der 20 Watt mehr verbraucht der Zerstörer schlechthin.
Ist die Effizienz von RL toll? Nein, natürlich nicht.
Wie gesagt, technisch ist RL nicht besonders.
Aber wenn die CPUs weniger kosten sind sie für viele trotzdem die bessere Wahl.
robbitop
2021-03-31, 13:40:04
Das ist aber auch nicht gerade beeindruckend, wenn man bedenkt, wie klein die Zen3-Kerne im Vergleich sind. Intel hat die Kerne so weit aufgeblasen und schafft es gerade mal in ihrer starken Disziplin (Spiele) gleichzuziehen, von stark parallelisierbaren Anwendungen ganz abgesehen. Da hat AMD noch jede Menge Potential, während Intel sein Pulver erstmal verschossen hat.
Im Moment sieht es so aus. Aber wir bewerten gerade einen Backport einer nicht wirklich neuen uArch (die war für 2017 fertig). Laut hatte der Backport auch in Bezug auf Latenz der Caches einige Nachteile.
Wer weiß - ggf ist Alderlake nicht wirklich besser. Vielleicht aber schon. Wir wissen es nicht.
Was man sieht: Intel will jetzt wieder alle 2 Jahre eine neue uArch bringen. Und auch Intel wird sicherlich früher oder später das tun was AMD getan hat. Ein Rebalance oder gar komplettes Redesign.
Im Moment sehen die Kerne wie du sagst durstig aus. Das gilt, relativ gesehen, auch für Willow Cove.
Mal sehen was Golden Cove und Zen 4 bringen. Ggf. geht AMD bei Zen 4 auch in die Breite - aber hoffentlich im Effekt nicht mehr als das der Shrink auf 5 nm kompensieren kann.
Grundsätzlich sieht RKL relativ enttäuschend aus im relativen Bezug. Im absoluten Bezug, wenn der Straßenpreis stimmt, wäre es mMn ok. Ob nun CML, RKL oder Zen 3. In Spielen sind sie nicht zu unterscheiden ohne explizite Messung im CPU Limit.
Abhängig vom Preis Leistungsverhältnis kann man IMO alle kaufen.
Ich persönlich habe mir einen 5900X gekauft - der noch auf eine GPU wartet. :D
x-force
2021-03-31, 14:09:36
Was man sieht: Intel will jetzt wieder alle 2 Jahre eine neue uArch bringen. :D
wie läuft das eigentlich bei so einen großem unternehmen?
man sollte annehmen, sie arbeiten normal weiter und lassen alles was nicht nötig ist um am markt seine position zu halten(und um nicht ggf monopolwächter auf den plan zu rufen) in der schublade, um es dann bei geeignetem zeitpunkt rauszuholen.
es sieht aber vielmehr so aus, als hätten die alle zusammen ein paar jahre bezahlten urlaub genommen :freak:
robbitop
2021-03-31, 14:45:34
wie läuft das eigentlich bei so einen großem unternehmen?
man sollte annehmen, sie arbeiten normal weiter und lassen alles was nicht nötig ist um am markt seine position zu halten(und um nicht ggf monopolwächter auf den plan zu rufen) in der schublade, um es dann bei geeignetem zeitpunkt rauszuholen.
es sieht aber vielmehr so aus, als hätten die alle zusammen ein paar jahre bezahlten urlaub genommen :freak:
Das frage ich mich manchmal auch. Hier muss man spekulieren. Meine Vermutung ist, dass Zeit für den Backport drauf ging. Auch der jetzige 10 nm Prozess ist nicht mehr so vergleichbar mit dem ursprünglichen. Es kann also gut sein, dass man die uArchs da auch nochmal anfassen musste. Bei Intel ist Design und Prozess deutlich stärker verknüpft als bei allen anderen. Das ist hier natürlich stark von Nachteil.
Ggf. hat man die Zeit auch genutzt, uArchs die noch in Design waren umzuschmeißen und neu zu machen.
Ich kann mir auch gut vorstellen, dass sicherlich auch große Anstrengungen unternommen worden sind in Bezug auf Automatisierung der Tools im Designprozess investiert wurde. Da liegt Intel bis dato offenbar ein gutes Stück weit hinten.
Meine Vermutung ist, dass der Beginn des Turnarounds nicht erst seit Pat Gelsinger angetreten ist, gemacht wurde sondern schon 1-2 Jahre zuvor.
So wie der Großteil der Arbeit des Turnarounds bei AMD noch unter Rory Read passiert ist - jedoch erst fertig war als Lisa Su CEO wurde.
aufkrawall
2021-03-31, 14:49:00
Wer weiß - ggf ist Alderlake nicht wirklich besser. Vielleicht aber schon. Wir wissen es nicht.
Dass sie den Refresh laut (echter?) Folie mit einem Gaming-Cache versehen wollen, ist imho eher ein Hinweis darauf, dass der initiale Alder Lake wohl nicht der Knüller in Spielen wird (von der little.BIG-Problematik ganz abgesehen).
robbitop
2021-03-31, 14:57:30
Dass sie den Refresh laut (echter?) Folie mit einem Gaming-Cache versehen wollen, ist imho eher ein Hinweis darauf, dass der initiale Alder Lake wohl nicht der Knüller in Spielen wird (von der little.BIG-Problematik ganz abgesehen).
Oder es zeigt einfach nur, dass es beim Nachfolger einen Fortschritt geben wird. :)
Bei 8+8 Cores+IGP+L3 muss man sich allerdings die Frage stellen, welche Fabric zum Einsatz kommt. Bei so vielen Teilnehmern kann es gut sein, dass man auf etwas langsameres als den Ringbus setzen muss. Ggf. das Mesh oder etwas anderes was man in der Zwischenzeit entwickelt hat.
Das hat dann die gleichen Nachteile bei der Memorylatency wie AMD diese seit Zen 1 erlebt mit der IF.
Entsprechend kann es gut sein, dass ein größerer Cache da nötig ist um Abhilfe zu schaffen. Die Erfahrung hat AMD ja auch gemacht.
Allerdings hat man diese Veränderung ja offenbar vorhergesehen. Denn immerhin hat man über SC und WC die Cachegrößen deutlich erhöht.
Pro Core: wuchs L1 auf 48 kiB; L2 von 256 kb auf 512 kb und dann auf 1,25 MiB und L3 von 2 MiB auf3 MiB.
Das sollte die Datenlokalität schon einigermaßen erhöhen um den Nachteil etwas abzufangen.
Ich bin gespannt, was sie mit Gamecache meinen. Entweder einen noch größeren L3 wie bei AMD oder wer weiß - ggf. einen großen L4 - ggf. mit Foveros gestackt.
WedgeAntilles
2021-03-31, 15:29:37
wie läuft das eigentlich bei so einen großem unternehmen?
man sollte annehmen, sie arbeiten normal weiter und lassen alles was nicht nötig ist um am markt seine position zu halten(und um nicht ggf monopolwächter auf den plan zu rufen) in der schublade, um es dann bei geeignetem zeitpunkt rauszuholen.
es sieht aber vielmehr so aus, als hätten die alle zusammen ein paar jahre bezahlten urlaub genommen :freak:
Das würde mich auch interessieren - wie wenig Intel in den letzten 5,6 Jahren aus dem Milliardenbudget für Forschung gemacht hat ist schon beeindruckend.
aufkrawall
2021-03-31, 16:22:24
Oder es zeigt einfach nur, dass es beim Nachfolger einen Fortschritt geben wird. :)
Es gibt auch noch die "up to +19%" IPC-Angabe. Was "up to" bei RKL bedeutet hat, ist ja nun bekannt. ;)
Locuza
2021-03-31, 16:28:48
Zwar ist RKL nicht die Bombe, aber aus akademischer Sicht ist es sehr interessant relativ prozessneutral die CPU- und GPU-IP zu vergleichen:
https://i.redd.it/kc794s2y5dq61.jpg
Obwohl Rocket Lake nicht das spannenste Produkt darstellt und nur eine kurze Lebenszeit inne haben wird, ist es aus akademischer Sicht sehr interessant.
Es ist nämlich möglich relativ prozessneutral die CPU- und GPU-IP zu vergleichen.
Mit Cypress-Cove-Kernen (Sunny Cove Portierung) hat man eine neue Architektur vor sich, die ursprünglich für 10nm geplant und optimiert wurde.
Die Architektur bzw. die Konfiguration bringt mehrere Upgrades mit sich, gegenüber Skylake Kernen unter Kaby Lake.
- Ein größerer µop$ welcher nun 2.25K dekodierte Operationen speichert, gegenüber 1.5K früher, die Tiefe von mehreren Befehlsschlangen und Scheduler-Einträgen wurde erhöht, dass betrifft das Out-of-Order-Window, L2 TLBs, die maximale Anzahl an in-flight loads&stores.
- Die Port-Struktur wurde modifiziert, mehr Execution-Units verbaut und die Load&Store-Implementierung breiter aufgestellt.
- Der L1$ Datencache wurde von 32KiB auf 48KiB vergrößert, die L2$ Kapazität von 256KiB auf 512KiB verdoppelt und support für AVX512 hinzugefügt.
Letzteres sollte allerdings zu keinen großen Flächenkosten führen, da die client Variante von Sunny Cove/Willow Cove/Cypress Cove nach wie vor nur 256-Bit FP-Pipelines besitzt und zwei execution ports für die Ausführung von 512-Bit instruktionen verwendet werden.
Daneben hat die Client-Variante von Skylake-Kernen noch Platz beim Vector Register File offen gelassen, damit man den Grundriss bei der späteren AVX512-Inklusion bei der Server-Variante nicht verändert musste.
Links zu einigen Vergleichen und zur Verbildlichung:
https://www.hardwareluxx.de/images/cdn01/54B706F5C56E4B3DA100BCC9C61933B9/img/2A04181CF4C5470187C185FCA196AFC4/Computex2019-Intel-Ice-Lake-27_2A04181CF4C5470187C185FCA196AFC4.jpg
https://www.servethehome.com/wp-content/uploads/2018/12/Intel-Sunny-Cove-to-Skylake-Comparison.jpg
https://twitter.com/Locuza_/status/1324077339920207873/photo/1
________________
Insgesamt ist klar, dass all diese Veränderungen nicht umsonst realisiert werden können.
Ein Cypress Cove-Kern ist ungefähr 30% größer, als ein Skylake-Kern.
Daneben ist ein iGPU Vergleich sehr interessant, denn Intel hat die letzten Jahre große Sprünge in diesem Bereich hingelegt.
Mittlerweile ist Gen9 eine sehr alte Architektur (2015 launch), Gen10 wurde nie öffentlich spezifiziert und Gen11 brachte schon große Veränderungen mit sich.
Gen12/Xe macht erneut einen großen Sprung vorwärts und veränderte erneut große Teile der inneren Mechanik.
Im Vergleich zu Gen9 wurde mittlerweile die HW für FP64 entfernt, die ALU Interfaces wurden optimiert und mit Gen12 wurde auch das HW scoreboarding entfernt und auf eine Software-Lösung umgestiegen, dass spart einige Transistoren bei der Verwaltungslogik.
Abseits vom ALU design wurden auch die TMUs verbessert, ein neues Cache-Design etabliert und seit Gen11 werden dedizierte Speicherstrukturen für den Shared Local Memory (SLM) verwendet.
Unter Gen9 wurden dafür Teile vom L3$ reserviert.
Behält man alles im Kopf, so überrascht es nicht, dass die Execution Units bei Gen12 kleiner sind, als bei Gen9, allerdings ist die Differenz wirklich groß.
Gen12 EUs sind 46% kleiner, beziehungsweise Gen9 EUs sind ~86% größer.
Auf der anderen Seite ist die Hardware-Instanz für den Texture/L1$ + SLM größer geworden, da mehr TMUs und SRAM-Zellen verwendet werden.
Trotz der ganzen Verbesserungen ist die Flächeneffizienz stark gestiegen, wenn man die benötigte Fläche für 8 TMUs normalisiert.
Die GPU IP hat tatsächlich große Fortschritte in diesem Bezug hingelegt.
Flächen und Energieeffizienz ist(war) einer der großen Punkte die Intel angehen musste, um sich gegenüber AMD und Nvidia konkurrenzfähig positionieren zu können.
robbitop
2021-03-31, 17:12:52
Es gibt auch noch die "up to +19%" IPC-Angabe. Was "up to" bei RKL bedeutet hat, ist ja nun bekannt. ;)
Von den 19% blieben rund 8 % in Spielen übrig. :D
Aber die Vergangenheit ist nicht zwangsweise ein korrekter Indikator für die Zukunft.
Alles kann - nichts muss. ;)
aufkrawall
2021-03-31, 17:19:57
Ich gönne es dir, ein Optimist zu sein. Ich fürchte nur, wenn es dann (wieder) so kommt wie von den Schwarzmalern prognostiziert, ist die subjektive Enttäuschung noch viel größer.
Ich würde mich freuen, falsch zu liegen, aber ich sehe schwarz bei den Zen 4-Preisen. Und einen echten Vielkern-Billigheimer wie den 10900F wird es auch nicht mehr geben. Außer, AMD bastelt irgendwas mit Ausschuss-Chiplets, aber das ist für Spiele nicht toll und die Ausschuss-Menge wird bei den kleinen Dies wohl ohnehin nicht hoch sein...
robbitop
2021-03-31, 17:24:08
Ich gönne es dir, ein Optimist zu sein. Ich fürchte nur, wenn es dann (wieder) so kommt, wie von den Schwarzmalern prognostiziert, ist die subjektive Enttäuschung noch viel größer.
Ich würde mich freuen, falsch zu liegen, aber ich sehe schwarz bei den Zen 4-Preisen. Und einen echten Vielkern-Billigheimer wie den 10900F wird es auch nicht mehr geben. Außer, AMD bastelt irgendwas mit Ausschuss-Chiplets, aber das ist für Spiele nicht toll und die Ausschuss-Menge wird bei den kleinen Dies wohl ohnehin nicht hoch sein...
Ich denke nicht, dass ich optimistisch eingestellt bin. Sondern einfach nur neutral. IMO ist es Schwarzmalerei, die Erkenntnisse eines alten und half-assed portierten Cores auf den neusten Core zu mit Gewissheit projezieren. TGL sah ggü CML wesentlich(!) besser aus in den mobile Tests. Laut Anand ist Willow Cove in Bezug auf IPC nicht schneller als Sunny Cove. RKL ist ggü CML ein Desaster. Allein deshalb bin ich schon etwas skeptisch.
Die Argumente sind valide. Aber Fakt ist, wir wissen viel zu wenig, um das mit so viel Gewissheit zu sagen. Es kann sein - aber es muss nicht sein. Das ist alles was ich sagen will. ;)
Platos
2021-03-31, 17:39:03
Man muss jetzt vor allem nicht übertreiben. Rocket Lake ist von der Leistung her nicht schlecht. Die kleinen prozentualen Unterschiede zu Zen3 sind fast schon Messungenauigkeit. Und die Preise (P/L) sind trotz nerviger Preiserhöhung immer noch besser, als bei AMD.
Aber der Stromverbrauch ist riesig. Rocket Lake war aber für 10nm gedacht und wurde geportet und das soll ja den Stromverbrauch so extrem hochgetrieben haben. Mit Alder Lake ist es also durchaus gut möglich, dass die Energieeffizienz drastisch (im Vergleich zu Rocket lake) besser wird, weil a) die bessere Fertigung und aber b) Alder Lake nicht runtergeportet ist. Und dann noch c) dank dem Big.little Konzept sollte (hoffentlich) der Stromverbrauch gerade im Niedriglastbereich deutlich besser sein.
Rocket Lake hat einfach ein riesen Problem mit dem Stromverbrauch. Ansonsten ist es zwar keine Wundergeneration, aber von der Leistung sind sie auf jeden Fall nicht schlecht (im Gaming).
aufkrawall
2021-03-31, 17:57:14
RAM-Takt (wobei ein ausgemaxter 10C CML auch in Spielen schneller wäre...) und ansonsten fast kein Fortschritt.
Bei HU gibt es in einigen Spielen sogar ein paar Performance-Regressions vs. CML, und das soll gut sein? :freak:
robbitop
2021-03-31, 18:00:14
Man muss jetzt vor allem nicht übertreiben. Rocket Lake ist von der Leistung her nicht schlecht. Die kleinen prozentualen Unterschiede zu Zen3 sind fast schon Messungenauigkeit. Und die Preise (P/L) sind trotz nerviger Preiserhöhung immer noch besser, als bei AMD.
Aber der Stromverbrauch ist riesig. Rocket Lake war aber für 10nm gedacht und wurde geportet und das soll ja den Stromverbrauch so extrem hochgetrieben haben. Mit Alder Lake ist es also durchaus gut möglich, dass die Energieeffizienz drastisch (im Vergleich zu Rocket lake) besser wird, weil a) die bessere Fertigung und aber b) Alder Lake nicht runtergeportet ist. Und dann noch c) dank dem Big.little Konzept sollte (hoffentlich) der Stromverbrauch gerade im Niedriglastbereich deutlich besser sein.
Rocket Lake hat einfach ein riesen Problem mit dem Stromverbrauch. Ansonsten ist es zwar keine Wundergeneration, aber von der Leistung sind sie auf jeden Fall nicht schlecht (im Gaming).
Die absolute Performance in Spielen ist total OK. Das ist mMn nicht das Problem. Das Problem ist, dass CML das aber auch schon war. Die sind fast gleichschnell. Ein neues Produkt sollte möglichst souverän besser sein als das Vorgängerprodukt. Das ist leider nicht der Fall.
Was RKL so schlecht dastehen lässt, ist nicht primär die relative Position zu Zen 3. Es ist die relative Position zu CML. Da hat sich für 30% mehr Transistoren pro Kern und für deutlich mehr Leistungsaufnahme nur sehr sehr wenig getan. So wenig, dass das Vorgängerflaggschiff dank +2 Cores auch manchmal vorn liegt.
Ich denke aber auch, dass RKL wirklich unglücklich war. Ein TGL-H wäre sicherlich besser angekommen. Nur passt die Kapazität für 10 nm offenbar noch nicht.
maximus_hertus
2021-03-31, 18:06:46
Und die Preise (P/L) sind trotz nerviger Preiserhöhung immer noch besser, als bei AMD.
5600X vs 11600K - bin ich bei dir. 50-80 Euro günstiger bei einem überschaubarem Rückstand für den i5. P/L klar besser, auch wenn der Stromverbrauch hier nervt, trotz nicht ganz desaströsen Werten.
5800X vs 11700K - hier ist es deutlich nicht der Fall. PReislich hat man nahezu einen Patt, aber bei der LEistung, je nach PArcours, mal ein kleines und mal ein deutliches Plus beim AMD + MC PErformance. Dazu der hier deutlichere Stromverbrauchsvorteil. Der 11700K muss deutlich in Richtung 350 Euro und ggf. sogar darunter, um ein P/L Vorteil zum 5800X zu haben.
5900X vs 11900K - Not gegen Elend. 800+ vs 700+ Euro. Beides nicht toll. Wobei der AMD dank der 12C/24T noch eine brachiale MC Performance in den Ring schmeissen kann. Intel kann dafür die Kernschmelze bieten, was aber eher traurig ist. Hier gibt es kein P/L, weil kaum lieferbar.
Ergo, je günstiger das Segment, desto besser sieht es für Intel aus. Oder anders gesagt:
Wer Leistung will, kauf Ryzen 5000. Wer auf günstig ausreichend Leistung aus ist, kauft Intel. Ja, das ist etwas vereinfacht, aber es trifft das schon ziemlich gut.
x-force
2021-03-31, 18:09:08
ein nicht zu verachtender leistungsschub sollte allein durch die bessere fertigung entstehen, vollkommen ohne daß etwas an der architektur geändert wird, weil die signallaufzeiten und damit die latenzen kürzer werden.
Das würde mich auch interessieren - wie wenig Intel in den letzten 5,6 Jahren aus dem Milliardenbudget für Forschung gemacht hat ist schon beeindruckend.
vielleicht war es auch so, daß intel durch meltdown, spectre und co intellektuell vollkommen überfordert war und da einiges an $$$ sinnlos verbrannt hat. bis dahin waren sie vielleicht im bezahltem urlaub.
wird interessant, sobald irgendwann die hintergründe publik werden.
es wird wahrscheinlich in die geschichtsbücher eingehen, wie intel einen aufguss nach dem anderen gebracht hat und quasi auf der stelle getreten ist, während amd verzweifelt eine luftnummer nach der anderen(bulldozer, piledriver, steamroller und excavator) rausgehauen hat und dabei außer heißer luft(hier passt steamroller wirklich gut:D) und sinnlosem takt, nichts produziert hat.
Der_Korken
2021-03-31, 18:20:58
Ich hätte ja nicht gedacht, dass ich mal Intel verteidige, aber ich finde das Gebashe gegen Rocket Lake nicht angebracht. Ja, er ist nicht die Offenbarung in Spielen, aber man muss auch sehen, dass Comet Lake die fünfte (!) Skylake-Generation war. Hier war wirklich alles durchoptimiert und auch sicherlich viel Software drauf angepasst. Mit einer neuen Architektur fängt jeder erstmal weiter unten wieder an.
Ich habs schon mal geschrieben: Comet Lake hätte es eigentlich nie geben dürfen. Der Backport hätte schon viel früher kommen müssen, nachdem man gesehen hat, dass 10nm noch lange nicht so weit ist und man noch ne Weile mit 14nm durchhalten muss. Wäre letzten Sommer nicht Comet Lake sondern direkt Rocket Lake gekommen, hätten den alle gefeiert, denn dann wäre der 9900K die Messlatte gewesen.
Immerhin hat Intel es geschafft die 5,2Ghz+ noch in die Cove-Kerne mitzunehmen. Als Ice Lake kaum über 4,2Ghz hinauskam, habe ich eher gedacht dass der Backport vllt. maximal 4,7-4,8Ghz schafft, was in Spielen dann wirklich eine Enttäuschung gewesen wäre.
Die nächste Hürde, die Intel noch nehmen muss, ist ein Data Fabric, das mit mehr Kernen skaliert. AMD hat damals mit Zen 1 drauf gesetzt, obwohl es für 8 Kerne im Desktop nicht nötig war und sie dadurch in Spielen immer einen Klotz mit durchschleifen mussten im Gegensatz zu Intel. Allerdings war die Kröte dann geschluckt und mit jeder Gen haben sich die Latenzen verbessert, ohne dass sich AMD Gedanken um die Skalierbarkeit machen musste, sodass man gegenüber dem Vorgänger nie Regressionen hinnehmen musste. Bei Alder Lake kann da nochmal eine Verschlechterung kommen, wenn der Ring durch ein Mesh o.ä. ersetzt wird und die Speicherlatenzen erstmal um 10ns oder so steigen.
Platos
2021-03-31, 18:37:35
5600X vs 11600K - bin ich bei dir. 50-80 Euro günstiger bei einem überschaubarem Rückstand für den i5. P/L klar besser, auch wenn der Stromverbrauch hier nervt, trotz nicht ganz desaströsen Werten.
5800X vs 11700K - hier ist es deutlich nicht der Fall. PReislich hat man nahezu einen Patt, aber bei der LEistung, je nach PArcours, mal ein kleines und mal ein deutliches Plus beim AMD + MC PErformance. Dazu der hier deutlichere Stromverbrauchsvorteil. Der 11700K muss deutlich in Richtung 350 Euro und ggf. sogar darunter, um ein P/L Vorteil zum 5800X zu haben.
5900X vs 11900K - Not gegen Elend. 800+ vs 700+ Euro. Beides nicht toll. Wobei der AMD dank der 12C/24T noch eine brachiale MC Performance in den Ring schmeissen kann. Intel kann dafür die Kernschmelze bieten, was aber eher traurig ist. Hier gibt es kein P/L, weil kaum lieferbar.
Ergo, je günstiger das Segment, desto besser sieht es für Intel aus. Oder anders gesagt:
Wer Leistung will, kauf Ryzen 5000. Wer auf günstig ausreichend Leistung aus ist, kauft Intel. Ja, das ist etwas vereinfacht, aber es trifft das schon ziemlich gut.
Gut, ich habe mich primär auf den 10700K und niedriger bezogen und zwar auf den PCGH Test. Ich mache hier keine Analyse über alle Testseiten, dafür ist Leonidas zuständig:freak:. Aber da ergab sich beim 10700K ein ca. 8% besseres P/L bezogen auf min FPS und den 5800X (was aber eig. ein sehr ungenaues Resultat ist, da der Leistungsunterschied nur 3% beträgt und somit locker 2% davon Messungenauigkeit sein kann, was dann die 8% sehr ungenau werden lässt).
Und der 10900K ist halt der "ich kaufe für paar MHz mehr eine x-100 Dollar teurere CPU-Deppenaufschlag".
Aber so oder so, die Preise sind bei beiden zu teuer, vor allem bei AMD. P/L ist das entscheidende (Kurzfristig), aber Preisklassen sind auch wichtig. Denn wenn man Preisklassen anhebt, dann wird der Listenpreis für gewöhnlich nicht so schnell wieder sinken. D.H wenn in Generation X die Leistung stark ansteigen würde (mit dem Preis), dann wäre das nur für Generation X der Fall, während dem aber der Preisanstieg für alle weiteren Generation gilt. Die bessere Leistung (Beispiel Zen3) gilt also nur für eine Generation, der Preisanstieg aber für alle weiteren. Den Preisanstieg müsste man bei jeder Generation mit einberechnen und nicht nur zur Vorgängergeneration.
Also P/L ist im Kaufmoment wichtig, aber Preisklassen sind langfristig genau so wichtig bei CPUs (also die Preise bei X Kernen).
Wer Leistung will, kauf Ryzen 5000. Wer auf günstig ausreichend Leistung aus ist, kauft Intel. Ja, das ist etwas vereinfacht, aber es trifft das schon ziemlich gut.
Sehe ich jetzt nicht so. Wie gesagt, der Unterschied lag bei der PCGH bei gerade mal 3% zwischen 11700K und 5800X. Dafür aber 11% weniger Preis. Und wenn es um die Spitze geht, ist der 11900K die Top CPU im Gaming laut PCGH (auch wenn der Preis absurd ist).
Ich würde also eher sagen, das P/L ist mehr oder weniger etwa gleich und die Leistung aber auch (bezogen auf den 11700K und 5800X). Der Stromverbrauch ist aber sehr unterschiedlich.
Aber wir sehen ja dann in Leonidas' Launchanalyse, wie es gemittelt über alle Testseiten sein wird.
Distroia
2021-03-31, 20:13:43
Im Moment sieht es so aus. Aber wir bewerten gerade einen Backport einer nicht wirklich neuen uArch (die war für 2017 fertig). Laut hatte der Backport auch in Bezug auf Latenz der Caches einige Nachteile.
Schon klar, aber das bedeutet eben auch, dass wir erstmal keine neue Architektur von Intel sehen, und dass die Latenzen wirklich viel ausmachen, möchte ich mal bezweifeln; jedenfalls gehe ich davon aus, dass die Latenzen weniger bringen, als die üblichen Steigerungen von einer Architektur zur nächsten.
Wer weiß - ggf ist Alderlake nicht wirklich besser. Vielleicht aber schon. Wir wissen es nicht.
Was man sieht: Intel will jetzt wieder alle 2 Jahre eine neue uArch bringen. Und auch Intel wird sicherlich früher oder später das tun was AMD getan hat. Ein Rebalance oder gar komplettes Redesign.
Es hieß ja teilweise, Rocket Lake wäre ein Redesign gewesen. Ähnlich war es bei Zen3. Ich glaube, die Frage, was als Rebalance oder als komplettes Redesign zählt, ist ziemlich philosphisch, deshalb würde ich solche Aussagen nicht überbewerten.
Im Moment sehen die Kerne wie du sagst durstig aus. Das gilt, relativ gesehen, auch für Willow Cove.
Ich meinte nicht nur durstig sondern auch groß. Ein Kern ohne L3-Cache scheint nach dem Bild von Locuza etwa 10 mm² zu haben. Wie groß ist ein Zen3 Kern ohne L3-Cache nochmal? 3 1/2 mm²? Auch ohne Fertigungsvorteil wäre der Unterschied noch riesig. Und dann kommt Zen4 schon in 5 nm. Da scheint noch sehr, sehr viel Potential bei AMD zu sein.
Grundsätzlich sieht RKL relativ enttäuschend aus im relativen Bezug. Im absoluten Bezug, wenn der Straßenpreis stimmt, wäre es mMn ok. Ob nun CML, RKL oder Zen 3. In Spielen sind sie nicht zu unterscheiden ohne explizite Messung im CPU Limit.
Abhängig vom Preis Leistungsverhältnis kann man IMO alle kaufen.
Die Aktuelle Situation ist auch sehr außergewöhnlich. Im Moment ist es gar nicht so wichtig, wie gut die Produkte sind, weil die Kunden nehmen müssen, was sie kriegen können. :freak: Mir ging es ja auch eher um die längerfristige Entwicklung, also wie sich die Situation entwickelt, wenn wieder eine normale Konkurrenzsituation herrscht. Und da sieht es bei Intel meiner Meinung nach ziemlich düster aus. Ich weiß, du glaubst, dass Intel demnächst die Kurve kriegt, aber damit ich ihnen das wirklich glaube, müssten sie erstmal wieder was Liefern, was diesen Optimismus rechtfertigt. Im Moment stolpern sie ja noch von einer Enttäuschung zur nächsten.
Ich persönlich habe mir einen 5900X gekauft - der noch auf eine GPU wartet. :D
Viel Spaß damit. ;)
Platos
2021-03-31, 23:29:07
Ggf. geht AMD bei Zen 4 auch in die Breite - aber hoffentlich im Effekt nicht mehr als das der Shrink auf 5 nm kompensieren kann.
Warum das? Man ist doch mittlerweile so klein, da würde es überhaupt nichts ausmachen, wenn man etwas in die breite geht. Der 5800X hat schon einen so kleinen DIE, der kann kaum die Hitze abführen.
Also von mir aus können sie sehr gerne in die Breite gehen, wenn dadurch die IPC steigt (im Gaming bitte auch mit).
Locuza
2021-03-31, 23:33:47
[...]
[1] Es hieß ja teilweise, Rocket Lake wäre ein Redesign gewesen. Ähnlich war es bei Zen3. Ich glaube, die Frage, was als Rebalance oder als komplettes Redesign zählt, ist ziemlich philosphisch, deshalb würde ich solche Aussagen nicht überbewerten.
[2] Ich meinte nicht nur durstig sondern auch groß. Ein Kern ohne L3-Cache scheint nach dem Bild von Locuza etwa 10 mm² zu haben. Wie groß ist ein Zen3 Kern ohne L3-Cache nochmal? 3 1/2 mm²? Auch ohne Fertigungsvorteil wäre der Unterschied noch riesig. Und dann kommt Zen4 schon in 5 nm. Da scheint noch sehr, sehr viel Potential bei AMD zu sein.
[3] Die Aktuelle Situation ist auch sehr außergewöhnlich. Im Moment ist es gar nicht so wichtig, wie gut die Produkte sind, weil die Kunden nehmen müssen, was sie kriegen können. :freak: Mir ging es ja auch eher um die längerfristige Entwicklung, also wie sich die Situation entwickelt, wenn wieder eine normale Konkurrenzsituation herrscht. Und da sieht es bei Intel meiner Meinung nach ziemlich düster aus. Ich weiß, du glaubst, dass Intel demnächst die Kurve kriegt, aber damit ich ihnen das wirklich glaube, müssten sie erstmal wieder was Liefern, was diesen Optimismus rechtfertigt. Im Moment stolpern sie ja noch von einer Enttäuschung zur nächsten.
[1] RKL mit Cypress Cove-Kernen ist nach klassischer Tick-Tock-Perspektive (und aus der Zeit stammt auch das Design) eine neue Architektur bzw. ein Tock.
Es ist natürlich teilweise subjektiv und philosophisch was man als neue Architektur oder Redesign betrachtet.
Von Zen2 zu Zen3 hat sich teilweise eine Menge verändert und wurde neu aufgebaut, es gibt aber auch viele Teile die größtenteils gleich geblieben sind.
Sunny Cove/Cypress Cove bildet auch so ein gemischtes Bild ab, einige Elemente wurden umgebaut, andere leicht erweitert und wiederum andere sind prinzipiell gleich geblieben.
Insgesamt könnte man vielleicht sagen, dass Zen3 mehr verändert hat als Sunny Cove, aber um wie viel lässt sich als Außenstehender nicht so leicht beziffern.
[2] Ungefähr 4.04mm² zusammen mit dem L2$.
Bei Willow Cove, unter 10nm SF, ist der Kern + L2$ ungefähr 6.25mm² groß.
Ein gutes Stück kleiner als bei Cypress Cove, trotz über doppelt so großem L2$.
Im Vergleich zu Zen3 verbrät man aber mehr Chipfläche, auch wenn man versucht den großen L2$ heraus zu rechnen.
https://i.redd.it/619c9um2f2z51.png
[3] Ich sehe das umgekehrt.
AMD war das letzte Jahrzehnt damit beschäftigt zu überleben, seit Zen1 erfreut man sich relativ großer Erfolge, für die Firmenverhältnisse, allerdings ist man die letzten Jahre nach wie vor damit beschäftigt zu überleben, denn nirgendwo hat man eine chillige Position inne, wo der Umsatz und Gewinn gesichert ist.
Nvidia ist nahezu übermächtig im GPU-Bereich und AMD hat noch viel aufzuholen und muss hinterherrennen, so gut wie möglich.
Intel ist nach wie vor ein Behemoth, welcher riesige Umsatzzahlen und Gewinne einfährt.
Obwohl AMD in mehreren Bereichen theoretisch alternativlos ist, haben sie einfach nicht die Basis und das Auftragsvolumen, um Intel wirklich weh zu tun.
Mit Tiger Lake hat Intel schon teilweise bewiesen, dass der Karren ein gutes Stück aus dem Dreck gekommen ist und die GPU-Fortschritte mit Xe sind groß.
Mit Alder Lake wird Intel auch in mehreren Punkten erneut die Führung übernehmen und ich denke auch das Zen3(+) geschlagen wird, wobei möglicherweise nur die 16-Kern-Modelle von AMD an der Leistungsspitze bleiben.
Intel hat auch eine Führungsposition was das packaging von Chips und Memory angeht, AMD ist da mit den Partnern natürlich auch dran, aber ich bin mir sehr sicher das die schöne Zeit, die man mit Zen1-Zen3 genossen hat, 2022/23 vorbei ist.
Gipsel
2021-04-01, 00:56:50
ein nicht zu verachtender leistungsschub sollte allein durch die bessere fertigung entstehen, vollkommen ohne daß etwas an der architektur geändert wird, weil die signallaufzeiten und damit die latenzen kürzer werden.Nur kannst Du ein Design nicht mal so eben auf einen anderen Prozeß schmeißen. Das war vor 20 Jahren vielleicht noch annähernd so, aber heute sind wir davon weit entfernt. Ohne Anpassungen wird ein Chip heutzutage auf einem neuen Prozeß sogar langsamer. Und zwar zu einem großen Teil, weil die Leitungen deutlich schlechter leiten. Da hast Du dann die Wahl zwischen Kernschmelze (also wenn Du den Chip partout auf den Takt prügeln willst, nimmt der tatsächlich Schaden) oder halt weniger Takt. Oder Du baust halt etwas um.
BlacKi
2021-04-01, 01:12:18
Im Vergleich zu Zen3 verbrät man aber mehr Chipfläche, auch wenn man versucht den großen L2$ heraus zu rechnen.
https://i.redd.it/619c9um2f2z51.png
interesting. auch wenn man fertigungsprozess berücksichtigt?
MiamiNice
2021-04-01, 02:45:12
Und zwar zu einem großen Teil, weil die Leitungen deutlich schlechter leiten.
Die Signallaufzeiten sind der Grund warum man nicht simpel skalieren kann?
Skysnake
2021-04-01, 05:24:51
Naja früher war die kapazitive Last quasi zu 100% durch die Transistoren und zu 0% durch die Leitungen bestimmt.
Bei 65nm hat es so richtig angefangen, dass das nicht mehr stimmt. Bei 28nm war man dann irgendwo bei 30-50% der kapazitiven Last durch die Leitung und nicht mehr durch den Transistor. Zudem kannst du seit 28nm und erst recht seit Finfet ihnen Probleme Leitungen wegbruzeln.
Die Sache ist jetzt was ist ein "Design" das Verilog Design oder die physische Implementierung.
Logik kannst du übernehmen und auch zumindest beim Digital Design wirst du ne timeing closer hinbekommen, und die Frequenz sollte auch nicht zwingend fallen, aber man wird weit von dem Weg sein was der Prozess wirklich kann.
Problematisch wird es aber bei dem Analogteilen, die du auf jedem Chip hast. Die I/O Interfaces sind z.b. zumindest teilweise analoge Designs. Und das wird heutzutage wahrscheinlich einfach gar nicht mehr funktionieren, weil die Betriebspunkte so eng sind, oder wenn überhaupt dann wahrscheinlich schon mit niedrigerem Takt.
Sprich dein Design als Ganzes ist nicht ohne weiteres Portierbar. Du musst da schon ei heftig Hand anlegen und das führt eigentlich immer zu einem Rattenschwanz an Änderungen...
MiamiNice
2021-04-01, 05:52:07
Man muss also hergehen und die Einheiten und Leiterbahnen räumlich, im Silizium, anpassen - damit das "Timing" wieder stimmt? Pragmatisch ausgedrückt. Ich hätte jetzt vermutet das dies generell automatisiert passiert bzw. der Computer macht - wäre ja eine Lebensaufgabe.
Skysnake
2021-04-01, 07:15:53
Natürlich passiert das durch Simulationen, aber das ist ein so komplexes Problem das du immer mit Constraints arbeiten musst, weil es sonst nie fertig wird. Also für den Digitalteil.
Für den Analogteil muss sich eigentlich schon jemand hinsetzen und das machen. Simulieren kannst du da immer was, aber jemand muss schauen ob das überhaupt Sinn macht.
Konkretes Beispiel. Meine Schaltung lief in 65nm auf 2.5 GHz und hat ein Timeing von 1.5 ps Genauigkeit realisiert. Wenn ich das in den Simulator gekippt hat, dann kam da aber nur bullshit raus, weil per default bei <1ps Abgebrochen wurde bei der Konvergenz. Also kein weiteres refinement gemacht wurde um gute Ergebnisse zu bekommen. Da ist ziemlich viel Logik dahinter um zu sehen wann etwas passt. So kamen aber physikalisch unsinnige Ergebnisse raus, weil die Fehler einfach zu groß waren.
Ich musste händisch einen Parameter vom Simulator anpassen, der in der 1K Seiten Doku 3 Sätze umfasst hat...
Ergebnis waren statt Minimal 900fs Intervall nur noch 1.5fs Intervall. Und für viele Werte statt einige pico Sekunden nun 100 femto Sekunden.
Die Rechenzeit hat sich damit massiv erhöht. Ich habe einen Durchlauf nicht mehr in 1-2h durch bekommen sondern musste eher 1-3 Tage auf das Ergebnis warten... wie willst du sowas automatisieren?
amdfanuwe
2021-04-01, 09:09:43
Da sieht man schön, dass Simulation auf einem Digitalrechner gegenüber der realen analogen Physik auf einem IC ihre Grenzen hat. Hat dich bestimmt einiges an Zeit gekostet.
Es zeigt auch, dass der Simulationsaufwand erheblich steigt, wenn man an den Grenzen des machbaren arbeitet.
Und zum Glück gab es überhaupt den Parameter im Tool. Sonst hättest du erst neue Simulationstools entwickeln müssen.
Gratulation das du überhaupt das Problem erkannt hast und lösen konntest. Schafft nicht jeder.
robbitop
2021-04-01, 09:45:05
Schon klar, aber das bedeutet eben auch, dass wir erstmal keine neue Architektur von Intel sehen, und dass die Latenzen wirklich viel ausmachen, möchte ich mal bezweifeln; jedenfalls gehe ich davon aus, dass die Latenzen weniger bringen, als die üblichen Steigerungen von einer Architektur zur nächsten.
Naja wie gesagt. RKL sieht gegen CML ziemlich schlecht aus für eine neue uArch. TGL vs CML im Notebook war eine völlig andere Story. Core für Core wurde CML überfahren. Die WC Cores in TGL sollen laut Anandtech nicht schneller pro Takt geworden sein als die SC Cores. Entsprechtend macht mich das skeptisch, ob da im Backport nicht sogar einiges "verloren" gegangen ist.
Ich kann mir vorstellen, dass TGL-H (8C/16T) ein anderes Bild abgegeben hätte.
Deshalb weiß ich nicht, ob RKL wirklich eine gute Bewertungsbasis ist. Kann sein - muss aber nicht.
Es hieß ja teilweise, Rocket Lake wäre ein Redesign gewesen. Ähnlich war es bei Zen3. Ich glaube, die Frage, was als Rebalance oder als komplettes Redesign zählt, ist ziemlich philosphisch, deshalb würde ich solche Aussagen nicht überbewerten.
Dass RKL ein Redesign war, höre ich zum ersten Mal. Das heißt nicht, dass das nicht stimmen kann. Was man eigentlich liest ist, dass es einfach nur ein Backport war. Und offenbar kein guter.
Ich meinte nicht nur durstig sondern auch groß. Ein Kern ohne L3-Cache scheint nach dem Bild von Locuza etwa 10 mm² zu haben. Wie groß ist ein Zen3 Kern ohne L3-Cache nochmal? 3 1/2 mm²? Auch ohne Fertigungsvorteil wäre der Unterschied noch riesig. Und dann kommt Zen4 schon in 5 nm. Da scheint noch sehr, sehr viel Potential bei AMD zu sein.
Da muss man IMO ein bisschen vorsichtig sein.
1. TSMCs 7nm packt deutlich enger als Intels 14 nm
2. Nutzt AMD für CPUs deutlich stärker automatisierte Layouting Tools als Intel - das kostet ein bisschen Takt - bringt aber massiv höhere Packdichten. Und es spart Entwicklungszeit. Das ist eindeutig der bessere Deal als Intels Ansatz.
Ich kann mir gut vorstellen, dass Intel seit 2017/18 (oder später) auch intensiv an diesen Tools arbeitet.
Genauso wie sie auch an Chiplet Produkten arbeiten.
Sie bleiben nicht stehen.
Aber das ist nur teilweise mit der uArch als solches verknüpft.
Ich kann mir gut vorstellen, dass Alderlake diese Früchte noch nicht tragen wird. Aber ggf. in deren 7 nm Lineup.
AMD hat Intel schon einmal unterschätzt. Das werden sie (hoffentlich!) nicht wieder tun.
Viel Spaß damit. ;)
In heutigen Zeiten gerade zu ein sadistischer Kommentar. :D
Ohne GPU hab ich wenig Motivation ein Board und Speicher zu bestellen. Meine 1080ti wäre überfordert. Ich bin trotz 4790K fast immer im GPU Limit. :-/
robbitop
2021-04-01, 09:46:15
Warum das? Man ist doch mittlerweile so klein, da würde es überhaupt nichts ausmachen, wenn man etwas in die breite geht. Der 5800X hat schon einen so kleinen DIE, der kann kaum die Hitze abführen.
Also von mir aus können sie sehr gerne in die Breite gehen, wenn dadurch die IPC steigt (im Gaming bitte auch mit).
Mehr Transistoren heißt nicht, dass die Energiedichte sinkt. ;)
Schau dir RKL an ^^
[3] Ich sehe das umgekehrt.
AMD war das letzte Jahrzehnt damit beschäftigt zu überleben, seit Zen1 erfreut man sich relativ großer Erfolge, für die Firmenverhältnisse, allerdings ist man die letzten Jahre nach wie vor damit beschäftigt zu überleben, denn nirgendwo hat man eine chillige Position inne, wo der Umsatz und Gewinn gesichert ist.
Nvidia ist nahezu übermächtig im GPU-Bereich und AMD hat noch viel aufzuholen und muss hinterherrennen, so gut wie möglich.
Intel ist nach wie vor ein Behemoth, welcher riesige Umsatzzahlen und Gewinne einfährt.
Obwohl AMD in mehreren Bereichen theoretisch alternativlos ist, haben sie einfach nicht die Basis und das Auftragsvolumen, um Intel wirklich weh zu tun.
Mit Tiger Lake hat Intel schon teilweise bewiesen, dass der Karren ein gutes Stück aus dem Dreck gekommen ist und die GPU-Fortschritte mit Xe sind groß.
Mit Alder Lake wird Intel auch in mehreren Punkten erneut die Führung übernehmen und ich denke auch das Zen3(+) geschlagen wird, wobei möglicherweise nur die 16-Kern-Modelle von AMD an der Leistungsspitze bleiben.
Intel hat auch eine Führungsposition was das packaging von Chips und Memory angeht, AMD ist da mit den Partnern natürlich auch dran, aber ich bin mir sehr sicher das die schöne Zeit, die man mit Zen1-Zen3 genossen hat, 2022/23 vorbei ist.
Das sehe ich auch so. Aber AMD ist zum Glück viel besser aufgestellt als 2006. Ich denke, dass es mittelfristig zu einem engen Schlagabtausch führen wird. Eine Dominanz des einen oder anderen wird es so schnell nicht mehr geben. Gut für uns Endkunden. :)
WedgeAntilles
2021-04-01, 10:16:25
Natürlich passiert das durch Simulationen, aber das ist ein so komplexes Problem das du immer mit Constraints arbeiten musst, weil es sonst nie fertig wird. Also für den Digitalteil.
Für den Analogteil muss sich eigentlich schon jemand hinsetzen und das machen. Simulieren kannst du da immer was, aber jemand muss schauen ob das überhaupt Sinn macht.
Konkretes Beispiel. Meine Schaltung lief in 65nm auf 2.5 GHz und hat ein Timeing von 1.5 ps Genauigkeit realisiert. Wenn ich das in den Simulator gekippt hat, dann kam da aber nur bullshit raus, weil per default bei <1ps Abgebrochen wurde bei der Konvergenz. Also kein weiteres refinement gemacht wurde um gute Ergebnisse zu bekommen. Da ist ziemlich viel Logik dahinter um zu sehen wann etwas passt. So kamen aber physikalisch unsinnige Ergebnisse raus, weil die Fehler einfach zu groß waren.
Ich musste händisch einen Parameter vom Simulator anpassen, der in der 1K Seiten Doku 3 Sätze umfasst hat...
Ergebnis waren statt Minimal 900fs Intervall nur noch 1.5fs Intervall. Und für viele Werte statt einige pico Sekunden nun 100 femto Sekunden.
Die Rechenzeit hat sich damit massiv erhöht. Ich habe einen Durchlauf nicht mehr in 1-2h durch bekommen sondern musste eher 1-3 Tage auf das Ergebnis warten... wie willst du sowas automatisieren?
Auch wenn das jetzt inhaltlich nichts beisteuert: Vielen Dank für dein Praxisbeispiel!
Für mich ist die ganze Theorie ein Buch mit 7 Siegeln, da fand ich es äußerst interessant einmal etwas praktisches zu lesen!
aufkrawall
2021-04-01, 10:23:45
Eine Dominanz des einen oder anderen wird es so schnell nicht mehr geben. Gut für uns Endkunden. :)
Das dürfte weniger an der technischen Kluft, als an den Umständen liegen, dass Intel mehr fertigen und besser/aggressiver verkaufen kann. Ein wirklicher Unterbietungswettkampf ist das nicht.
MiamiNice
2021-04-01, 10:28:03
Die Rechenzeit hat sich damit massiv erhöht. Ich habe einen Durchlauf nicht mehr in 1-2h durch bekommen sondern musste eher 1-3 Tage auf das Ergebnis warten... wie willst du sowas automatisieren?
Ich habe Probleme Dir überhaupt zu folgen bei dem Thema - für mich Neuland. Wie soll ich das automatisieren?
Laienhaft würde ich jetzt etwas von mehr Rechnenpower schreiben wollen :wink:
Aber ich habe eine Idee davon wie es funktioniert, Danke.
AMD hat Intel schon einmal unterschätzt. Das werden sie (hoffentlich!) nicht wieder tun.
:confused:
Du zählst anders als ich :biggrin:
robbitop
2021-04-01, 11:37:19
Das dürfte weniger an der technischen Kluft, als an den Umständen liegen, dass Intel mehr fertigen und besser/aggressiver verkaufen kann. Ein wirklicher Unterbietungswettkampf ist das nicht.
Das stimmt. Es wird wahrscheinlich allein daraus keine Preiskämpfe geben, solange sie nicht angezettelt werden. Aber: wir haben keinen Stillstand mehr. Und das war ja Jahrelang bei Intel der Fall bei Mainstream CPUs.
:confused:
Du zählst anders als ich :biggrin:
Ich beziehe mich auf die Extremsituation als Core 2 kam. Vergleichbares gab es IMO weder vorher noch nachher (nachher nicht mehr weil man ja sowieso den Anschluss verloren hatte bis Zen kam - ja Phenom 2 hatte es kurzzeitig erträglich gemacht - aber nicht annähernd so kompetativ wie zu A64 oder Zen Zeiten).
fondness
2021-04-01, 11:43:46
2. Nutzt AMD für CPUs deutlich stärker automatisierte Layouting Tools als Intel - das kostet ein bisschen Takt - bringt aber massiv höhere Packdichten. Und es spart Entwicklungszeit. Das ist eindeutig der bessere Deal als Intels Ansatz.
Sie haben die bessere Layouting Tools, das Intel hier noch irgendwas per Hand macht wie teilweise behauptet ist natürlich absurd. Das kostet auch erstmal keinen Takt, spätestens mit Warhol sollte das jeder begriffen haben.
robbitop
2021-04-01, 11:53:50
Sie haben die bessere Layouting Tools, das Intel hier noch irgendwas per Hand macht wie teilweise behauptet ist natürlich absurd. Das kostet auch erstmal keinen Takt, spätestens mit Warhol sollte das jeder begriffen haben.
Die Layouting tools sind besser. Und sie haben da sicherlich auch von der Radeon sparte profitiert. Völlig d'accord.
Aber: Warhol muss erstmal da sein. Über ungelegte Eier zu sprechen ist müßig. Und es zeigt auch nur, wie viel Iterationen helfen. Ein 1:1 zu einem Prozess, der 2x Fullnodes (14 nm+++++) zurückliegt, ist IMO etwas wackelig.
Bis dato ist der maximale Takt bei Intel seit vielen Jahren vorn. Trotz uraltem Fertigungsprozess. Zen+ in 14 nm (was nicht Intels 14 nm entspricht - ja) war da noch meilenweit entfernt. Selbst Intels 22 nm (siehe 4790K) erreichte höhere Taktraten. Die Frage ist, was ein moderner Zen in einem vergleichbaren Prozess heute schaffen würde. Meine Vermutung ist, dass sie nicht herankommen würden. Das ist aber nur Spekulation. Es ist natürlich auch ein Stück weit an das Design gekoppelt (länge der Pipelines etc).
Ich sage auch nicht, dass da komplett von Hand gelayoutet wird. Aber es ist mehr Handarbeit involviert. Das wurde auch etliche Male von Dr. Ian Cutress so gesagt. Und ich denke, der weiß ein wenig mehr als die hier Anwesenden. ;)
fondness
2021-04-01, 12:10:35
Die Layouting tools sind besser. Und sie haben da sicherlich auch von der Radeon sparte profitiert. Völlig d'accord.
Aber: Warhol muss erstmal da sein. Über ungelegte Eier zu sprechen ist müßig. Und es zeigt auch nur, wie viel Iterationen helfen. Ein 1:1 zu einem Prozess, der 2x Fullnodes (14 nm+++++) zurückliegt, ist IMO etwas wackelig.
Bis dato ist der maximale Takt bei Intel seit vielen Jahren vorn. Trotz uraltem Fertigungsprozess. Zen+ in 14 nm (was nicht Intels 14 nm entspricht - ja) war da noch meilenweit entfernt. Die Frage ist, was ein moderner Zen in einem vergleichbaren Prozess heute schaffen würde. Meine Vermutung ist, dass sie nicht herankommen würden. Das ist aber nur Spekulation.
Ich sage auch nicht, dass da komplett von Hand gelayoutet wird. Aber es ist mehr Handarbeit involviert. Das wurde auch etliche Male von Dr. Ian Cutress so gesagt. Und ich denke, der weiß ein wenig mehr als die hier Anwesenden. ;)
Ein kleinerer Fertigungsprozess ist in punkto Takt schon lange kein Vorteil mehr, ganz im Gegenteil. Das zeigt im übrigen auch Intel mit ihrem mittlerweile auch nicht mehr ganz taufrischen 10nm Prozess. Es geht auch nicht um Warhol, Intel liegt vielleicht noch 5% beim Takt vorne, das ist bestenfalls Grundrauschen mehr nicht. Zen war ein völlig neues Design, Taktoptimierung benötigt viel Optimierung das ist bekannt. Das Intels veraltetes Layout irgendwelche Taktvorteile hat dafür gibt es jedenfalls keine Evidenz in meinen Augen.
robbitop
2021-04-01, 12:20:35
Das kann ich nicht so recht glauben, dass ein neuerer Fertigungsprozess grundsätzlich und keine Taktvorteile bringt. Das kann unter Umständen so sein, muss es aber nicht zwangsweise. Im Beispiel von Intel mag das stimmen, weil deren 14 nm +++ ja 5 Jahre totoptimiert wurde. Aber in Intels roadmap war auch zu sehen, dass der + oder ++ vom Nachfolgeprozess dann besser war als die höchst ausgebauteste Stufe der Last gen. Alderlake wird es mit 10nm++ zeigen. Ob man Takt verliert oder nicht. Gerüchte sprechen von ~5,3 GHz. Der Prozess wäre dann zumindest halbwegs auf einer Stufe mit TSMCs N7.
TSMCs 7 nm ermöglichte AMD direkte Taktsteigerungen. Sowohl bei Vega 20 ggü Vega 10 als auch bei Zen 2 ggü Zen 1. IMO kann man das nicht absprechen.
Am Ende ist kein 1:1 Vergleich möglich.
Wie viel all core Takt ist aktuell bei Zen 3 drin? 4,6-4,7 GHz? Selbst wenn man alle TDP Beschränkungen aufhebt und mit besten Kühlern kühlt? Bei Intel sind es eher 5,1...5,2 GHz.
5-8% sehe ich da.
Das ist absolut gesehen nicht viel - das stimmt. Deshalb ist es auch so ein guter Deal. Aber wir alle kennen das Gesetz des sinkenden Grenzertrags. Und gerade die letzten paar Prozent kosten am allermeisten Arbeit.
Hat AMD die bessere Wahl getroffen? IMO ist das unbestreitbar. Haben HD Libs Nachteile im Takt? IMO schon - wenn auch wie du sagst keine großen mehr. Die Experten der Branche sagen in den Podcasts ähnliches.
Gipsel
2021-04-01, 14:10:35
TSMCs 7 nm ermöglichte AMD direkte Taktsteigerungen. Sowohl bei Vega 20 ggü Vega 10 als auch bei Zen 2 ggü Zen 1. IMO kann man das nicht absprechen.War das nicht zum Großteil der Fakt, daß man im TDP-Limit einfach den Betriebspunkt (relativ gesehen) etwas weiter rausschieben konnte? Und Zen2 war sowieso ein Redesign.
Wie viel all core Takt ist aktuell bei Zen 3 drin? 4,6-4,7 GHz? Selbst wenn man alle TDP Beschränkungen aufhebt und mit besten Kühlern kühlt? Bei Intel sind es eher 5,1...5,2 GHz.
5-8% sehe ich da.Die Unterschiede sind vermutlich zum größten Teil auf den Auslegungspunkt der Kerne zurückzuführen. AMDs Kerne skalieren passabel von ~1W bis 10W pro Kern (und im Boost können die für recht wenig Mehrtakt auf knapp 20W gehen), Intel liegt im Vergleich etwa beim Doppelten für sehr wenig Mehrtakt. Durch die Verwendung stromhungrigerer Transistoren bzw. entsprechend auf höhere Maximalgeschwindigkeit ausgelegte Schaltungen (auch zum Preis eines höheren Verbrauchs) hat intel einfach die Taktgrenze etwas weiter hochgedrückt. Das könnte AMD sicher auch tun, hat sich aber dafür entschieden, ihre Kerne besser auf das Szenario mit mehr Kernen auszulegen (8Kerner im Notebook in 15W mit deutlich über 2GHz, 16Kerner im Desktop in 130W bei deutlich über 4GHz oder 64Kerner im HEDT/Server-Bereich bei ~3GHz bei <3W/Kern). Und das ist eben nicht nur der Prozeß (der hilft zwar beim Stromsparen, wenn man den Maximaltakt niedriger/nicht höher wählt, aber bei gleichem oder gar höherem Takt kommt man dann oft nicht soo viel tiefer beim Verbrauch), sondern eben die Zielvorgaben und die sich daraus ergebende Auslegung des physischen Designs.
robbitop
2021-04-01, 14:51:19
War das nicht zum Großteil der Fakt, daß man im TDP-Limit einfach den Betriebspunkt (relativ gesehen) etwas weiter rausschieben konnte?
Auch mit bester Wasserkühlung und Aushebelung des TDP Limits (PPT) war das bei Vega10 nicht drin. Vega 20 brachte sofort höhere Taktraten.
Das gleiche gilt auch für Vega8 in Renoir ggü Vega8 in Picasso. Das Taktplus war gigantisch. Wobei da aber auch auf Transistorebene angeblich getunt wurde.
Ob RDNA2 mit diesen enormen Taktraten (2,4...2,8 GHz habe ich gesehen) in 14nm möglich gewesen wären? 2,23 GHz in einer Konsole etc. Auch in kleinen SKUs - auch bei viel TDP und guter Kühlung? Ich bezweifle es.
Und Zen2 war sowieso ein Redesign.
Absolut. 1:1 vergleichbar wird es sowieso nicht werden. Wäre Zen 2 @14nm oder 10nm genauso gut taktbar gewesen? Unmöglich das genau zu wissen - aber meine Vermutung sagt nein.
Die Unterschiede sind vermutlich zum größten Teil auf den Auslegungspunkt der Kerne zurückzuführen. AMDs Kerne skalieren passabel von ~1W bis 10W pro Kern (und im Boost können die für recht wenig Mehrtakt auf knapp 20W gehen), Intel liegt im Vergleich etwa beim Doppelten für sehr wenig Mehrtakt. Durch die Verwendung stromhungrigerer Transistoren bzw. entsprechend auf höhere Maximalgeschwindigkeit ausgelegte Schaltungen (auch zum Preis eines höheren Verbrauchs) hat intel einfach die Taktgrenze etwas weiter hochgedrückt.
Es sind sicherlich mehrere Variablen die zum höheren Takt führen. Die HD Libs werden von sämtlichen Experten nach wie vor als Einfluss benannt. Packdichte ist eigentlich auch ein bekannter Einfluss auf Takt.
Skysnake
2021-04-01, 15:59:59
Da sieht man schön, dass Simulation auf einem Digitalrechner gegenüber der realen analogen Physik auf einem IC ihre Grenzen hat. Hat dich bestimmt einiges an Zeit gekostet.
War Teil meiner Diplomarbeit über 12 Monate.
Es zeigt auch, dass der Simulationsaufwand erheblich steigt, wenn man an den Grenzen des machbaren arbeitet.
Ja, einer meiner beiden Betreuer meinte das wurde nicht funktionieren was ich da vor habe... da kam dann auch geringfügig Panik auf als nur Mist aus der Simulation kam..
Und zum Glück gab es überhaupt den Parameter im Tool. Sonst hättest du erst neue Simulationstools entwickeln müssen.[quote]
Ne sonst wäre ich tot gewesen. Die Tools gibt es mit den PDKs zusammen. Wenn du die nicht nutzt, dann wird die Fab das auch nicht produzieren. Und da was an der Software zu drehen ist dann mit Kooperationen und dem Umfang von ner Doktorarbeit verbunden...
[Quote]
Gratulation das du überhaupt das Problem erkannt hast und lösen konntest. Schafft nicht jeder.
Danke, hat mich auch paar Wochen schlaflose Nächte beschert. Witzig war dann am Ende, dass die Abschätzungen aus den händischen Rechnungen zu den DC und AC Analysen von einzelnen Transistoren plötzlich sehr sehr viel besser gepasst haben. Leider erst relativ spät gemerkt, als die Schaltung schon fertig war und ich iterativ optimiert hatte. Ging dann halt leider auf die Qualität der Arbeit... da hatte ich mir am Ende das Leben selbst schwer gemacht mit zu großen Ambitionen... lief zwar laut Simulation am Ende alles stabil aber ich habe auch so einiges benutzen müssen war der Prozess so her gab... Taktverdopplung wäre für die Schaltung wohl selbst mit der Brechstange unmöglich geworden. Für einzelne gute Chips vielleicht bis zu 30/50%, aber mit ausreichend yield wohl nicht mehr als 10%.
Das zeigt aber halt auch, das man aus den Prozessen unglaublich viel raus holen kann, wenn man nur bereit ist den Aufwand zu betreiben. Leider killen einen die Lizenzkosten für die Tools, wenn man nicht einer der ganz großen wie AMD, NVIDIA etc ist. Die Server kosten zwar auch Zehntausende von Euro, aber das sind Peanuts gegen die Millionen für die Lizenzen. Das war für mich z.b. auch der limitierende Faktor und nicht die CPU cores..
Aber bitter, das ich den Einstieg in die Branche nicht geschafft habe. Hatte zwar bei IBM ein Voratellungsgespräch in der CPU-Entwicklung, musste dann aber wegen einem anderen Angebot absagen, weil die sich nicht entscheiden konnten ob sie mich wollen oder nicht... ohne Dr. Hat man es da echt schwer wie mir scheint. Aber auch verständlich. Deine Arbeit kann keiner wirklich kontrollieren und wenn du scheiße baust, dann setzt du Millionen in den Sand...
Platos
2021-04-01, 17:18:48
Mehr Transistoren heißt nicht, dass die Energiedichte sinkt. ;)
Schau dir RKL an ^^
Gut, das stimmt schon, aber Rocket Lake ist ja auch ein Musterbeispiel, wie es nicht laufen sollte. Ich redete ja davon, bei einem neuen Prozess etwas in die breite zu gehen. Nicht von einem seit 7 Jahren genutzten Prozess, der schon lange am Ende ist und dann auch noch ein Backport auf 14nm ist.
Wie lange/wie viele Generationen nutzt man nun schon 14nm?
Broadwell (2015), Skylake (2015), Kabylake (2017), Coffe Lake (2018), Coffe Lake Refresh (2019), Comet Lake (2020), Rocket Lake (2021). Also 7 Generationen bzw. 7 Jahre. Normalerweise sind es 2 :freak:;D
Ich habe mich jetzt mehr auf AMD bezogen, die (bzw. TSMC) ja in der Fertigung (noch) keine solche Probleme haben un jährlich ihre Fortschritte bringen. Und vor allem schon extrem kleine Chiplets haben! Dann spielt es doch keine Rolle, wenn man einmalig/ab und zu/ alle paar Generationen in die Breite geht, wenn man ja sowieso schon grenzwertig klein ist. Das wird schon beim nächsten neuen Prozess wieder ausgeglichen.
Allerdings hast du schon recht. Wenn/falls der Stromverbrauch dadurch steigt (also die Energiedichte gleich bleibt), dann bin ich eher dagegen, aber das muss ja nicht zwingend so sein, oder? Und bei Rocket Lake ist doch der Backport mitverantwortlich für den extrem hohen Stromverbrauch und wie gesagt, Rocket Lake nutzt einen nun 7 Jahre alten Prozess.
Eigentlich ist das schon krass. 7 Jahre sind nahe an einem ganzen Jahrzent. Das sind eigentlich Welten in dieser Branche.
amdfanuwe
2021-04-01, 18:09:55
Sorry, ich war falsch
Locuza
2021-04-02, 00:11:10
interesting. auch wenn man fertigungsprozess berücksichtigt?
Das ist schwer zu vergleichen, da die Prozesse bei TSMC und Intel unterschiedliche Bausteine und Abmessungen anbieten.
Verwendet man 6T(rack) cells und den engsten gate pitch bei TSMC, so könnte ein design bei ~90-100MTr/mm² landen.
Werden stattdessen 7.5T cells mit einem relaxten gate pitch genommen, landet man theoretisch bei eher 60-70MTr/mm².
AMD verwendet 6T cells zusammen mit einem größeren gate pitch, sollte irgendwo dazwischen landen, höchst theoretisch, praktisch liegen AMDs 7nm designs bei 40-60MTr/mm²:
https://www.realworldtech.com/transistor-count-flawed-metric/2/
Gleiches Spiel bei Intel, deren dichteste Variante chips zu bauen ist auch irgendwo bei 100MTr/mm², dass wird bei TGL aber nicht so umgesetzt und da Intel seit längerem keine Transistorenzahlen nennt (außer komischerweise jetzt mit RKL wieder), ist es nicht möglich abzuschätzen, ob Fertigungstechnisch AMD oder Intel einen Vorteil hat.
PS: Intel hat ein nützliches AMA (Ask me Anything) auf reddit gehalten (vielleicht wurde es schon verlinkt?, whatever ;)):
https://www.reddit.com/r/intel/comments/memyfv/ama_march_30th_830am_to_300_pm_pst_intel_11th/
Ein paar Auszüge:
Q: Warum wurde Sunny Cove portiert und nicht Willow Cove?
A: In order to meet the Rocket Lake schedule we had to make sure that the Core architecture we were going to use was "mature" enough to implement it. That's why we went with Sunny Cove. Hope that provides some insight.
- Scott R.
Q: Hat RKL den Dual-Ring beim Last Level Cache wie Willow Cove und was waren die Herausforderungen und Lernerfolge bei der Implementierung von PCIe4?
A: RKL uses the Cypress Cover cores (Sunny Coves ported to 14nm) so it is a single ring architecture.
One of the caveats that we ran into was that we couldn't test as many PCIe devices as we wanted to. We got Video Cards and storage for the most part covered but there are other things out there like NICs, Wi-Fi, etc. that we would have like to spend a bit more time testing.
-Lex H.
Q: Wann wurde aus der Idee zu RKL ein echtes Produkt und welche Herausforderungen gab es bei der 14nm Portierung?
A: Product concept closed Q1 '2019. As we ported back to 14nm one of the things that we had to look at it again was all the trace routings between blocks as these grew in size. Also make sure the blocks were working correctly and make sure that the current design for buffers, transmitters, receivers etc. where on point. So yes, it sounds easier that it actually was.
-Scott R.
What we means is that the product is defined - features, cores, engineering resources, etc. is ready to start the bulk of the work. Hope that helps
- Lex H
PS:
AMD meinte mal das Zen2 zuerst einmal geringere Taktfrequenzen hatte, als Zen1 und es viel Arbeit und Mühe benötigt hat, um Zen1 Taktraten und dann noch mehr zu erreichen.
Das liegt daran das die Widerstände bei einigen Metal-Layers teilweise massiv gestiegen sind und man viele Dinge umstrukturieren muss und spezifisch optimieren, damit man gute Taktraten erreicht.
https://fuse.wikichip.org/wp-content/uploads/2020/02/zen-zen-2-wire-delay.png
https://fuse.wikichip.org/news/3320/7nm-boosted-zen-2-capabilities-but-doubled-the-challenges/
Simpel kann man sich das so vorstellen, dass man wirklich eine Hausarchitektur portiert und jeder Prozess stellt dabei andere Materialien und Regeln zur Verfügung.
Was auf einem Prozess funktioniert und erlaubt ist, kann auf dem nächsten schon gar nicht so direkt funktionieren, entsprechend ist das keine simple Sache, trotz bekannter Architektur.
Skysnake
2021-04-02, 03:16:23
Der Widerstand allein ist da aber kein gutes Maß. Normal ist nur das Produkt RC relevant.
amdfanuwe
2021-04-02, 05:43:36
Der Widerstand allein ist da aber kein gutes Maß. Normal ist nur das Produkt RC relevant.
Für die Datenleitungen.
Für die Versorgungsleitungen spielt R schon eine große Rolle.
Skysnake
2021-04-02, 06:09:52
Ja, wobei da R und RC betrachtet wird. Je nachdem sogar RLC. Je nachdem was man sich halt genau anschaut, also bezüglich Ausdehnung.
Für den einzelnen Transistor ist R und R/C ausreichend sowohl für DC (überlebt die Leitung das überhaupt) als auch AC (sackt die Spannung beim Betrieb nicht zu weit ab).
Wenn man dann aber weiter hoch geht und sich anschaut wie größere Blöcke versorgt werden, bzw wie der gesamte Chip versorgt wird inkl. Den Pad, dann muss man selbst für den Kack Strom ne RL/C Betrachtung machen für AC. Für DC langt natürlich auch weiterhin R.
Das AC Verhalten sollte man echt nicht unterschätzen. Deswegen wird der Analoge Kram auch immer mit ner eigenen Spannungsversorgung beglückt, da das Digitalzeug so dermaßen die Spannung kaputt macht das es nicht mehr feierlich ist...
Und das ist nicht nur ein Absacken, wenn die Transistoren auf machen und da richtig was durch rauscht. Wenn die zu machen werden Elektronen aus dem Kanal gedrückt. Das kann auch zu einem kurzfristigen überschießen führen.
Wobei das eher nen Problem bei der Ansteuerung für Gates ist. Aber man sollte das auch teils auf der Versorgung sehen bei großen Digitalböcken als schnelleren Anstieg. Da ist am Ende die Transition mit dem kurzen Open beim Umschalten das Hauptproblem
Wobei der Ground bounce im Substrat eher ein Problem/Ärgernis sein wird, weil DC passiert da ja nichts. Und Substratkontakte sind halt im Vergleich riesige Gebilde.
amdfanuwe
2021-04-02, 14:48:29
Gute Erklärung.
Man sieht, dass bei einem Backport auf Grund der längeren Leitungen und höheren benötigten Ströme einiges an Arbeit ansteht, damit der Chip nachher auch mit hohem Takt arbeiten kann.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.