Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)
Ramius
2022-08-17, 13:52:01
Was sind das für seltsame Kriterien für ein Mainboard?
Wann ist ein Mainboard brauchbar? Wenn die CPU darin läuft?
Wann ist ein Mainboard hinnehmbar?
Jeder hat da sein eigenes Profil. Ich find beispielsweise diese dämliche Fixierung auf "Performance" bei PCGH auf 60% der Testnote total albern, es reicht ja wenn nix stört, wieso 60%? Ausstattung ist doch viel wichtiger.
MMn reicht eine Stromversporgung, die grade stark genug ist, dass man keinen Kühler darauf brauchen würde theoretisch, also im Effizienzpeak läuft bei 105 (oder 170W, je nach CPU dann), mir würde 2 Speicherslots reichen, keine Aufteilung von einem PEG auf 2 PEG, kein Zweckentfremden des PEG für m.2, PCIe4 für den PEG wird noch ewig reichen, 4 m.2 fänd ich optimal, wahlweise gehen auch 4x-Slots, sofern sie 4 Slots vom PEG entfernt sind, onboard Sound ist mir furzegal, dafür wär mir ein 1x PCIe ganz untern sehr recht für meine Soundkarte... man findet schon was cooles, was den Preis klein hält, da bin ich mir sicher.
prinz_valium_2
2022-08-17, 14:40:56
Was sind das für seltsame Kriterien für ein Mainboard?
Wann ist ein Mainboard brauchbar? Wenn die CPU darin läuft?
Wann ist ein Mainboard hinnehmbar?
Hinnehmbar ist ein Mainboard, wenn es dein System zum laufen bringt und deine CPU nicht killt.
Brauchbar ist ein Mainboard, wenn es dein System under allen Bedingungen (wie z.B. OC, wenn du das willst) sicher am laufen hält und dazu noch das Mindestmaß an sekundären Anschlussmöglichkeiten und Funktionen bietet, die ein durchschnittlicher Konsument erwartet und nutzen würde.
Die Spülmaschine in meiner letzten Mietwohnung war z.B. hinnehmbar, aber alles andere als brauchbar ;)
So eine kleine scheiß Ikea Einbauküche war das mit Ofen ohne Umluft etc.
robbitop
2022-08-17, 15:02:06
In der Hinsicht hatte ich nie Probleme mit 120€ Boards von MSi und ASRock. Lief alles stabil in der Lebenszeit und funktioerte. Das will man ja dann wohl auch annehmen.
prinz_valium_2
2022-08-17, 15:15:17
https://cdn.videocardz.com/1/2022/08/AMD-Ryzen-7700X.jpg
fondness
2022-08-17, 15:23:42
Wenn ich das Ding so habe, dann mache ich hoffentlich auch Benchmarks und nicht nur ein Bild. :D
Zumal AMD mit dem Bild genau zurückverfolgen kann woher die CPU kommt, mit Benchmarks alleine wäre das nicht möglich.
horn 12
2022-08-17, 15:27:32
KW 26 vom 2022
Ein 8 Kerner und dieser wird sich gegen der 5800X3D stellen müssen :-))
MSABK
2022-08-17, 15:38:26
Geil. Ich bin gehyped.:D
Matrix316
2022-08-17, 15:42:48
Hmmmmmmmmmmmmmm..............
................ da fällt mir auf..............
...... will man 2022 wieder eine 7700er CPU einbauen? :D ;D
https://www.intel.de/content/www/de/de/products/sku/97128/intel-core-i77700-processor-8m-cache-up-to-4-20-ghz/specifications.html
Vielleicht hätte man sich da jetzt langsam ein anderes Namensschema ausdenken sollen...;)
Lehdro
2022-08-17, 15:53:16
Hmmmmmmmmmmmmmm..............
................ da fällt mir auf..............
...... will man 2022 wieder eine 7700er CPU einbauen? :D ;D
https://www.intel.de/content/www/de/de/products/sku/97128/intel-core-i77700-processor-8m-cache-up-to-4-20-ghz/specifications.html
Vielleicht hätte man sich da jetzt langsam ein anderes Namensschema ausdenken sollen...;)
Wieso? Gab auch Leute die sind vom 2700k auf den 2700X umgestiegen. Oder vom 5960X auf den 5950X "downgraden" ;D
Bei AMD kannst du auch zum zweiten mal eine aktuelle Radeon 6950 haben, einmal mit HD und ohne RX, oder halt mit RX und XT. :freak:
davidzo
2022-08-17, 16:07:56
Hmmmmmmmmmmmmmm..............
................ da fällt mir auf..............
...... will man 2022 wieder eine 7700er CPU einbauen? :D ;D
https://www.intel.de/content/www/de/de/products/sku/97128/intel-core-i77700-processor-8m-cache-up-to-4-20-ghz/specifications.html
Vielleicht hätte man sich da jetzt langsam ein anderes Namensschema ausdenken sollen...;)
Nice one :up:
2017 -> 2022 7700.x86 CPU:
- 4x Cache
- 4x MT Leistung
- 4x i/o Bandbreite
- 2x ST Leistung
- 2x DRAM Bandbreite
- 2x Corecount
- ± 300$ = same price
r3ptil3
2022-08-17, 17:42:14
@robbitop
Ein 5950X auf einem 40 Euro Board und es klappt, problemlos. :)
https://www.pcgameshardware.de/Ryzen-9-5950X-CPU-276916/News/Test-700-Euro-CPU-40-Euro-Billig-Mainboard-1386883/
Die Frage nach der Sinnhaftigkeit eines 200 Euro+ Boards, hat sich hier wohl fast jeder schon gestellt. Seitdem CPU-OC eigentlich keine Rolle mehr spielt, ist ein dermaßen hoher Unterschied zwischen dem günstigsten und teuersten Board, nicht logisch erklärbar. Das kann weder mit einer exzellenten Spannungsversorgung noch Ausstattung begründet werden. Die Hersteller bzw. das Marketing leisten hier aber exzellente Arbeit. LEDs, Optik, Kühlkörper etc. reichen wohl doch aus.
Zum 7700X:
Die SMD-Kondenstatoren ganz am Rand, sehen schon bisschen gefährlich aus.
Will die CPU nicht sehen, nachdem da Wärmeleitpaste vertrichen wird. :freak:
bbott
2022-08-17, 21:31:46
Wer will schon bei >=230/250W noch OC betrieben?! Das sind doch nur noch Exoten :biggrin:
basix
2022-08-17, 21:41:56
Oder vom 5960X auf den 5950X "downgraden" ;D
Hier :D
Wollte dann später eigentlich endlich vom 5960X auf den 6950X upgraden, aber AMD erfüllt mir diesen Wunsch leider nicht :D
BlacKi
2022-08-17, 22:33:51
Wer will schon bei >=230/250W noch OC betrieben?! Das sind doch nur noch Exoten :biggrin:du weißt schon wo du hier bist?:biggrin:
Zum 7700X:
Die SMD-Kondenstatoren ganz am Rand, sehen schon bisschen gefährlich aus.
Will die CPU nicht sehen, nachdem da Wärmeleitpaste vertrichen wird. :freak:
du meinst flüssigmetall?:biggrin: normale wlp darf ruhig auf die smd gelangen. das saubermachen beim wiederverkauf oder später für dei vitrine wird aber ne sauerei:wink:
BlacKi
2022-08-17, 22:35:51
sry doppelpost
Matrix316
2022-08-17, 22:56:40
Wieso? Gab auch Leute die sind vom 2700k auf den 2700X umgestiegen. Oder vom 5960X auf den 5950X "downgraden" ;D
Bei AMD kannst du auch zum zweiten mal eine aktuelle Radeon 6950 haben, einmal mit HD und ohne RX, oder halt mit RX und XT. :freak:
Damals war ich noch vom Ryzen geblendet, aber jetzt fällts irgendwie mehr auf. Der intel 7700 war mal längere Zeit so ein Gaming Benchmark für AMD und jetzt haben sie selbst einen...
Blediator16
2022-08-17, 23:04:40
Amd hatte auch eine 5/6/7/80 wie Nvidia. Die Namen werden sich zwangsläufig überschneiden.
tm0975
2022-08-18, 13:40:31
da hier viele aus pcie 5.0 offensichtlich keinen nutzen ziehen können, sollte amd das feature am besten einstampfen. zufrieden? wir haben mittlerweile keine teuren datenbank-server mehr für die entwicklung im einsatz sondern ganz normale win10 pcs mit sql server, 5950 cpu und mehreren m2.nvme pcie 4.0. da uns IO wichtig ist, sind die pcs ein echter mehrwert und schneller als die ganzen tollen 20k Kunden server von Dell, HP etc... PCIe 5.0 wird die Transformationszeiten nochmals deutlich verbessern. ich nehm,e das feature gerne uns zahle dafür auch gerne ein paar 100 € extra...
Matrix316
2022-08-18, 13:51:10
Amd hatte auch eine 5/6/7/80 wie Nvidia. Die Namen werden sich zwangsläufig überschneiden.
Och naja, man kann es ja auch anders machen. Nach dem Snapdragon 888 kam Snapdragon 8 Gen 1. :ugly: und bei Apple kam man nach A13 mit M1 und M2.
AMD könnte die neue Klasse auch GEN4 M7 nennen. :D Und dann gibt's den GEN4M76 und GEN4M78 und GEN4M712 und GEN4M716. :) :wink:
The_Invisible
2022-08-18, 14:08:17
da hier viele aus pcie 5.0 offensichtlich keinen nutzen ziehen können, sollte amd das feature am besten einstampfen. zufrieden? wir haben mittlerweile keine teuren datenbank-server mehr für die entwicklung im einsatz sondern ganz normale win10 pcs mit sql server, 5950 cpu und mehreren m2.nvme pcie 4.0. da uns IO wichtig ist, sind die pcs ein echter mehrwert und schneller als die ganzen tollen 20k Kunden server von Dell, HP etc... PCIe 5.0 wird die Transformationszeiten nochmals deutlich verbessern. ich nehm,e das feature gerne uns zahle dafür auch gerne ein paar 100 € extra...
Naja ein Server bietet aber schon noch mehr Vorteile außerhalb der Leistung ; )
Ansonsten gebe ich aber recht, bei uns laufen quasi auch nur mehr 12/16Kerner von AMD samt NVME in der Entwicklung, frühere HEDT Workstations gibts quasi nicht mehr. Kommt aber wohl auch draufan was man so braucht an Erweiterungsmöglichkeiten.
Sorgen machen mir bei den neuen Ryzens dann eigentlich nur die Kühlung, vor allem die mit 170W TDP. Wenn die sich ähnlich verhalten wie mein 5950x hängen die ja permanent im Temp-Limit :D
robbitop
2022-08-18, 14:16:01
Ansprüche von Privat/Endkunden =/ Ansprüche von Firmenkunden. PCIe5 wurde aus Privatkundensicht in Bezug auf dessen praktischen Nurzen in Frage gestellt (vor dem Hintergrund dass die Boards signifikant teurer sein sollten). Im Firmenumfeld ist das logischerweise potenziell völlig anders. Das sollte man schon differenzieren können. ;)
bbott
2022-08-18, 16:23:41
da hier viele aus pcie 5.0 offensichtlich keinen nutzen ziehen können, sollte amd das feature am besten einstampfen. zufrieden? wir haben mittlerweile keine teuren datenbank-server mehr für die entwicklung im einsatz sondern ganz normale win10 pcs mit sql server, 5950 cpu und mehreren m2.nvme pcie 4.0. da uns IO wichtig ist, sind die pcs ein echter mehrwert und schneller als die ganzen tollen 20k Kunden server von Dell, HP etc... PCIe 5.0 wird die Transformationszeiten nochmals deutlich verbessern. ich nehm,e das feature gerne uns zahle dafür auch gerne ein paar 100 € extra...
Derzeit ist PCI 5 auch Sinnfrei, bis das Sinn macht ist RL veraltet. Nenn uns doch ein sinnvolles und realistisches Praxisbeispiel ;-):AM5 hingegen macht PCIe 5 mehr Sinn, weil ein Zen 5/6 auf den Borads von Gen 5 profitieren könnte.
Bis PCIe 5 relevant wird dürfte auch ein Zen4 eher bremsen.
amdfanuwe
2022-08-18, 16:40:21
Nenn uns doch ein sinnvolles und realistisches Praxisbeispiel ;-):
Wie sollen denn die Hersteller von Beschleunigern ihre AIBs entwickeln und testen können, wenn es keine Boards mit entsprechendem Standard gibt?
Insofern hat Intel einen Vorteil, dass PCIe 5.0 Erweiterungen und Treiber auf Intel Systeme entwickelt werden. Da kennt man nun die Macken.
Derzeit ist PCI 5 auch Sinnfrei, bis das Sinn macht ist RL veraltet. Nenn uns doch ein sinnvolles und realistisches Praxisbeispiel ;-):AM5 hingegen macht PCIe 5 mehr Sinn, weil ein Zen 5/6 auf den Borads von Gen 5 profitieren könnte.
Bis PCIe 5 relevant wird dürfte auch ein Zen4 eher bremsen.
Zumal NV ja PCIe5 gar nicht unterstützen soll mit Ada. Mal sehen ob sich das bewahrheitet.
robbitop
2022-08-22, 09:23:25
Auch für Lovelace und N31 wird es in ihrer Lebensdauer praktisch irrelevant bleiben.
Nightspider
2022-08-22, 10:01:18
Wie immer lohnt es sich fast mehr ein relativ günstiges Board zu kaufen und einfach beim nächsten CPU Upgrade wieder auf ein neues Board mit neuem Chipsatz zu wechseln.
Falls man das überhaupt braucht.
dildo4u
2022-08-22, 10:06:39
Das machte Sinn da kaum einer massive Budgets in First Gen Ryzen Boards gesteckt hatte diesmal sollten sie deutlich robuster sein da deutlich mher Geld zu machen ist.
M4xw0lf
2022-08-23, 11:17:38
https://twitter.com/9550pro/status/1561971310443794432
7600X ES zum Schnäppchenpreis, 4,4 GHz Baseclock :D
r3ptil3
2022-08-23, 16:13:45
https://twitter.com/9550pro/status/1561971310443794432
7600X ES zum Schnäppchenpreis, 4,4 GHz Baseclock :D
Von 2021... interessant. Und kurz vor Release noch derart gravierende BIOS-Probleme, dass der Release um Wochen verschoben wird?
r3ptil3
2022-08-23, 16:44:22
Yees, danke ASUS... mATX und ITX X670E. :D
https://cdn.wccftech.com/wp-content/uploads/2022/08/ASUS-ROG-Crosshair-X670E-Gene-mATX-ROG-STRIX-X670E-I-Gaming-WiFi-mITX-Motherboards-For-AMD-Ryzen-7000-CPUs-_2.png
https://cdn.wccftech.com/wp-content/uploads/2022/08/ASUS-ROG-Crosshair-X670E-Gene-mATX-ROG-STRIX-X670E-I-Gaming-WiFi-mITX-Motherboards-For-AMD-Ryzen-7000-CPUs-_3-1480x833.png
https://wccftech.com/asus-details-x670e-motherboard-features-first-mitx-matx-rog-designs-dynamic-oc-switcher-amd-ryzen-7000-cpus/
prinz_valium_2
2022-08-23, 16:47:33
Von 2021... interessant. Und kurz vor Release noch derart gravierende BIOS-Probleme, dass der Release um Wochen verschoben wird?
Gravierend sind Probleme, sie man nicht schnell und einfach lösen kann.
Kann also auch nur ein kleines nicht weltbewegendes Problem sein, was einfach nur den Launch um 2 Monate verschiebt.
Schließlich muss das BIOS ja auch zu den Partner und bereitgestellt werden.
Gipsel
2022-08-23, 17:10:46
Von 2021... interessant.Das steht beim Copyright. Zusammengebaut wurde die CPU in der 17. Woche des Jahres 2022 (das war die letzte Woche im April, der Wafer dürfte nur ein paar Wochen älter gewesen sein).
davidzo
2022-08-23, 18:57:02
Yees, danke ASUS... mATX und ITX X670E. :D
Aber wieso immer diese 40mm Lüfter in der i/o-Blende die nach 18monaten Betrieb anfangen zu rattern?
Die Kühlerkompatibilität wird auch schlecht sein bei dem hohen Tower auf Mosfets und M.2 Slot. NH-L12S, blackridge oder AXP200 fallen da wohl schonmal raus.
nee, dann lieber ein Board mit "nur" PCIe4.0 für SSD und GPU und dafür dann ordentliche Kühlperformance und geringe Lautstärke, sowie wahrscheinlich viel niedrigerem Stromverbrauch.
Den Asus gebrandeten USB-Hub der nur mit der dazugehörigen Asus Bloatware funktioniert können die sich in die Haare schmieren.
BlacKi
2022-08-23, 19:03:42
itx boards sind einfach unglaubblich teuer. vermutlich hat man bei dem x670e sogar noch den 2 chip entfernt, wegen platzproblemen und wegfall von connectivity und ruft trotzdem weit über 300€ ab. asus like würdech ich sogar nochmal nen 100er drauf rechnen.
echt übel was die dinger heute kosten, obwohl nix dran ist.
bbott
2022-08-23, 20:29:20
Yees, danke ASUS... mATX und ITX X670E. :D
https://cdn.wccftech.com/wp-content/uploads/2022/08/ASUS-ROG-Crosshair-X670E-Gene-mATX-ROG-STRIX-X670E-I-Gaming-WiFi-mITX-Motherboards-For-AMD-Ryzen-7000-CPUs-_2.png
https://cdn.wccftech.com/wp-content/uploads/2022/08/ASUS-ROG-Crosshair-X670E-Gene-mATX-ROG-STRIX-X670E-I-Gaming-WiFi-mITX-Motherboards-For-AMD-Ryzen-7000-CPUs-_3-1480x833.png
https://wccftech.com/asus-details-x670e-motherboard-features-first-mitx-matx-rog-designs-dynamic-oc-switcher-amd-ryzen-7000-cpus/
Was bring X670E auf ITX, was nicht auch B650E bringen kann? Außerdem ist doch X670 gleich 2x B650?!
Tangletingle
2022-08-23, 21:01:34
Eigentlich schon. Ich glaub das das scam ist. Es ging ja um die breitere Anbindung der unteren slots auf ATX/eatx. Was soll das mit 670e?
r3ptil3
2022-08-23, 21:50:10
Was bring X670E auf ITX, was nicht auch B650E bringen kann? Außerdem ist doch X670 gleich 2x B650?!
Ging mir mehr darum, dass ASUS weiterhin auf die kompakten Formate setzt.
Von den anderen Herstellern kam da eben noch rein gar nix in Sachen ITX/mATX. Selbst auf der Intel Plattform, wirkt es schon so, dass da kein all zu grosses Interesse mehr besteht.
Gigabyte ignorierte fast ein halbes Jahr die Probleme des Z690 ITX und hat dann auf einen Schlag eine Rückrufaktion gestartet. ASUS bot den B660 Chipsatz auf ITX Basis nur mit starken Kompromissen an.
Ich warte auch auf eine günstigere und gute B650 ITX/mATX Variante. Gab ja zudem auch ein Gerücht, dass die B650 Variante besser geht was RAM OC anbelangt.
Der_Korken
2022-08-23, 23:32:41
Nur nochmal zum mitschreiben: Der Unterschied zwischen B650, X670 und X670E ist im Wesentlichen, dass es PCIe 5.0 x16 beim B650 gar nicht, beim X670 optional und beim X670E garantiert gibt? Einen PCIe 5.0 M2-Slot haben aber alle auf jeden Fall? Es ist zwar unwahrscheinlich, dass ich bei Zen 4 schon aufrüste, aber wenn, dann scheint mir ein B650 die beste Wahl zu sein. Ich würde natürlich gerne PCIe 5.0 auch für die GPU mitnehmen, aber wenn ich dazu von B650 auf X670E und >200€ Aufpreis dafür zahlen muss, wäre es mir das nicht wert.
bbott
2022-08-23, 23:37:41
Den B650E soll es auch noch geben ;-)
Der_Korken
2022-08-24, 00:48:58
Hatte ich vorher noch nicht gehört. Das könnte eine schöne Lösung sein. Ich dachte bisher, dass nur der X670E aus zwei Chipsets bestehen soll, aber der normale X670 soll das auch. Die einzige Lücke wäre dann Single-Chipset aber mit PCIe 5.0 für den obersten x16 Slot (die anderen habe ich eh noch nie genutzt). Da AMD aber B650 explizit von dieser Anbindung ausschließt, obwohl das technisch überhaupt nichts mit dem Chipsatz zu tun hat, wäre ich skeptisch diese Kombination dann in Form eines B650E doch noch kommt. Das wäre für die meisten deutlich sinnvoller als ein overengineertes Dual-Chipset X670-Board. Es sei denn, der B650E kommt nur für überteuerte Extreme-Overclocking-Boards mit 2000W-VRMs.
r3ptil3
2022-08-24, 01:11:00
Würde mich nicht wundern wenn der B650E wieder kurzfristig komplett rausgeflogen ist und stattdessen die Spezifikationen des B650 generell angepasst wurden.
Der B650E wurde ja auch nur Anfang/Mitte Juli erwähnt und ab der Vorstellung im August dann kein Wort mehr darüber.
Die Chipsets sind ja alle identisch zwischen dem X670E, X670 und B650.
Das mit den zwei Chipsets für den X670 wäre mir jetzt neu.
Ich bin sowieso überrascht bzgl. PCIe 5.0 für die GPU - kratzt die Bandbreite von PCIe 4.0 mit der neuen Gen denn wieder am Limit?
Der_Korken
2022-08-24, 01:41:02
Dass X670 aus zwei Chips besteht, steht u.a. hier: https://www.hardwareluxx.de/index.php/news/hardware/mainboards/58835-x670e-dual-chipsatz-ist-guenstiger-pcie-5-0-dennoch-der-preistreiber.html
Dort wird auch gesagt, dass PCIe 5.0 ein großer Preistreiber ist - macht Sinn das dann nicht vorzuschreiben. Mitnehmen würden viele das sicher trotzdem gerne, da Zen 4 es von sich aus bereits kann und AM5 sicherlich ein paar Jahre (und somit auch ein paar CPU-Generationen) bleiben wird. Für heutige Grakas ist 5.0 unnötig, aber wenn man 2024 auf Zen 5(+) und Geforce 5000/RDNA4 aufrüstet, dann vielleicht nicht mehr. Ist aber alles Spekulation in Richtung DirectStorage. SSDs mit PCIe 4.0-Speed sind aber immer noch relativ teuer, d.h. solche mit 5.0-Speed werden auch in zwei, drei Jahren noch eher Nischenprodukte sein. Da sehen 16 4.0-Lanes für die GPU nach wie vor nicht so schlecht aus.
amdfanuwe
2022-08-24, 02:55:15
Ich bin sowieso überrascht bzgl. PCIe 5.0 für die GPU - kratzt die Bandbreite von PCIe 4.0 mit der neuen Gen denn wieder am Limit?
Gamer sind nicht der Nabel der Welt.
Für CXL, NVME Anbindung, schnellere Beschleuniger Anbindung im Serverbereich, da wirds gut bezahlt.
Wenn die Technik schon mal da ist, warum dann im Desktop verschmähen?
Bei der nächsten GPU GEN rechne ich noch nicht mit PCIe 5.0, und wenn, dann dürfte es kaum einen Unterschied zu PCIe 4.0 Anbindung ausmachen.
Selbst für Smartaccess Storage sollte 4.0 x16 nicht bremsen.
AMD wird wohl nicht so schnell eine "billige" GPU mit PCIe 5.0 x4 bringen.
BlacKi
2022-08-24, 05:25:22
Ich bin sowieso überrascht bzgl. PCIe 5.0 für die GPU - kratzt die Bandbreite von PCIe 4.0 mit der neuen Gen denn wieder am Limit?
ne, war sie nie. aber latenz verbessert sich, weil man mehr daten ohne wartezeit übertragen kann.
dildo4u
2022-08-24, 06:29:52
Angebliche Zen 4 3D Leaks.
https://youtu.be/EvCFDqEioyk?t=660
mironicus
2022-08-24, 08:23:23
Zen4 3D = Zen 4 + 30% :eek:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80303&stc=1&d=1661322119
M4xw0lf
2022-08-24, 08:38:12
Zen4 3D = Zen 4 + 30% :eek:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80303&stc=1&d=1661322119
Warum sollte der Cache bei Zen4 so viel mehr bringen als bei Zen3? Wird ein Einzelwert sein, von Zen3D kennt man ja auch Ergebnisse von -5 bis + 50%.
Schätze der best case wird sein, dass der Cache bei Zen4 ohne Taktnachteil daherkommt (auch das halte nich noch für fragwürdig), sodass der Durchschnitt in einem breiten Feld (an Spielen) auf vielleicht 20% kommt.
Also doch 6/7nm, dachte ich doch gleich.
dildo4u
2022-08-24, 08:47:09
Die Benches haben zu wenige Infos wenn du Zen 4 mit grottigen DDR5 Kombinierst hat die 3D Version natürlich massive Vorteile.
Spiderman Benches 12900k DDR4 langamer als 5800x3D mit DDR5 6400 hingegen massiv schneller.
https://youtu.be/xI3gnFgvbV8?t=766
Du mit deinen Spiderman Benches :freak: Das grenzt wirklich an Trollerei.
fondness
2022-08-24, 09:10:06
Warum sollte der Cache bei Zen4 so viel mehr bringen als bei Zen3? Wird ein Einzelwert sein, von Zen3D kennt man ja auch Ergebnisse von -5 bis + 50%.
Schätze der best case wird sein, dass der Cache bei Zen4 ohne Taktnachteil daherkommt (auch das halte nich noch für fragwürdig), sodass der Durchschnitt in einem breiten Feld (an Spielen) auf vielleicht 20% kommt.
Da fallen mir spontan zwei mögliche Gründe ein, einer wird eh erwähnt:
1) Weil der Takt nicht mehr (so stark) sinkt wie bei Zen3
2) Weil der V-Cache größer ist als 64MB
Tangletingle
2022-08-24, 09:15:44
Zen4 3D = Zen 4 + 30% :eek:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80303&stc=1&d=1661322119
Laut dem oben verlinkten Video handelt es sich bei zen4 um preproduction samples mit niedrigem Takt und niedrigem ramtakt. Deshalb liegen zen3(x3d) auch so nahe mit ihm zusammen. Zen4x3d hingegen soll wohl schon finalen Takt haben. Zumindest hab ich das so verstanden.
Linmoum
2022-08-24, 09:22:08
Also doch 6/7nm, dachte ich doch gleich.Offiziell gibt es laut TSMC bislang erst einmal nur N7-on-N7 und N5-on-N5.
Nur weil MLID etwas anderes behauptet, muss das nicht automatisch stimmen. :freak:
Wenn ich mich richtig erinnere, gehöre er damals auch zu den >+20% IPC Typen für Zen4. Was daraus geworden ist, sieht man. War bs.
horn 12
2022-08-24, 09:35:00
Dann würde Zen4 3D also knapp ein Jahr nach Zen3 3D kommen und wäre noch gutes halbes Jahr hin...
Ansonsten würde man sich wohl die Ganzen Zen 4 CPU und das Gesamte LineUp kaputt radieren.
Somit ein Zen4 Refresh mittels 3D V-Cache der 2-ten Generation.
aceCrasher
2022-08-24, 10:00:11
Ansonsten würde man sich wohl die Ganzen Zen 4 CPU und das Gesamte LineUp kaputt radieren.
Das glaube ich nicht, die 3D Modelle haben ja immernoch einen exorbitanten Preisaufschlag, sie sind quasi die Premium-Modelle für Spieler. Ein 7800X3D ist keine Konkurrenz für einen 7900X, weil letzterer für Anwendungen weiterhin die bessere Wahl ist und zum Spielen ohnehin keinen Sinn ergibt, im Vergleich zum normalen 7800X.
Das glaube ich nicht, die 3D Modelle haben ja immernoch einen exorbitanten Preisaufschlag, sie sind quasi die Premium-Modelle für Spieler. Ein 7800X3D ist keine Konkurrenz für einen 7900X, weil letzterer für Anwendungen weiterhin die bessere Wahl ist und zum Spielen ohnehin keinen Sinn ergibt, im Vergleich zum normalen 7800X.
Ich glaube nicht, dass der 7800X nur 8 Kerne hat, sonst hätte man den mit gelauncht. Ich bin immer noch davon überzeugt, dass der 12C mit 105W hat und der 7900X 12C mit 170W. Dieser Wechsel wurde einfach nötig aufgrund RPL und seinen mengenmäßigen Little-Cores. Und deshalb gibt es auch mehr 3DCache, doppelt soviel um genau zu sein ;). Ein 7800X3D mit 12C und ein 7950X3D mit 16C sind dann eben auch nur 1 X3D-Package mit 128MB VCache. AMD hätte den 7800X sicherlich gerne als 8C gebracht, aber Intel ist dann eben doch eine zu starke Konkurrenz geworden im Multithreading.
prinz_valium_2
2022-08-24, 11:02:20
Zen 4 V-Cache vs 6/7nm Zen 4 Standard bei 30% kann ich noch glauben.
Aber Zen 4 V-Cache vs 5nm Zen 4 Standard wird im Leben keine 30% schaffen.
Das ist unmöglich.
Also würde Zen 4 V-Cache auf die Ryzen 7000 Serie auch wieder nur 10 bis 15% bringen.
Linmoum
2022-08-24, 11:17:38
Ich halte mehr als durch den 5800X3D schon für realistisch, sofern die Taktregression dieses Mal komplett bzw. deutlich geringer ausfällt.
Da ist definitiv das Potential für mehr als die 15% des 5800X3D vorhanden.
robbitop
2022-08-24, 11:17:43
Es würde mich überraschen, wenn der taktnormierte Einfluss des VCaches grundlegend anders wäre als bei Zen 3. In einigen Situationen bringt er extremst viel, in der Mehrzahl bringt er eine moderate Steigerung und dann beim Rest so gut wie nichts. Ist immer die Frage aus welchen Szenarien man dann ein Mittelwert berechnet.
Da der Taktnachteil diesmal ggf geringer ist, kann der Gesamtvorteil dieser Modelle ggf etwas größer sein.
Neurosphere
2022-08-24, 11:23:21
Ist das nicht von MLID? Ich wäre da vorsichtig mit seinen "Leaks".
Es gibt auch keinen Grund warum Zen 4D 30% schneller sein sollte.
bbott
2022-08-24, 13:06:26
Ich gehe davon aus (nach bisherigen Gerüchen), dass es nur einen Chipsatz gibt den B650E.
Aus diesem werden alle vier Kombinationen gemacht:
1x B650 - PCIe 5 deaktiviert
1x B650E - PCIe 5 aktiviert
2x B650 = X670 - PCIe 5 deaktiviert
2x B650E = X670E - PCIe 5 aktiviert
bbott
2022-08-24, 13:21:05
Ein Zen 4 3D dürft weniger vom 3D Cache profitieren, da folgende Faktoren ihn weniger Effizient werden lassen:
1. Zen 4 hat mehr L2
2. Zen 4 hat DDR5 mehr Bandbreite und bei gutem Ram bessere/identische Latenzen
Potenziell positive Effekte:
1. Takt (fast) auf Zen 4 Niveau
2. Weitere Verbesserungen an Latenz und Bandbreite des 3D Caches
Gerade der Takt hängt, aber stark davon ab, wie Zen 4 die TDP von 170W ausnutzt. Falls man eher unter 142W bleiben könnte, wäre noch Platz für 3D Cache ohne Taktverlust. Dann wären auch die 30% nicht auszuschließen (in Games bzw. Cache lastigen Benches). Aussagen dazu benötigen aber Stromverbrauchs angaben. Warum es immer noch keine Leaks gibt?! Zum Glück dauert es nicht mehr all zulange :-)
Ein Zen 4 3D dürft weniger vom 3D Cache profitieren
Moore's Law Is Dead behauptet das Gegenteil:
Danach war der R7 5800X3D nur mit der "BetaGeneration of V-Cache" unterwegs :-)
EvCFDqEioyk
BlacKi
2022-08-24, 17:55:17
behaupten kann er viel, bringt schließlich klicks. diverse ram oc tests zeigen aber, das der vorteil mit schnellerem ram geringer wird. auch schon mit ddr4.
Ja, ist klar. Es kommt halt drauf an was der 2. Gen V-Cache besser macht um den Abstand zum Standard Zen4 zu vergrößern.
basix
2022-08-24, 18:06:46
Ein Zen 4 3D dürft weniger vom 3D Cache profitieren, da folgende Faktoren ihn weniger Effizient werden lassen:
1. Zen 4 hat mehr L2
2. Zen 4 hat DDR5 mehr Bandbreite und bei gutem Ram bessere/identische Latenzen
Potenziell positive Effekte:
1. Takt (fast) auf Zen 4 Niveau
2. Weitere Verbesserungen an Latenz und Bandbreite des 3D Caches
Gerade der Takt hängt, aber stark davon ab, wie Zen 4 die TDP von 170W ausnutzt. Falls man eher unter 142W bleiben könnte, wäre noch Platz für 3D Cache ohne Taktverlust. Dann wären auch die 30% nicht auszuschließen (in Games bzw. Cache lastigen Benches). Aussagen dazu benötigen aber Stromverbrauchs angaben. Warum es immer noch keine Leaks gibt?! Zum Glück dauert es nicht mehr all zulange :-)
- Verbesserte / andere Caching Algorithmen für die 96MByte und/oder Zen 4
- Keine Core Clock Regression
- Gleiche Speicher-Latenz in [ns] ist eine effektive Regression in [clock cycles], da Zem 4 höher taktet. Da könnte ein grösserer Cache überproportional helfen
- ...
Ich bin bei 30% noch vorsichtig, aber eine Steigerung verglichen zu Zen 3 X3D ist nicht so unwahrscheinlich ;)
robbitop
2022-08-24, 18:08:49
2nd Gen meint wahrscheinlich nur, dass die Nachteile aus der 1. Generation (Spannungs- und Taktlimit) mitigiert worden sind. Wenn es mehr bringen ggü dem Basismodell soll (als noch zu Zen 3 vs Zen3 3d) , liegt das sicherlich am besseren Takt. Wenn es taktnormiert sogar mehr bringen soll, dann kann er eigentlich nur größer geworden sein (also doppelt gestapelt - 128 mib+32 mib anstatt 64mib+32mib). Ich vermute aber, dass es einfach nur die Nachteile aus Zen 3 (Takt und Spannungslimitierungen) mitigiert.
basix
2022-08-24, 18:11:15
DDR5 wird evtl. auch schlechtere Latenzen aufweisen, dann kann es ebenfalls mehr bringen
Ph0b0ss
2022-08-24, 18:43:36
Ist eigentlich schon bekannt, ob der Zen 4 in der Integer-Einheit mehr ALUs/AGUs und in der FPU mehr MULs/ADDs als der Zen 3 hat? Falls ja, könnte das ja zusammen mit dem 3D-Cache vielleicht auch nochmal einen ordentlichen Schub geben, falls Spiele da mit der Breite gut skalieren?
robbitop
2022-08-24, 18:52:22
Bisher sieht es so aus als hätte Zen 4 abseits des größeren L2 Caches keine wesentlichen Änderungen ggü Zen 3.
Zen 5 soll dann aber in die Breite gehen.
Gipsel
2022-08-24, 19:20:04
Bisher sieht es so aus als hätte Zen 4 abseits des größeren L2 Caches keine wesentlichen Änderungen ggü Zen 3.
Zen 5 soll dann aber in die Breite gehen.Auf der Integer-Seite mag das (bis auf ein paar wahrscheinlich angepaßte Größen von Queues und Puffern) stimmen. Was auf der FPU-Seite mit dem AVX512-Support umgekrempelt wurde, ist im Moment noch etwas im Dunkeln.
Linmoum
2022-08-24, 19:34:25
https://videocardz.com/newz/amd-ryzen-7-7700x-is-20-faster-than-ryzen-7-5800x-in-leaked-single-core-cinebench-r20-test
Wenn CB schon 1T rund 20% zulegt - wohlgemerkt beim 7700X - dann dürfte das in Spielen tendenziell eher ein gutes Stück weiter drüber liegen.
Und was jetzt noch deutlicher wird: AMD hat tatsächlich extrem tief gestapelt. Sandbagging at it's best.
Neurosphere
2022-08-24, 19:37:26
https://pbs.twimg.com/media/Fa8KbAuVEAMlaIx?format=jpg&name=large
https://pbs.twimg.com/media/Fa8F5JWUUAQ_g7n?format=jpg&name=900x900
https://www.bilibili.com/video/BV1KV4y1W77z
https://videocardz.com/newz/amd-ryzen-7-7700x-is-20-faster-than-ryzen-7-5800x-in-leaked-single-core-cinebench-r20-test
https://www.cpu-monkey.com/de/cpu_benchmark-cinebench_r20_single_core-9
Sieht ja garnicht so schlecht aus. Wenn ichs richtig verstehe wars ein 7700X ES der mit max 5,3 Ghz lief.
dargo
2022-08-24, 19:42:23
Weiß jetzt nicht ob das hier schon gepostet wurde, aber sind die Preise bei X670 wirklich deren ernst? :lol:
https://www.hardwareluxx.de/index.php/news/hardware/mainboards/59285-x670-e-mainboards-am5-modelle-von-asus-koennen-ab-483-euro-vorbestellt-werden.html
Linmoum
2022-08-24, 19:45:23
Jetzt fängt dargo auch noch mit sinnlosen Vorbestellerpreisen an. Mein Vertrauen in die Nerd-Szene ist endgültig erschüttert.
fondness
2022-08-24, 19:55:25
https://pbs.twimg.com/media/Fa8KbAuVEAMlaIx?format=jpg&name=large
https://pbs.twimg.com/media/Fa8F5JWUUAQ_g7n?format=jpg&name=900x900
https://www.bilibili.com/video/BV1KV4y1W77z
https://videocardz.com/newz/amd-ryzen-7-7700x-is-20-faster-than-ryzen-7-5800x-in-leaked-single-core-cinebench-r20-test
https://www.cpu-monkey.com/de/cpu_benchmark-cinebench_r20_single_core-9
Sieht ja garnicht so schlecht aus. Wenn ichs richtig verstehe wars ein 7700X ES der mit max 5,3 Ghz lief.
Cinebench zeigt 4,5ghz an. Aber selbst wenn das schon finale taktraten und finale Performance wäre, wäre es ausreichend, dass für das topmodell der 13700K kein Problem ist.
Linmoum
2022-08-24, 19:57:24
Ist der Base Clock, den CB da ausgibt.
Gipsel
2022-08-24, 20:04:24
Cinebench zeigt 4,5ghz an.Baseclock.
horn 12
2022-08-24, 20:18:16
Dennoch wird oftmals der 5800X3D Schneller sein,- oder zumindest gleichauf.-
Der 7900X wird vielleicht knapp den 13900K verfehlen, den 13700K sollte jenen aber in der Tasche haben!
Thunder99
2022-08-24, 20:24:26
Gewissen Preisaufschlag wird es bei den AM5 Brettern aber geben, da komplexer wegen PCI-E 5.0
dargo
2022-08-24, 20:45:20
Nicht nur das, die TDP-Vorgaben wurden auch angehoben. Das werden sich wieder die AIBs mit ihren drölftausend Phasen fürstlich bezahlen lassen. :D
OgrEGT
2022-08-24, 21:27:37
Dennoch wird oftmals der 5800X3D Schneller sein,- oder zumindest gleichauf.-
Der 7900X wird vielleicht knapp den 13900K verfehlen, den 13700K sollte jenen aber in der Tasche haben!
Mal sehen wie perf/W bei Zen4(3D) vs RTL ausschaut...
Das Geniale am 5800X3D ist ja nicht nur die Performance in Spielen sondern die niedrige Leistungsaufnahme...
Bei RTL gehts wohl Richtung Brechstange mit
"extreme 350W performance mode"... auch wenn der in Spielen hoffentlich nicht so viel verbraucht...
BlacKi
2022-08-24, 21:41:57
Mal sehen wie perf/W bei Zen4(3D) vs RTL ausschaut...
Das Geniale am 5800X3D ist ja nicht nur die Performance in Spielen sondern die niedrige Leistungsaufnahme...
Bei RTL gehts wohl Richtung Brechstange mit
"extreme 350W performance mode"...
das hilft doch nur bei multicore last. keine ahnung warum du hier die 350w nennst. dafür rennt raptor wenn die 350w auf genutzt werden auch davon. aber wie gesagt, bei gaming rechne ich maximal mit 10% mehr verbrauch, da selber prozess.
ChaosTM
2022-08-24, 21:44:11
Ob der eine oder andere Prozessor jetzt 5% vorne liegt ist imho nicht mehr relevant.
Bei ähnlicher Leistung schaut man halt dann auf den Verbrauch oder auch nicht.
Wer den "Längsten" hat ist mittlerweile nur mehr für sehr wenige Fans essentiell.
Man nimmt dann die Unterlage, die für einen am besten passt. Good Times.. :)
Linmoum
2022-08-24, 21:46:53
dafür rennt raptor wenn die 350w auf genutzt werden auch davon.Das will ich sehen.
Der_Korken
2022-08-24, 22:01:42
Sieht ja garnicht so schlecht aus. Wenn ichs richtig verstehe wars ein 7700X ES der mit max 5,3 Ghz lief.
Die Zahlen sind halbwegs stimmig. +23% in ST und +32% in MT, so wie man es vom effektiv höheren Verbrauch auch erwarten würde. Wenn das mit den 5,3Ghz stimmt und man für den 5800X die nominellen 4,7Ghz Boost nimmt, ergäbe das einen IPC-Gewinn von 9%, also innerhalb AMDs Angabe von 8-10%. Zen 3 boostet in der Praxis bis zu 150Mhz als der offizielle Boost-Takt, aber das könnte bei dem ES auch der Fall gewesen sein. Der 7700X könnte final dann 5,4Ghz Boost haben, wenn die 5,7Ghz für den 7950X stimmen und AMD weiterhin -100Mhz für jedes Modell beibehält. Das wären dann +25% ST und somit allerdings auch deutlich oberhalb der von AMD genannten 15%. Für MT müsste man wissen wieviel das ES verbraucht hat für den Score.
Edit: Wenn ich laut CB annehme, dass der 5800X etwa 4,5Ghz Allcore in Blender erreicht und CB sich ähnlich verhält, dann wären +32% MT-Leistung bei +9% IPC eine Taktsteigerung von 21%, was in 5,45Ghz resultieren würde. Zufälligerweise genau die 5,3Ghz Boost plus die 150Mhz Aufschlag. Wäre schon krass, wenn AMD hier wirklich ST-Boost = MT-Boost fährt und würde diese hohen TDPs erklären.
(Link zum CB-Test: https://www.computerbase.de/2020-11/amd-ryzen-5000-test/3/#abschnitt_taktzuwachs_im_testparcours)
OgrEGT
2022-08-24, 22:02:37
das hilft doch nur bei multicore last. keine ahnung warum du hier die 350w nennst. dafür rennt raptor wenn die 350w auf genutzt werden auch davon. aber wie gesagt, bei gaming rechne ich maximal mit 10% mehr verbrauch, da selber prozess.
Hab ja gesagt dass der in Spielen nicht so viel brauchen wird... beim 12900ks hat man auch gesehen dass der den teilweise doppelten Verbrauch in Spielen nicht großartig in Mehrleistung umsetzen konnte... jetzt kommen noch mehr E-Cores und ein 350W Modus hinzu welcher in Spielen zwar nicht ausgereizt wird... aber die Tendenz geht wohl weiter nach oben...
Platos
2022-08-25, 01:10:18
Interessant. Dann bin ich mal gespannt, wie es Powernormiert aussieht.
Ich bitte dann um Tests AL vs RL mit verschiedenen Powerlimits bei gleicher Kernanzahl und Power (nicht takt). Aber ohne UV. Also beispielsweise 12700k vs 13700k, beim einen dann eben 4 E-Kerne limitiert oder eben 12900k vs 13700k.
Powernormiert sieht man dann, wie gut Raptorlake wirklich ist. Bei verschiedenen Powerlimits, weil die Auslieferungszustände sind ja heutzutage sowieso nicht mehr ernst zu nehmen.
Bei AMD siehts aber nicht so gut aus. Die können ja gerade so knapp den 12700k überbieten bei SC und bei MT nicht mal das. Da bleibt ihnen weiterhin "nur" die bessere Effizienz unter höherer Last bis Volllast.
ChaosTM
2022-08-25, 01:27:34
Die 2 (High End) Systeme dürften sich wenig nehmen wenn is um die angekündigten Verbräuche geht.
Falls nicht jemand tiefgestapelt hat ;)
Platos
2022-08-25, 02:07:47
Wie gesagt: Bei verschiedenen Powerlimits (40W, 60W, 80W, 100W, 120W,...,default).
IPC ist natürlich auch interessant (also Taktnormiert), aber mehr aus technischem interesse. Schlussendlich interessiert mich Powernormiert (bei gleicher Kernanzahl).
Gamingtesta natürlich.
Thunder99
2022-08-25, 08:50:03
MT fast gleich wie ST beim Boost, macht Intel schon länger und da vermute ich will AMD aufschließen um Konkurrenz fähig zu bleiben
fondness
2022-08-25, 08:57:17
Bei AMD siehts aber nicht so gut aus. Die können ja gerade so knapp den 12700k überbieten bei SC und bei MT nicht mal das. Da bleibt ihnen weiterhin "nur" die bessere Effizienz unter höherer Last bis Volllast.
Dir ist schon klar, dass das der 8-Kerner war? :D Da kommt auch noch ein 16-Kerner der zusätzlich auch noch mehr Takt haben wird.
Linmoum
2022-08-25, 09:23:54
Bei AMD siehts aber nicht so gut aus. Die können ja gerade so knapp den 12700k überbieten bei SC und bei MT nicht mal das. Da bleibt ihnen weiterhin "nur" die bessere Effizienz unter höherer Last bis Volllast.Dir ist aber schon klar, dass das CB ist? :freak: Der 5800X fällt dort MT sogar rund 10% hinter einen 12600K (!) zurück. ST ist der 12600K sogar fast 20% vorne.
Umso beeindruckender, dass das Zen4 ES und dann auch nur der 7700X hier schon fast auf Niveau des 13700K zu sein scheint. Das massive Defizit, das bei CB bisher noch zwischen AMD und Intel Bestand, scheint nicht mehr vorhanden.
Spiele werden umso mehr spannender.
Edit:
https://mobile.twitter.com/i/web/status/1562707438885048320
5.6GHz AC für den 7600X? Ob das noch bei 142W PPT gilt? Das wäre schon beeindruckend. Aber auch unabhängig davon ist der Taktsprung schon bemerkenswert.
Platos
2022-08-25, 10:03:08
Natürlich ist es nur CB. Aber bei MT muss man nicht mehr drüber reden, da wird AMD gnadenlos abgehängt (war ja auch schon vorher klar, ist ja beim 12700k nicht ander gewesen).
AMD muss also aufpassen, dass sie noch mithalten können und nicht wieder 5-10% unterhalb landen und ihnen dann noch nicht mal (wie früher), ne bessere Anwendungsperf. im selben Preissegemnt bleibt. Bliebe dann eig. nix mehr übrig, ausser nen besseren Stromverbrauch unter Volllast.
Dir ist schon klar, dass das der 8-Kerner war? :D Da kommt auch noch ein 16-Kerner der zusätzlich auch noch mehr Takt haben wird.
Ah ja, 13700k mit ne teuren 16-Kerner vergleichen. Dein Ernst ?
fondness
2022-08-25, 10:17:21
Ah ja, 13700k mit ne teuren 16-Kerner vergleichen. Dein Ernst ?
Aber mit einem 8 Kerne ist okay? :ugly:
Tangletingle
2022-08-25, 10:20:05
Hat der 13700k nicht auch 8 Kerne? Edice zahlen nicht.
just kidding
Platos
2022-08-25, 10:22:49
Aber mit einem 8 Kerne ist okay? :ugly:
Mit einem Prozessor in der gleichen Preisklasse, ja.
Linmoum
2022-08-25, 10:35:30
Welche Preisklassen haben wir denn? Ich kenn von keinem der beiden Hersteller die finalen Preise. Ansonsten finde ich deine Aussagen zur MT-Performance - erneut ohne Fakten abseits der dargelegten CB-Thematik - amüsant.
Da ist Platz für einen sehr tiefen Fall.
KodeX
2022-08-25, 11:06:48
Ist der 13700K nicht ein aufgemotzter 12900K, also eine hochtaktende 8+8C/24T-CPU?
Dass die in Multicore deutlich schneller als ein 7700X (8C/16T) ist, ist doch selbstverständlich. Hier wäre der vergleich mit dem 7900X (12C/24T) treffender.
Wenn man das Ergebnis des 7700X ES hochrechnet, kommt man beim 7900X auf einen Score von 817 ST bzw. 12.205 MT. Das sieht gar nicht mal schlecht aus für Zen4.
Thunder99
2022-08-25, 13:16:30
Hat der 13700k nicht auch 8 Kerne? Edice zahlen nicht.
just kidding
Zählen dazu, da 8+8 also defakto 16Kerne 8 schnelle und 8 langsamere + 8HT von den schnellen
Edit: Mist, bin darauf hereingefallen ;D
MSABK
2022-08-25, 13:26:07
Der CB verspricht schon einmal Spannung.
Gipsel
2022-08-25, 14:13:17
Natürlich ist es nur CB. Aber bei MT muss man nicht mehr drüber reden, da wird AMD gnadenlos abgehängt (war ja auch schon vorher klar, ist ja beim 12700k nicht ander gewesen).Topmodell vs. Topmodell (5950X vs. 12900K) sind sie bei CB R20 (das war der Vergleich) quasi gleichauf, bei CB R23 ist intel leicht vorne, bei Blender (je nach Test) dann wieder AMD. Das nimmt sich im Grunde nicht viel. Unter "gnadenlos abgehängt" stelle ich mir was Anderes vor.
Und irgendwelche ES (8P+8E mit vermutlich allcore-Übertaktung bzw. zumindest unklaren Standardtakten) mit einem anderen ES-Sample (vermutlich auch noch nicht mit Finaltakt) mit lediglich 8 Kernen zu vergleichen, ist dagegen wahrscheinlich eher wenig zielführend. Gegner des 13700K ist eher der 7900X (8P+8E/24T vs. 12C/24T), Gegner des 13900K der 7950X (8P+16E/32T vs. 16C/32T).
Platos
2022-08-25, 14:40:00
Technologisch vlt., aber nicht aus der Sicht des Kunden. Da ist der Gegner selbstverständlich die selbe Preisklasse. Und historisch wäre da der 12700k mit dem 5800x und eben dann anzunehmenderweise der 13700k mit dem 7800x zu vergleichen.
Kriege ich fürs gleiche Geld mehr Kerne, ist das natürlich ein absolut fairer Vergleich. Eben dann der Vorteil des jeweiligen Anbieters.
Gipsel
2022-08-25, 14:44:20
Technologisch vlt., aber nicht aus der Sicht des Kunden. Da ist der Gegner selbstverständlich die selbe Preisklasse. Und historisch wäre da der 12700k mit dem 5800x und eben dann anzunehmenderweise der 13700k mit dem 7800x zu vergleichen.
Kriege ich fürs gleiche Geld mehr Kerne, ist das natürlich ein absolut fairer Vergleich. Eben dann der Vorteil des jeweiligen Anbieters.Ja na klar. Du kennst das Leak mit den angeblichen Preisen der Zen4-CPUs?
Platos
2022-08-25, 14:46:37
Ja na klar. Du kennst das Leak mit den angeblichen Preisen der Zen4-CPUs?
Du jetzt auch schon?
Anzunehmen ist, dass der 13700k und ein 7700x oder 7800x in ähnlichen Preisregionen landen, jenachdem, was wie genannt wird.
So oder so, es wird niemals ein 13700k preislich mit einem 7950x vergleichbar sein, also was bitte soll der Vergleich mit so einer CPU?
Meridian12
2022-08-25, 14:47:41
Technologisch vlt., aber nicht aus der Sicht des Kunden. Da ist der Gegner selbstverständlich die selbe Preisklasse. Und historisch wäre da der 12700k mit dem 5800x und eben dann anzunehmenderweise der 13700k mit dem 7800x zu vergleichen.
Kriege ich fürs gleiche Geld mehr Kerne, ist das natürlich ein absolut fairer Vergleich. Eben dann der Vorteil des jeweiligen Anbieters.
Intel soll die Preise erhöhen, AMD eher nicht. (Kann sich natürlich täglich ändern).
Also da würde ich es doch bezweifeln, dass der 13700 gegen die 7800x antritt.
Platos
2022-08-25, 14:49:24
Ja, er wird bestimmt auf dem Listenpreis eines 7950X landen ;D
Linmoum
2022-08-25, 14:50:54
Der 12700K hatte einen MSRP von knapp über $400. Es wird zudem Preiserhöhungen bei Intel geben. Ob jetzt $10 oder $40 ist erst mal egal, denn es werden definitiv nicht plötzlich nur $350 sein.
Beim 7700X hieß es bisher angeblich $299 und der alte Preis des 5700X. Wo wäre das vergleichbare Preisklasse?
Davon abgesehen: Auf offizielle Preise warten und fertig, bevor man hier schon alberne Vergleiche ziehen will. Bei AMD erfährt man die schon in wenigen Tagen.
Platos
2022-08-25, 14:55:49
Ahh, jetzt wirds lustig. Wenns dir in den Kram passt, sind Preisleaks auf einmal ok, wenn nicht, sagst du, Preise werden erst kurz vor Launch erstellt. Selbstverständlich, wenns dir in den Kram passt, nimmst du für AMD einen niedrigen Preisleak.
Linmoum, du bist echt immer wieder erstaunlich, wie sehr du dir alles zusammenreimst und deinen eigenen Aussagen komplett widersprichst. Du bist echt ein Musterbeispiel für einen AMD-Bias.
Linmoum
2022-08-25, 15:00:26
Ahh, jetzt wirds lustig. Wenns dir in den Kram passt, sind Preisleaks auf einmal ok, wenn nicht, sagst du, Preise werden erst kurz vor Launch erstellt. Selbstverständlich, wenns dir in den Kram passt, nimmst du für AMD einen niedrigen Preisleak.
Linmoum, du bist echt immer wieder erstaunlich, wie sehr du dir alles zusammenreimst und deinen eigenen Aussagen komplett widersprichst. Du bist echt ein Musterbeispiel für einen AMD-Bias.
Davon abgesehen, dass du nicht inhaltlich geworden bist (man ahnt, warum):
Unicous hatte hier eine wunderbare Zusammenfassung aufgestellt. Kannst du dir selbst noch mal raussuchen, lesen und dann verstehen. Ganz wichtig die letzten beiden Dinge.
Vorbestellerpreise (sind keine "Preisleaks", nuff said) eines Händlers, der bereits die aktuellen (!) CPUs mit massivem (!) Preisaufschlag sowohl ggü. der UVP als auch den Preisen bei anderen Händlern anbietet vs. Gerüchten - die in Verbindung der Verpackung für die kommenden CPUs auftauchten, zu vergleichen. ;D
Du bist echt herrlich. Ehrlich jetzt.
Wie viel Aufschlag Mindfactory damals vorab genommen hat, als sie Wochen vor offiziellem Launch schon verkauft haben (und das deutlich über UVP), sollte man noch wissen. Was Händler vor dem Launch ansetzen, ist schlicht Quatsch und albern, dass das überhaupt zur Diskussion steht.
Kommt ansonsten noch inhaltlich was zu dem von Dir selbst gemachten Preisargument? Wahrscheinlich nicht. Naja, weiß man einfach, was diskutiert werden sollte. Oder halt nicht.
KodeX
2022-08-25, 15:09:18
Intel Core i9-12900K --> 633 €
AMD Ryzen 9 5950X --> 539 €
Intel Core i7-12700K --> 444 €
AMD Ryzen 9 5900X --> 399 €
AMD Ryzen 7 5800X --> 299 €
AMD Ryzen 7 5700X --> 279 €
Ich sehe da wirklich nicht, wieso man den den 12700K nicht mit dem 5900X vergleichen können soll. Das wird sich beim 13700K bzw. 7900X nicht großartig ändern. Mir ist auch klar, dass die Marktpreise nicht mit den UVPs gleichzusetzen sind. Aber bei Produkten, die mit einem Jahr Abstand erschienen sind, ist ein UVP-Vergleich eigentlich unbrauchbar.
Doch mal etwas anderes: Zwischen dem 7900X und dem 7700X klafft offenbar eine große Lücke, in der Intel wohl eiskalt einen 13600K platzieren könnte. Hier könnte AMD mit einem 7800X, konzipiert als 10-Kerner, erfolgreich dazwischengrätschen. Was haltet ihr von der Idee bzw. deren technischer Umsetzbarkeit?
Linmoum
2022-08-25, 15:11:39
Ich gehe stark davon aus, dass AMD zum Jahresende einen 7800X3D dort platzieren wird.
Der wird sicher kommen und wenn man vorher einen 10C bringt, hat man im Prinzip eine tote SKU nach dem Launch mit V-Cache. Fände ich auch besser so, für alles und jeden eine SKU ist irgendwann auch schlicht zu viel.
Platos
2022-08-25, 15:12:51
@KodeX: Das sind Strassenpreise. Es geht aber um noch nicht erschiene CPUs, also vergleicht man basierend auf den alten CPUs nicht auf Strassenpreise, sondern auf Listenpreise (denn diese Strassenpreise werden natürlich nicht den Listenpreisen von einem Zen4 entsprechen)
Die alten CPUs dienen nur als Vergleich, um die neue Gen einzuschätzen. Dann nimmt man natürlich nicht Strassenpreise. Für ein jetztigen Kauf wäre natürlich Strassenpreis relevant.
Meridian12
2022-08-25, 15:13:01
Der 12700K hatte einen MSRP von knapp über $400. Es wird zudem Preiserhöhungen bei Intel geben. Ob jetzt $10 oder $40 ist erst mal egal, denn es werden definitiv nicht plötzlich nur $350 sein.
Beim 7700X hieß es bisher angeblich $299 und der alte Preis des 5700X. Wo wäre das vergleichbare Preisklasse?
Davon abgesehen: Auf offizielle Preise warten und fertig, bevor man hier schon alberne Vergleiche ziehen will. Bei AMD erfährt man die schon in wenigen Tagen.
Wobei offizielle Preise auch nur grober Richtwert ist.
Ich würde auch keinen offizielle 1000 Euro Intel CPU mit einer offiziellen 1000 Euro AMD CPU vergleichen, wenn ich die beiden CPUs bei Mindfactory für 950 und 500 Euro bekommen würde.
Linmoum
2022-08-25, 15:19:30
Wobei offizielle Preise auch nur grober Richtwert ist.
Ich würde auch keinen offizielle 1000 Euro Intel CPU mit einer offiziellen 1000 Euro AMD CPU vergleichen, wenn ich die beiden CPUs bei Mindfactory für 950 und 500 Euro bekommen würde.Naja, zum Launch sind die aber schon ein treffender Orientierungspunkt. ;) Dass die Straßenpreise mit der Zeit fallen, ist ja logisch.
KodeX
2022-08-25, 15:24:03
@KodeX: Das sind Strassenpreise. Es geht aber um noch nicht erschiene CPUs, also vergleicht man basierend auf den alten CPUs nicht auf Strassenpreise, sondern auf Listenpreise (denn diese Strassenpreise werden natürlich nicht den Listenpreisen von einem Zen4 entsprechen)
Aber du redest doch selbst von der "Sicht des Kunden":
Technologisch vlt., aber nicht aus der Sicht des Kunden. Da ist der Gegner selbstverständlich die selbe Preisklasse.
Die Listenpreise sind dem Endkunden doch egal. Aber unabhängig davon kann ich dir (fast) garantieren, dass 13700K und 7900X sowohl hinsichtlich Performance als auch hinsichtlich Preis in derselben Liga spielen werden. Nein, ich habe keine Glaskugel. Und wenn ich mit dieser These falschliegen sollte, darfst du mich hier gerne öffentlich bloßstellen. ;-)
BlacKi
2022-08-25, 15:24:53
Intel Core i9-12900K --> 633 €
AMD Ryzen 9 5950X --> 539 €
Intel Core i7-12700K --> 444 €
AMD Ryzen 9 5900X --> 399 €
AMD Ryzen 7 5800X --> 299 €
AMD Ryzen 7 5700X --> 279 €
Ich sehe da wirklich nicht, wieso man den den 12700K nicht mit dem 5900X vergleichen können soll. Das wird sich beim 13700K bzw. 7900X nicht großartig ändern. Mir ist auch klar, dass die Marktpreise nicht mit den UVPs gleichzusetzen sind. Aber bei Produkten, die mit einem Jahr Abstand erschienen sind, ist ein UVP-Vergleich eigentlich unbrauchbar.
Doch mal etwas anderes: Zwischen dem 7900X und dem 7700X klafft offenbar eine große Lücke, in der Intel wohl eiskalt einen 13600K platzieren könnte. Hier könnte AMD mit einem 7800X, konzipiert als 10-Kerner, erfolgreich dazwischengrätschen. Was haltet ihr von der Idee bzw. deren technischer Umsetzbarkeit?
der vergleich funktioniert so nicht. erstens, intel senkt seine preis nicht und amd hat die straßenpreise schon massiv gesenkt, weil die cpus bald 2 jahre alt sind. ein 7600x wird mindestens die uvp den 5600x haben, dann kannst du davon ausgehen, das ein 7700x mindestens 349$ oder mehr haben wird. ich tendiere ja eher auf 399$. kann sein, das die cpu dann auf der straße irgendwann mal unter 300€ fallen wird, aber wohl erst kurz vor dem erscheinen der zen5 cpus.
ich glaub sogar das der 7700x gleichviel kosten wird wie der 13700k, vl sogar mehr.
Ex3cut3r
2022-08-25, 16:30:59
Natürlich wird AMD sich das fürstlich bezahlen lassen, bitte nicht schon wieder, diese Samariter Preise der Hardcore AMDler.
Die Zeiten sind endgültig vorbei bei AMD seit Zen 3. Wacht mal auf. Schaut euch die MB Preise vom X670 an. ;D
Meridian12
2022-08-25, 16:43:09
ich glaub sogar das der 7700x gleichviel kosten wird wie der 13700k, vl sogar mehr.
Ich dagegen glaube, der 7900x kostet soviel wie der 13700.
Also abwarten.Zumal es auch drauf ankommt, was der 7xxx für eine Leistung bietet.
Sollte der 7900x 30% schneller sein als der 13900x, könnte Intel durchaus schon zu Beginn seinen geplanten Verkaufspreis senken,weil 30% langsamer ,dafür 20% teurer (absolut fiktive Werte) Intel so sicherlich nicht in den Markt bringen würde.
r3ptil3
2022-08-25, 17:05:25
https://i.ibb.co/GnyCNKd/twe.png
https://twitter.com/harukaze5719/status/1562751758673137664?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1562751 758673137664%7Ctwgr%5Ebf8b097135069ef02bf591ac5de8128abb30acc2%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwccftech.com%2Famd-ryzen-7000-zen-4-cpu-rumors-ryzen-7-7700x-ryzen-5-7600x-single-core-performance-ryzen-9-7950x-overclocking-ddr5-expo-memory-speeds%2F
robbitop
2022-08-25, 18:31:00
Natürlich wird AMD sich das fürstlich bezahlen lassen, bitte nicht schon wieder, diese Samariter Preise der Hardcore AMDler.
Die Zeiten sind endgültig vorbei bei AMD seit Zen 3. Wacht mal auf. Schaut euch die MB Preise vom X670 an. ;D
Jap: wie Linus es so schön sagt: „companies are not your friend“. Bei einem entsprechend guten Produkt mit entsprechend hohen Nachfrage wird man im Interesse der Investoren entsprechende Preise verlangen (und das auch müssen).
robbitop
2022-08-25, 18:34:53
https://i.ibb.co/GnyCNKd/twe.png
https://twitter.com/harukaze5719/status/1562751758673137664?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1562751 758673137664%7Ctwgr%5Ebf8b097135069ef02bf591ac5de8128abb30acc2%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwccftech.com%2Famd-ryzen-7000-zen-4-cpu-rumors-ryzen-7-7700x-ryzen-5-7600x-single-core-performance-ryzen-9-7950x-overclocking-ddr5-expo-memory-speeds%2F
Die Memorylatency ist extremst gut für Ryzen! IIRC war man mit Memorytuning eher im 60er Bereich. Anscheinend hat man bei der Anbindung zwischen IMC und CCX deutlich was beschleunigt (die fabric)! Das wird in Spielen ganz sicher was bringen!
Frage mich ob die angegebenen Taktfrequenzen all core waren. Weil single core sollte es eigentlich kein Problem sein die zu schaffen und die Spannung sieht auch recht hoch aus.
r3ptil3
2022-08-25, 18:35:34
Wo gibt's denn Preise der X670 Boards?
Ihr redet hoffentlich nicht von den Platzhaltern in denen ein ASUS Prime X670 für knapp 500 Euro gelistet ist?
basix
2022-08-25, 18:39:02
Die Memorylatency ist extremst gut für Ryzen! IIRC war man mit Memorytuning eher im 60er Bereich. Anscheinend hat man bei der Anbindung zwischen IMC und CCX deutlich was beschleunigt (die fabric)! Das wird in Spielen ganz sicher was bringen!
Frage mich ob die angegebenen Taktfrequenzen all core waren. Weil single core sollte es eigentlich kein Problem sein die zu schaffen und die Spannung sieht auch recht hoch aus.
Jepp, wenn sich die Latenz bestätigt wird Zen 4 in Spielen eine Granate werden.
Mit Zen 3 konnte man aber schon ~55ns erreichen, guten Speicher vorausgesetzt. Hier die DDR5-5200 mit CL30 scheint mir aber noch nicht wirklich sehr schneller Speicher zu sein. Gut, aber mit Luft nach oben (z.B. DDR5-6000 mit CL28)
robbitop
2022-08-25, 18:59:17
Man darf nicht vergessen, dass ddr5 eine Latenzregression in aktuellen Messtools mit sich bringt ggü ddr4. Aber faktisch ist man latenznormiert eher schneller weil durch die Verdopplung der Granularität mehr Gleichzeitigkeit möglich ist. Datenzugriffe müssen also nicht so lange warten. Die effektive durchschnittliche Latenz sinkt also. Heißt, dass 1. die gemessenen 48 ns echt gut sind und 2. die dann eher Ergebnisse bringen wie bei ddr4 mit noch niedrigeren Latenzen.
Die Fabric muss wirklich schneller geworden sein. Und außerdem ist hervorzuheben, dass 2600 MHz IMC und IF Takt wirklich ein neues alltime high sind. Zen 3 schaffte kaum 2 GHz. In der Regel eher 1,8-1,9 GHz.
Wahrscheinlich kommt der Großteil des Latenzboosts daher.
Linmoum
2022-08-25, 19:05:18
Wenn sie direkt einen X3D mit vorstellen würden, hätten sie mich wahrscheinlich sogar schon. Dann steht der Unterbau und je nach etwaig notwendigem (oder eher gewolltem :freak: ) Performanceupgrade braucht dann nur die CPU getauscht werden.
Vielleicht nicht mehr Zen7, aber bis Zen6 wird AM5 IMO definitiv AMDs aktuelle Plattform bleiben.
basix
2022-08-25, 19:05:32
Alles richtig, robbi ;) 3 GHz IF-Takt sollen aber noch in 1:1 daherkommen :D
robbitop
2022-08-25, 19:10:43
Alles richtig, robbi ;) 3 GHz IF-Takt sollen aber noch in 1:1 daherkommen :D
Das wäre fast zu gut um wahr zu sein. :D
@Linmoum
vergiss Zen 4. Zen 5 wird wohl ein richtig fettiger Sprung. Zen wird erstmals deutlich breiter mit Zen 5. Das hat man sich sehr lange aufgehoben weil man erstmal aus dem 4 issue design alles rausholen wollte (weil effizienter). Ich erwarte da einiges. Insbesondere in Kombination mit VCache.
Zen 4 scheint bis dato eher ein Zen 3 auf Steroiden zu sein. Größerer L2, mehr Takt und deutlich schnelleres IO. Zen 5 wird seit Zen 1 deutlich anders werden. Da darf man gespannt sein.
mboeller
2022-08-25, 19:25:06
vergiss Zen 4. Zen 5 wird wohl ein richtig fettiger Sprung.
Tick-Tock ... upps falsche Firma. :biggrin:
Thunder99
2022-08-25, 19:30:16
Natürlich wird AMD sich das fürstlich bezahlen lassen, bitte nicht schon wieder, diese Samariter Preise der Hardcore AMDler.
Die Zeiten sind endgültig vorbei bei AMD seit Zen 3. Wacht mal auf. Schaut euch die MB Preise vom X670 an. ;D
Wer viel liefert darf auch dafür angemessen bezahlt werden :wink:
Linmoum
2022-08-25, 19:44:36
vergiss Zen 4. Zen 5 wird wohl ein richtig fettiger Sprung. Zen wird erstmals deutlich breiter mit Zen 5. Das hat man sich sehr lange aufgehoben weil man erstmal aus dem 4 issue design alles rausholen wollte (weil effizienter). Ich erwarte da einiges. Insbesondere in Kombination mit VCache.
Zen 4 scheint bis dato eher ein Zen 3 auf Steroiden zu sein. Größerer L2, mehr Takt und deutlich schnelleres IO. Zen 5 wird seit Zen 1 deutlich anders werden. Da darf man gespannt sein.Also wenn ich sehe, dass Zen4 selbst in Cinebench 1T scheinbar schon - ausgehend von den oberen SKUs natürlich - >25% zulegen wird, dann sehe ich da in Spielen ehrlich gesagt eher in Richtung 30-35% Zuwachs. Der doppelte L2 und die geringeren Latenzen dürften dort ein gutes Stück mehr bringen.
Wenn dann noch V-Cache dazukommt, dann könnte man ggf. sogar einen 5800X3D schon im Schnitt um +-30% übertrumpfen. Für viele womöglich nicht der Rede wert, aber ich finde das schon nicht schlecht.
Klar, ein Vanilla-Zen4 ohne V-Cache ist in diesem Fall nicht relevant, allein weil der 5800X3D ja auch Fälle hat, wo er 40-50% vor Zen3 liegt. Das wird auch Zen4 ohne Cache nicht aufholen. Aber mit...
Bei womöglich doppelter GPU-Leistung in den kommenden Monaten könnten da auch bei der CPU ~30% ganz schnell einiges ausmachen.
BlacKi
2022-08-25, 19:46:03
Wer viel liefert darf auch dafür angemessen bezahlt werden :wink:und nachfrage steigt. alles hat vor und nachteile. vl als schicke monolitische apu, aber wohl nicht als chiplet cpu für mich.
robbitop
2022-08-25, 20:12:39
Tick-Tock ... upps falsche Firma. :biggrin:
Naja bis dato war es ja noch so, dass jede Zen Iteration auch deutliche Verbesserungen in der uArch bekommen haben. Zen 4 wäre da eine halbe Ausnahme (immerhin mehr L2 und wer weiß wie doll man auf Implementierungsebene scrubben musste um diesen hohen Takt möglich zu machen).
robbitop
2022-08-25, 20:16:49
Also wenn ich sehe, dass Zen4 selbst in Cinebench 1T scheinbar schon - ausgehend von den oberen SKUs natürlich - >25% zulegen wird, dann sehe ich da in Spielen ehrlich gesagt eher in Richtung 30-35% Zuwachs. Der doppelte L2 und die geringeren Latenzen dürften dort ein gutes Stück mehr bringen.
Wenn dann noch V-Cache dazukommt, dann könnte man ggf. sogar einen 5800X3D schon im Schnitt um +-30% übertrumpfen. Für viele womöglich nicht der Rede wert, aber ich finde das schon nicht schlecht.
Klar, ein Vanilla-Zen4 ohne V-Cache ist in diesem Fall nicht relevant, allein weil der 5800X3D ja auch Fälle hat, wo er 40-50% vor Zen3 liegt. Das wird auch Zen4 ohne Cache nicht aufholen. Aber mit...
Bei womöglich doppelter GPU-Leistung in den kommenden Monaten könnten da auch bei der CPU ~30% ganz schnell einiges ausmachen.
Für Cinebench ist Cache und Latenz nicht unerheblich. Beides wurde ja auch stark verbessert. Dazu darf man nicht vergessen, dass jetzt ja auch deutlich mehr Takt anliegt. Das multipliert sich natürlich zusammen. Durch die Summe der Verbesserungen ist Zen 4 im Rahmen dessen was Gen zu Gen bis dato herausgekommen ist. Ein guter Sprung. Aber man geht davon aus, dass Zen 5 ein besonders großer Sprung nach vorn sein wird. Größer als bisherige Sprünge.
Linmoum
2022-08-25, 20:25:43
Dann nimmt man Zen5 halt auch wieder mit. Reicht in dem Fall dann ja, einfach die CPU auszutauschen. Unterbau hat man bereits. Und mit Zen6 noch mal dasselbe. :freak:
fondness
2022-08-25, 20:41:01
Also wenn das mit den niedrigen Latenzen auch noch stimmt, dann waren die >15% ST performance Angabe schon fast trolling. Die Latenz schlägt bei Spielen mit Sicherheit deutlich stärker durch als in cinebench.
Ex3cut3r
2022-08-25, 20:44:14
Bin gespannt, ob viele der X3D Käufer jetzt schon wieder wechseln werden. Eins muss man AMD lassen, Sie wissen mittlerweile wie man die Enthusiasten abzockt. :ulol:
Linmoum
2022-08-25, 20:45:39
Inwiefern wird man denn abgezockt?
Viele von denen, die eine 3090 (oder vorher analog den xx102 Top-Dog) haben, rüsten auch bei der kommenden Gen wieder auf den nächsten Top-Dog auf. Einfach, weil sie maximale Leistung wollen. Das ist völlig normal und herstellerunabhängig bei dieser Zielgruppe bzw. diesem potentiellen Kundenkreis. Da wird niemand abgezockt, weil er vom schnellsten Produkt der aktuellen Gen auf das schnellste Produkt der kommenden Gen wechselt. Dort oben herrscht keine Preisbewusstheit wie im Massenmarkt, wo die Leute auch mit einer 480 ihre fünf Jahre daddeln und nicht wieder Geld für was neues ausgeben wollen, bis es gar nicht anders geht.
ChaosTM
2022-08-25, 20:57:42
Frag ich mich auch. Der 3D ist ein nettes (last) Upgrade für alle die schon ein paar Jahre lang ein AM4 Brett haben. Bei Intel ist meist nach 2 Generationen Schluss und das Board wandert in den Müll oder Verkauf.
Wer sich jetzt einen kauft und in 3 Monaten auf ein AM5 System umsteigt hat wahrscheinlich zu viel Geld. ;)
+ Und wer es billiger will, greift momentan halt zu Intels Low/Mid-range
Zossel
2022-08-25, 21:39:03
Bin gespannt, ob viele der X3D Käufer jetzt schon wieder wechseln werden. Eins muss man AMD lassen, Sie wissen mittlerweile wie man die Enthusiasten abzockt. :ulol:
Magst du keine Innovationen?
Ach der hasst die Technologie doch nur deswegen, weil AMD damit Intel unerwartet ausgerechnet bei Spielen ein Schnippchen geschlagen hat, das sich gewaschen hat ;).
RPL ist Spieletechnisch minimal schneller als Zen4? Ja schade, es gibt nen X3D ;). Hätte Intel ja nach dem 5775c auch machen können, haben sie aber nicht.
Ex3cut3r
2022-08-25, 21:52:46
Magst du keine Innovationen?
Klar, ich finds nur irritierend, wie viele gleich wegen 15 oder 30% mehr Leistung immer wieder wechseln, und das trotz 4K Spieleauflösung, oder allgemeines GPU Limit. Es erstaunt mich einfach, positiv ausgedrückt. :smile:
Darf natürlich jeder so machen wie er will.
Klar, ich finds nur irritierend, wie viele gleich wegen 15 oder 30% mehr Leistung immer wieder wechseln, und das trotz 4K Spieleauflösung, oder allgemeines GPU Limit. Es erstaunt mich einfach, positiv ausgedrückt. :smile:
Darf natürlich jeder so machen wie er will.
Ja ganz bestimmt. Ich gehe jede Wette ein, dass du einen 3D-Cache abfeiern würdest, wenn er von der anderen Seite der Macht gekommen wäre ;).
Ich freu mich einfach nur, dass es soviel gute Hardware für Spieler gibt ;).
MSABK
2022-08-25, 22:06:44
https://videocardz.com/newz/amd-ryzen-7700x-7600x-rumored-cinebench-r23-scores-are-in
Hatten wir das schon?
BlacKi
2022-08-25, 22:16:21
Ja ganz bestimmt. Ich gehe jede Wette ein, dass du einen 3D-Cache abfeiern würdest, wenn er von der anderen Seite der Macht gekommen wäre ;).
Ich freu mich einfach nur, dass es soviel gute Hardware für Spieler gibt ;).
dann ist der 7800x3d halt 10-15% schneller. aber zu welchem preis... damals als der 7700k kam, kam der zu günstigen preisen, im vergleich zu heutigen preisen.
ein heutiger 7800x3d würde heute 700€ kosten oder mehr.
Langlay
2022-08-25, 22:17:21
Bin gespannt, ob viele der X3D Käufer jetzt schon wieder wechseln werden. Eins muss man AMD lassen, Sie wissen mittlerweile wie man die Enthusiasten abzockt. :ulol:
Ich würde eventuell auf einen Zen4 3D wechseln, der normale Zen4 is für mich eher semiinterressant. Aber dadurch das ich das Mainboard tauschen müsste, neuen RAM kaufen müsste, kann ich mich eventuell im Zaum halten und bis Zen5 durchhalten.
Und wenn ich grösser Aufrüste will meine Frau dann auch grösser Aufrüsten, dann wird das dann schnell relativ teuer *g
dann ist der 7800x3d halt 10-15% schneller. aber zu welchem preis... damals als der 7700k kam, kam der zu günstigen preisen, im vergleich zu heutigen preisen.
ein heutiger 7800x3d würde heute 700€ kosten oder mehr.
Mal wieder ein Prophet unter uns...
r3ptil3
2022-08-25, 23:29:42
Passt doch gut im Speku-Bereich :D
M4xw0lf
2022-08-26, 07:30:06
https://videocardz.com/newz/amd-ryzen-7700x-7600x-rumored-cinebench-r23-scores-are-in
Hatten wir das schon?
Hatte bisher nur CB20 gesehen. Wieder etwa +25% ST / + 30% MT in CB23, sieht also auch gut aus. (y)
dildo4u
2022-08-26, 07:54:17
dann ist der 7800x3d halt 10-15% schneller. aber zu welchem preis... damals als der 7700k kam, kam der zu günstigen preisen, im vergleich zu heutigen preisen.
ein heutiger 7800x3d würde heute 700€ kosten oder mehr.
Keiner braucht die Dinger wenn die Konsolen 3.5Ghz Zen 2 haben,du hast einfach die Optionen im Gegensatz zur Intels Hochzeit im Mainstream Socket deutlich mher Performance zu kaufen.
Überleg nur mal wie viel potenter ein 5.5Ghz Zen 4 ohne V Cache sein wird als die neue Konsolen Basis worauf 90% der AAA Games entwickelt werden.
dargo
2022-08-26, 08:16:27
Keiner braucht die Dinger wenn die Konsolen 3.5Ghz Zen 2 haben...
Das halte ich für ein Gerücht. Selbst wenn die Konsole ein 60fps Target anstrebt muss ein high-fps Spieler am PC wesentlich mehr Brechstange investieren um seine bsw. 90-100fps zu bekommen. Auch die neuen APIs kommen nicht an die Effizienz einer Konsolen-API wie zb. bei der Playstation. Zudem hast du oft beim PC höhere Details und Raytracing erzeugt auch nicht zu wenig CPU-Last.
davidzo
2022-08-26, 11:30:00
Zu den CPU-Z Problemen:
- harukazes secret source hat ein neues Sample des 7700x das den CPU-Z Test besteht.
ST: 750-780
https://twitter.com/harukaze5719/status/1563040506367467521
MT wollte er weganonymisiert haben, aber im ersten Bild (mittlerweile gelöscht) hat er vergessen den MT Multiplier weg zu machen, so dass man sich den Score ausrechnen konnte:
7950X ES: 750~780 ST / 16100~16800 MT (21.55 Ratio)
7700X (QS?): 750~780 ST / 7750~8050 MT (10.33 Ratio)
https://twitter.com/dayllann/status/1563001326895648768
Das ist bei Singlethread ca. 8% hinter einem 12900K (±825) und 10% hinter den 13900K Leaks (±850). Hatte zumindest für den 7950x gehofft dass der durch den 5,7Ghz Turbo mindestens gleichauf mit dem 12900K oder 13700K liegt :frown:
MT ist der 7950x allerdings noch komfortable 10-30% vor dem geleakten 13900K (13K-15K).
Der 7700x erreicht dagegen gerademal 12700K bzw. 3900X Niveau.
Irgendwie enttäuschend das AMD mit einer 7er CPU gegen Intels 5er antritt und dennoch klar langsamer als ein 13600K herauskommt. Der spekulierte 299$ preis macht da schon Sinn.
Die Zahlen passen allerdings zu den CB23 Werten die hier herumschwirren, bloß das die Cove CPUs in CPU-Z traditionell noch etwas größere Vorteile haben als in CB. Aber auch in CB 1T ist man ja 5-10% langsamer als RTL.
Ich hoffe ja noch dass der Turbo einfach noch nicht richtig zündet, was auch erklären würde wieso 7700x und 7950x gleichauf liegen.
Linmoum
2022-08-26, 11:32:53
Ich denke nicht, dass AMD die Preisgestaltung anhand von CPU-Z festlegt.
In CB 1T ist der 12600K übrigens schon knapp 20% vor einem 5800X. Sieht man das auch in Spielen? Nö.
Platos
2022-08-26, 11:45:34
Ist doch eig. gut, wenn mal der, mal der andere Hersteller vorne liegt. Wenn beide immer gleich auf sind, ergibt sich kein (für den Kunden) guten Konkurrenzkampf. Das ergibt sich nur, wenns mal so, mal so ist (aber eben nicht komplett abgehängt wie damals mit FX).
Dann steigen die Preisniveaus nämlich nicht bzw. sinken.
Am besten wäre es, wenn Zen4 eher mittelmässig wäre und mittels Preis wieder sehr gut. Dann mit Zen5 man Intel zu diesem Schritt zwingt. Mit Nova Lake wieder umgekehrt usw.
Das wäre das Beste.
davidzo
2022-08-26, 12:05:28
Ich denke nicht, dass AMD die Preisgestaltung anhand von CPU-Z festlegt.
In CB 1T ist der 12600K übrigens schon knapp 20% vor einem 5800X. Sieht man das auch in Spielen? Nö.
In Spielen (cpulimit) sind es eher dieselben 10% die der 12600K auch in CB MT vorne liegt. Ist aber eher Zufall.
Ich halte es schon für möglich das Zen4 gerade in Spielen gut abschneidet. Leider gibt es bisher nur Gerücht und keinen einzigen Test oder eine offizielle Bestätigung.
- Wenn der IFclock wirklich auf bis zu 3Ghz steigt statt einem Teiler, dann wird Zen4 wohl ein super low latency Speichersystem haben.
- Die 1MB L2 cache sollten auch gut skalieren.
- DDR5 5600 vs DDR4 3200 sind vllt. 2-4% in Spielen, also kaum spürbar aber kumulativ.
- Raptorlake hat zwar auch etwas mehr L2, aber die Latenzen werden eher schlechter durch die zusätzlichen ringbus stops der zusätzlichen E-Core-cluster.
- Schon Alderlake hat Probleme überhaupt einen Benefit aus den breiten Cove Cores in Spielen zu ziehen. In FP-loads is Zen3 absolut konkurrenzfähig, bisher mangelte es nur an Takt, und Speicherlatenz. Und das scheint mit Zen4 zu kommen.
Die Zen4 Spieleleistung ist bisher aber hoch spekulativ. Oder gibt es da schon erste Leaks zu?
Was man anhand der Leaks aber wohl schon sagen kann ist dass AMD wohl in MT bei gleicher Threadzahl weiterhin führend ist. Gerade bei den größeren CPUs fressen die Intels einfach zu viel und zwar auch die E-Cores. Die sind langsamer als Zen2/3 und bei 4,2Ghz aber auch ineffizienter.
Platos
2022-08-26, 12:07:46
Wird Zen4 nicht übermorgen angeteasert ?
r3ptil3
2022-08-26, 12:25:29
Am 29. August ist die offizielle Vorstellung.
Linmoum
2022-08-26, 12:30:39
30.08. um 1 Uhr nachts bei uns, um ganz genau zu sein. ;)
r3ptil3
2022-08-26, 12:47:14
30.08. um 1 Uhr nachts bei uns, um ganz genau zu sein. ;)
Ganz genau.
https://ir.amd.com/news-events/press-releases/detail/1087/amd-to-host-livestream-event-to-unveil-next-generation
Gipsel
2022-08-26, 13:29:57
MT ist der 7950x allerdings noch komfortable 10-30% vor dem geleakten 13900K (13K-15K).
Der 7700x erreicht dagegen gerademal 12700K bzw. 3900X Niveau.
Irgendwie enttäuschend das AMD mit einer 7er CPU gegen Intels 5er antritt und dennoch klar langsamer als ein 13600K herauskommt. Der spekulierte 299$ preis macht da schon Sinn.Ja, völlig enttäuschend, daß der neue 8-Kerner in MT lediglich auf dem Niveau des alten 12-Kerners liegt (oder dem 8P+4E-Modell von intel). :rolleyes:
Aber wie Du richtig bemerkst, sind Performancevergleiche im jeweils entsprechendem Preisbereich (z.B. bei ~300$) entscheidend. Welche Nummern die Hersteller als Bezeichnung dranschreiben, sollte diesen Vergleich eher weniger beeinflussen. Daß ein 8-Kerner von AMD in MT-Szenarien vom neuen 8P+8E-Modell (13700K) von intel geschlagen wird, ist ja nicht wirklich überraschend, oder?
KarlKastor
2022-08-26, 13:31:14
Für manche schon. Sind ja nur Alibi Kerne die nichts bringen.
Gipsel
2022-08-26, 13:34:48
Für manche schon. Sind ja nur Alibi Kerne die nichts bringen.In so Sachen wie Cinebench (oder dem ziemlich nichtssagenden CPU-Z-Test) steigern die die Scores aber schon. ;)
Platos
2022-08-26, 13:45:07
In so Sachen wie Cinebench (oder dem ziemlich nichtssagenden CPU-Z-Test) steigern die die Scores aber schon. ;)
Es steigt nicht nur bei Cinebench und co, sondern die Anwendungsperfomance im Allgemeinen.
Dazu einfach mal das lesen: https://www.3dcenter.org/artikel/launch-analyse-intel-alder-lake/launch-analyse-intel-alder-lake-seite-2
Achill
2022-08-26, 13:52:59
Es gibt ja wohl viele Relationen zwischen den man Vergleichen kann ...
- Test von Performance in Theoretischen Szenarien mit dem Risiko eines Optimums
- Test von Performance in praktischen Anwendungen
- Test von Performance in Spielen
- ..
Das ganze kann man dann in Relation setzen zu:
- Cores & Threads
- OS (Windows, Linux, ..)
- Skalierung/Möglichkeit Tuning (RAM Bandbreite, Latenzen, ...)
- Energie-Verbrauch
- Temperatur
- Preis
- ..
Und jede/r kann dann für sich die "richtige" Auswahl treffen die halt für "Sie/Ihn" am besten passt, k.a. warum einige "Ihre" Kriterien andere vorgeben wollen.
Gipsel
2022-08-26, 13:57:30
Es steigt nicht nur bei Cinebench und co, sondern die Anwendungsperfomance im Allgemeinen.
Dazu einfach mal das lesen: https://www.3dcenter.org/artikel/launch-analyse-intel-alder-lake/launch-analyse-intel-alder-lake-seite-2Schon klar. Aber wir hatten hier spezifisch über diese Tests geredet. ;)
Und daß Cinebench in der Frage der Skalierung mit E-Cores halbwegs gut mehrere MT-Szenarien abbildet (quasi Alles, was alle Kerne auslastet und wo die Kerne das Bottleneck sind [statt z.B. der Arbeitsspeicher]), dürfte doch bekannt sein. In Spielen ist der Nutzen manchmal zweifelhaft.
Lehdro
2022-08-26, 14:26:28
Klar, ich finds nur irritierend, wie viele gleich wegen 15 oder 30% mehr Leistung immer wieder wechseln, und das trotz 4K Spieleauflösung, oder allgemeines GPU Limit. Es erstaunt mich einfach, positiv ausgedrückt. :smile:
Scheinst immer noch nicht zu verstehen das du auch in 4K in ein CPU Limit kommen kannst. Genau bei solchen Fällen hilft ein X3D enorm. Da das natürlich nicht in einem Far Cry 27, Call of Duty 375 oder Battlefield 12 auftritt, existiert dieser Fall natürlich einfach nicht. :rolleyes:
Ich blame nicht dich für diese Aussage, sondern mal unsere lieben Reviewer, die leider überwiegend immer nur denselben AAA-Krempel testen, mit erwartbaren Ergebnissen. Du hast Recht, niemand schert sich ob nun Intel oder AMD in Spiel XY um 10% vorne liegt. Mich interessiert aber sehr wohl wenn ich in Spiel Z plötzlich +50% bekomme, weil diverse Spiele Prozessoren vom Schlage des X3D extrem honorieren. Als Beispiel: So ziemlich jedes MMORPG (also Spiele die Millionen von Spielern haben - dauerhaft) läuft plötzlich fluffig im härtesten Raid. Das ist in der Tat mehr Wert als +15% Gen over Gen. Aber so etwas wird halt extrem selten getestet, leider.
Darf natürlich jeder so machen wie er will.
Keine Angst, das machen wir Verrückten so oder so.
Ich freu mich schon auf Zen 4 mit 3D Vcache :cool:
Ex3cut3r
2022-08-26, 14:31:19
Scheinst immer noch nicht zu verstehen das du auch in 4K in ein CPU Limit kommen kannst. Genau bei solchen Fällen hilft ein X3D enorm. Da das natürlich nicht in einem Far Cry 27, Call of Duty 375 oder Battlefield 12 auftritt, existiert dieser Fall natürlich einfach nicht. :rolleyes:
Keine Angst, das machen wir Verrückten so oder so.
Ich freu mich schon auf Zen 4 mit 3D Vcache :cool:
Viel Spaß wünsche ich. :up: (Ernst gemeint)
Aber. Welches Spiel limitiert in 4K? Hast du einen Namen? Bench? oder sonst was?
Aber. Welches Spiel limitiert in 4K? Hast du einen Namen? Bench? oder sonst was?
Hat er doch etwas weiter unten genannt: so ziemlich jedes MMORPG ;)
Egal ob WoW, FF XIV oder ein anderes. Die Games setzen jedes zusätzliche MHz Takt und jede ns weniger Latenz sofort in mehr Performance um. Egal ob 1080p oder 4K. Wenn du solo irgendwo unterwegs bist eher nicht, in Raids aber zu 100%.
Linmoum
2022-08-26, 14:35:34
Das: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12985735#post12985735
Oder WoW. Oder MSFS. Oder ACC. Oder einfach vor allem generell (Aufbau-)Simulationen und MMOs.
Ex3cut3r
2022-08-26, 14:39:14
Ok, Danke. Aber, diese Spiele sind ja ziemlich SC Lastig, mit schlimmen/ruckeligen Frametimes, wärs da sowieso nicht besser, sich einfach eine FPS Limit zu setzen, von 45, 60 FPS, je nach dem was die CPU schafft?
BlacKi
2022-08-26, 15:00:40
Viel Spaß wünsche ich. :up: (Ernst gemeint)
Aber. Welches Spiel limitiert in 4K? Hast du einen Namen? Bench? oder sonst was?was hat die auflösung mit cpu performance zu tun? wenn die cpu bestimmte fps erreichen können soll hat das wenig mit der auflösung zu tun. angeblich skaliert LoD sogar mit der auflösung, d.h. du brauchst minimal mehr cpu performance wenn du in höherer auflösung spielst.
dein argument ist sozusagen sogar falsch, weil je höher die auflösung umso besser muss die cpu sein.
Lehdro
2022-08-26, 15:01:58
Viel Spaß wünsche ich. :up: (Ernst gemeint)
Aber. Welches Spiel limitiert in 4K? Hast du einen Namen? Bench? oder sonst was?
In 1440p/4k explizit:
Stellaris (https://github.com/xxEzri/Vermeer/blob/main/Guide.md#stellaris) (2 (https://www.youtube.com/watch?v=mdLcmXTzpLg)), Factorio (https://www.youtube.com/watch?t=451&v=ajDUIJalxis&feature=youtu.be), BDO (https://www.reddit.com/r/blackdesertonline/comments/wu4rd8/amd_cpu_not_an_upgrade_at_all/), WoW (https://www.youtube.com/watch?v=gOoB3dRcMtk) (2 (https://github.com/xxEzri/Vermeer/blob/main/Guide.md#world-of-warcraft))
Ansonsten nennenswerte Beispiele:
Star Citizen (https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/News/vs-5900X-und-Core-i7-12700KF-in-Star-Citizen-1394022/) und Assetto Corsa (https://www.purepc.pl/test-recenzja-procesora-amd-ryzen-7-5800x3d?page=0,21), um nur ein paar mit Quellen zu nennen.
Zossel
2022-08-26, 15:04:30
Ok, Danke. Aber, diese Spiele sind ja ziemlich SC Lastig, mit schlimmen/ruckeligen Frametimes, wärs da sowieso nicht besser, sich einfach eine FPS Limit zu setzen, von 45, 60 FPS, je nach dem was die CPU schafft?
Solche Software hangelt sich wahrscheinlich permanent durch extrem verpointerte große Strukturen die sich im Laufe der Zeit komplett über das RAM verteilen.
Da hilft keine Bandbreite, sondern da hilft nur kleinere Latenz.
robbitop
2022-08-26, 15:49:35
Cities Skylines und Anno 1800 bei großen Städten wären hinzuzufügen. Oder eine Menge 4X Spiele bei einer hohen Rundenzahl und großer Karte - der Rundenwechsel dauert hinten raus oft recht lang.
Alles nicht optimiert aber wenn man es gerne zockt: was will man machen?
CrazyIvan
2022-08-26, 15:56:50
Raptorlake hat zwar auch etwas mehr L2, aber die Latenzen werden eher schlechter durch die zusätzlichen ringbus stops der zusätzlichen E-Core-cluster.
Wie es der Zufall will haben Chips and Cheese das an einem ES vermessen. Kurzfazit: Intel hat ganze Arbeit geleistet, da die Latenz nur um einen Takt steigt.
https://chipsandcheese.com/2022/08/23/a-preview-of-raptor-lakes-improved-l2-caches/
BTW
Laut einem kurz darauf gelöschten Tweet hat Zen4 wohl einen deutlich größeren ROB als Zen3. 320 statt 224 (AFAIR) 256 Einträgen.
Wundert mich fast ein bisschen. Bei <10% IPC Zugewinn und allgemein geringer Verbreiterung der Architektur erscheinen 50% mehr ROB teuer und sinnlos. Aber wer weiß, ob sich das bewahrheitet.
Bei doch nur 25% Steigerung ziehe ich meine vorherige Aussage zurück.
Gipsel
2022-08-26, 16:12:54
Wie es der Zufall will haben Chips and Cheese das an einem ES vermessen. Kurzfazit: Intel hat ganze Arbeit geleistet, da die Latenz nur um einen Takt steigt.
https://chipsandcheese.com/2022/08/23/a-preview-of-raptor-lakes-improved-l2-caches/Von 15 auf 16 Takte bei 1,25=>2MB (+ Erhöhung der Assoziativität von 10 auf 16fach). Das ist als relative Steigerung wirklich erstmal nicht schlecht.
Mal sehen, was für eine L2-Latenz die 1 MB L2 des Zen4 Kerns dann haben wird. Die 512kB bei Zen+, Zen2 und Zen3 kommen mit 12 Zyklen daher. Bis 14 Zyklen wäre wohl okay. Mehr als das wären eventuell als Opfer der Taktsteigerung zu sehen (wobei vom Gefühl her eher der L3 limitierte).
Ex3cut3r
2022-08-26, 16:24:54
was hat die auflösung mit cpu performance zu tun? wenn die cpu bestimmte fps erreichen können soll hat das wenig mit der auflösung zu tun. angeblich skaliert LoD sogar mit der auflösung, d.h. du brauchst minimal mehr cpu performance wenn du in höherer auflösung spielst.
dein argument ist sozusagen sogar falsch, weil je höher die auflösung umso besser muss die cpu sein.
Da bist du ziemlich auf dem Holzweg, gibt ein paar Spiele vor das der Fall ist, ja, ist aber eher ein Bug. Und die Norm ist das keines Falls.
Der_Korken
2022-08-26, 16:33:56
Wie es der Zufall will haben Chips and Cheese das an einem ES vermessen. Kurzfazit: Intel hat ganze Arbeit geleistet, da die Latenz nur um einen Takt steigt.
https://chipsandcheese.com/2022/08/23/a-preview-of-raptor-lakes-improved-l2-caches/
BTW
Laut einem kurz darauf gelöschten Tweet hat Zen4 wohl einen deutlich größeren ROB als Zen3. 320 statt 224 (AFAIR) 256 Einträgen.
Wundert mich fast ein bisschen. Bei <10% IPC Zugewinn und allgemein geringer Verbreiterung der Architektur erscheinen 50% mehr ROB teuer und sinnlos. Aber wer weiß, ob sich das bewahrheitet.
Bei doch nur 25% Steigerung ziehe ich meine vorherige Aussage zurück.
Chips & Cheese haben vor einiger Zeit schon mal versucht die Bottlenecks bei Zen 3 zu finden:
https://chipsandcheese.com/2021/07/23/measuring-zen-3s-bottlenecks/
Da waren ROB-Full-Stalls die wahrscheinlich größte Baustelle. Insofern wäre es nicht verwunderlich, wenn AMD hier Hand anlegt. 320 ist eigentlich immer noch moderat. Sunny Cove hatte schon 352, obwohl die IPC sogar minimal unter Zen 3 lag und Golden Cove hat direkt mal 512. Selbst die Gracemonts haben 256, also so viel wie Zen 3. 224 hatte Zen 2 (und Skylake).
r3ptil3
2022-08-26, 16:45:55
Da bist du ziemlich auf dem Holzweg, gibt ein paar Spiele vor das der Fall ist, ja, ist aber eher ein Bug. Und die Norm ist das keines Falls.
Du hast da etwas grundlegendes in der Aussage "je höher die auflösung umso besser muss die cpu sein" anscheinend missachtet:
Die CPU ist nicht unwichtiger in hohen Auflösung, sondern die GPU wird wichtiger. Wenn die GPU nicht mehr im GPU-Limit ist, dann wäre praktisch jedes Mhz mehr der CPU ausschlaggebend für die Performance.
aufkrawall
2022-08-26, 17:04:10
Und was hat das mit der Auflösung zu tun? Ich kann auch die Auflösung erhöhen und GPU-Details senken, um ggf. die gleichen fps wie in niedrigerer Auflösung zu erreichen.
Es hat also gar nicht so viel mit der Auflösung zu tun (bzw. wie Ex3cut3r schon sagte, fast gar nichts), sondern mit den anvisierten fps. Immer diese unnötigen Unschärfen in der Argumentation...
robbitop
2022-08-26, 17:14:41
Chips & Cheese haben vor einiger Zeit schon mal versucht die Bottlenecks bei Zen 3 zu finden:
https://chipsandcheese.com/2021/07/23/measuring-zen-3s-bottlenecks/
Da waren ROB-Full-Stalls die wahrscheinlich größte Baustelle. Insofern wäre es nicht verwunderlich, wenn AMD hier Hand anlegt. 320 ist eigentlich immer noch moderat. Sunny Cove hatte schon 352, obwohl die IPC sogar minimal unter Zen 3 lag und Golden Cove hat direkt mal 512. Selbst die Gracemonts haben 256, also so viel wie Zen 3. 224 hatte Zen 2 (und Skylake).
Interessante Analyse zu Zen 3 von Chips and Cheese.
uOp Cache zu klein
L1 zu klein
L2 zu klein
ROB zu klein
4x Decoder sind nie ein bottleneck für Zen 3
Branch Predictor ist sehr gut aber besser würde noch richtig was bringen
Zumindest eine Teilmenge wird für Zen 4 umgesetzt. Auch Interessant die Simulation zum L2 Cache von Raptor Cove: die 2 mib L2 wird so gut wie nichts an IPC ggü Golden Cove bringen aber wohl Energieeffizienz steigern.
Platos
2022-08-26, 17:14:56
Schon klar. Aber wir hatten hier spezifisch über diese Tests geredet. ;)
Und daß Cinebench in der Frage der Skalierung mit E-Cores halbwegs gut mehrere MT-Szenarien abbildet (quasi Alles, was alle Kerne auslastet und wo die Kerne das Bottleneck sind [statt z.B. der Arbeitsspeicher]), dürfte doch bekannt sein. In Spielen ist der Nutzen manchmal zweifelhaft.
Ja, für Spiele ist Cinebench eher nicht geeignet, aber ich will damit sagen, dass Cinebench für gewöhnlich halbwegs ok die Anwendungsperfomance wiedergibt (mindestens innerhalb einer Herstellers).
Und man hat ja den Vergleich von Zen 4 zu Zen3 bzw. Alderlake und Raptorlake. D.h man kann schon sehr gut einschätzen, wo die Anwendungsperfomance landen wird, da diese von Alderlake vs Zen3 ziemlich gut bekannt sind.
Cinebench ist also nicht wertlos, wie manche hier sagen/andeuten. Zumindest für Anwendungsperfomance.
Ex3cut3r
2022-08-26, 17:18:25
Du hast da etwas grundlegendes in der Aussage "je höher die auflösung umso besser muss die cpu sein" anscheinend missachtet:
Die CPU ist nicht unwichtiger in hohen Auflösung, sondern die GPU wird wichtiger. Wenn die GPU nicht mehr im GPU-Limit ist, dann wäre praktisch jedes Mhz mehr der CPU ausschlaggebend für die Performance.
Natürlich, ich weiß schon was ein GPU/CPU Limit ist. X-D
Schließlich war ich auch mit einem R5-3600 + B-Die mit einer 3080 Ti im GPU Limit. -> Und dass sogar in 1440p
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12878486&postcount=4959
CPU, wird meiner Meinung nach viel zu hoch gekocht, allerdings spiele auch keine MMPORG, und Co.
Auf meinem YouTube Channel habe ich noch viele Videso mit 3600 und 3080 Ti. Wenn man sich ein Bild machen will.
https://www.youtube.com/user/3r3cut/videos
r3ptil3
2022-08-26, 17:30:29
@Ex3
Hast du mal die Spikes der CPU Auslastung geprüft?
Bspw. über einen Zeitraum von 4-5 Minuten?
Das noch in Verbindung mit den Frametimes setzen, wäre mal interessant.
Ex3cut3r
2022-08-26, 17:32:10
Habe einige Videos wie gesagt auf meinem YouTube Channel die auch mal 10 Minuten oder länger gehen, schaus dir an. Wenn du interessiert bist/warst.
Allerdings spielt die Aufnahme natürlich immer etwas mit rein. Aber im großen ganzen lief das hier wirklich (kein Scherz) richtig gut. War ein Weltenunterschied zur 2080 mit 3600.
Ich viel jetzt sein Upgrade auf Zen 4 niemanden schlecht reden, aber seien wir ehrlich, die meisten wechseln, einfach aus Spaß am basteln. Nicht weil man es jetzt unbedingt braucht.
Gipsel
2022-08-26, 17:33:01
Ja, für Spiele ist Cinebench eher nicht geeignet, aber ich will damit sagen, dass Cinebench für gewöhnlich halbwegs ok die Anwendungsperfomance wiedergibt (mindestens innerhalb einer Herstellers).Nur einen Teil derselben. Es gibt auch viel Anwendungssoftware, die nicht alle Kerne auslastet (und damit auch keine/kaum Last auf die E-Cores bringt).
BlacKi
2022-08-26, 18:00:57
der8auer zerlegt am5 mainboard(s)
€dit, das gibt ein hickhack bei der kühlerkompatibilität.
zM4RPnBFIAo
CrazyIvan
2022-08-26, 18:15:08
@Robbi
Mit Bottlenecks ist das halt so eine Sache. Behebst Du einen, tut sich der nächste auf (von der Annahme ausgehend, dass das Optimierungsziel nicht nur aus genau einem Workload besteht). Wenn man das Spiel nicht endlos fortsetzen will, braucht es ein Abbruchkriterium - vermutlich die Teileinheit mit den höchsten Grenzkosten. Gut möglich, dass das bei Zen3 der ROB war.
robbitop
2022-08-26, 18:28:24
Mit einem weiteren full nide shrink bei Zen 4 auf 5 nm haben dann ein paar Sachen offenbar wieder Sinn gemacht. :)
basix
2022-08-26, 18:46:41
Der Zen 4 Core ist Node normiert vermutlich einiges fetter. Zumindest wenn man sich die 72mm2 des neuen CCDs anschaut.
robbitop
2022-08-26, 18:51:50
Allein der doppelte L2 und der nun doppelte IF kosten sicherlich einiges.
reaperrr
2022-08-26, 20:08:49
Allein der doppelte L2 und der nun doppelte IF kosten sicherlich einiges.
Jup.
Ich hab's vor einer Weile mal grob überschlagen, dadurch dass SRAM in N5 nur ~1.3x dichter als in 7nm ist, sorgt allein die Verdoppelung des L2 schon dafür, dass bei Zen4 noch ca. genauso viel Fläche für Cache draufgeht wie bei Zen3.
Da die IF-Interfaces wohl unter Analog fallen (nur ~1.2x dichter), geht bei Zen4 also trotz N5 bereits mehr Fläche als bei Zen3 nur für Cache und IF drauf.
Dass die Chiplets nicht gravierend schrumpfen, wundert angesichts dieser Tatsachen eher nicht.
davidzo
2022-08-26, 21:25:02
Laut einem kurz darauf gelöschten Tweet hat Zen4 wohl einen deutlich größeren ROB als Zen3. 320 statt 224 (AFAIR) 256 Einträgen.
Macht total Sinn. Ein OoO Window von 256 war bei Zen3 einfach schon winzig im Vergleich zu anderen high performance Cores wie Golden Cove (512) oder Apple Firestorm (630). Für den 32mb L3 ist Zen3s ROB eigentlich schon zu klein, sprich eigentlich wäre genug cache/latency da, aber vorher limitiert das OoO window.
Außerdem wird das FP register file eh wachsen, alleine wegen AVX-512, sowie sehr wahrscheinlich zusätzliche L/S ports. Da muss der ROB auch wachsen, der wird sonst noch mehr zum Nadelöhr. 320 ist leider immer noch wenig, schade dass AMD diesmal noch nicht in die Vollen geht.
ChipsandCheese hatte den größeren ROB für Zen4 schon 2021 vorrausgesagt:
The three most common reasons for Zen 3 to stall out on the backend are the ROB filling, the Load Queue filling, and the Store Queue fill, with an honorary mention of the Floating Point Registers being the second most common reason for stalls in our testing of Linpack. So AMD making these structures larger and/or lower latency in Zen 4 is a likely possibility.
https://chipsandcheese.com/2021/07/23/measuring-zen-3s-bottlenecks/
Der_Korken
2022-08-26, 22:43:07
Falls jemand Interesse an Blockdiagrammen von diversen CPU-Architekturen hat, es gibt einen User namens Cardyak, der solche Diagramme zusammengetragen hat:
https://twitter.com/cardyak?lang=de
https://drive.google.com/drive/folders/1W4CIRKtNML74BKjSbXerRsIzAUk3ppSG
Zen 3 ist an vielen Stellen überhaupt nicht breiter als Zen 1. Das Backend sieht bei Zen 3 zwar im Bild sehr massiv aus (16 vs 10 Ports), allerdings sind vier von den neuen Ports "Store Data", wo ich persönlich nicht weiß, was die genau machen bzw. wie vorher "data gestored" wurde. Dann halt eine dritte AGU und ein dedizierter Branch-Port, damit ein ALU+Branch-Port seltener durch Branches blockiert ist. Ansonsten aber nach wie vor 4 INT-ALUs, 4 FP-ALUs, 6-wide issue, Decode-Durchsatz, sogar der Load-Buffer ist gleich geblieben. Kurioserweise hatte Zen 1 bereits 32Bytes/clock Durchsatz im Fetch, was Intel erst seit Golden Cove macht.
Ich habe mich auch schon gefragt, wie man eigentlich die ALUs von Intel zählt. Es sind 5xALU und 3xFP, also eigentlich genauso viel wie bei Zen 1, nur eben mehr INT als FP. Dafür hängen diese 8 Einheiten nur an 5 Ports, d.h. können die überhaupt gleichzeitig arbeiten? Falls nein, dann wäre Golden Cove in Wirklichkeit super schmal und ein Auslastungsgenie. Bei chips&cheese stand bei den Messungen dabei, dass die IPC in vielen Anwendungen nur um 1 herum ist. Wären vor dem Hintergrund nicht alle Architekturen masslos überdimensioniert in der Breite? Andererseits guckt man sich dann Apples Firestorm an mit 6xALU und 4xVALU und dessen massive IPC an - offensichtlich bringt diese hohe Zahl doch etwas. Fragen über Fragen, wobei das alles sicher erst für Zen 5 relevant wird.
CrazyIvan
2022-08-26, 23:21:03
@davidzo
Was heißt "total Sinn"? Ein größerer ROB kostet auch etwas. Fläche, Energie, Leistung oder von allem etwas. Sonst hätten CPUs seit Jahren ROBs mit tausenden Einträgen. Es muss ja einen Grund haben, warum er selten überdimensioniert sondern in aller Regel sehr genau auf die Breite des Gesamtkonstrukts angepasst ist. Verstehe mich nicht falsch. Ich bin froh, dass der ROB so stark gewachsen ist. Anscheinend hat die Breite an anderen Stellen das erforderlich gemacht, was der IPC zugute kommt.
CnC hatte in dem Artikel einen Satz, der mich zu erst wunderte, aber im Grunde in die selbe Kerbe schlägt:
The ROB being full is the most common reason for the core to stall, and is responsible for stalling the renamer about 8 to 20% of the time. In a way, that’s a good thing, because it means the core’s not stalling on other structures first.
Größere Caches und niedrigere Latenzen entlasten den ROB übrigens. Weniger Cache Misses sorgen für weniger Instruktionen, die während des Walk of shame zum RAM für hunderte Takte im ROB geparkt werden müssen. Gemeinsam mit kurzen Latenzen senkt das die mittlere Verweildauer einer Instruktion im ROB.
robbitop
2022-08-27, 07:52:07
Ggf kam AMD deshalb so lange mit kleinem ROB aus.
Zen 4 ist nur eine weitere Optimierung des Bestehenden. Zen 5 wird dann mehr von allem haben und eher in die Richtung von Apples und Intels aktuellen Performance Kernen haben. Aber für so einen großen Paradigmenwechsel muss man wohl lieber vieles von null beginnen anstatt das bestehende Design breiter zu machen, nehme ich an. Auch schätze ich hat man auf der Zen Reise bisher einiges gelernt um dann ein effizientes breites Neudesign wie Zen 5 erst für AMD realisierbar zu machen.
fondness
2022-08-27, 10:11:35
Macht total Sinn. Ein OoO Window von 256 war bei Zen3 einfach schon winzig im Vergleich zu anderen high performance Cores wie Golden Cove (512) oder Apple Firestorm (630).
IMO nicht vergleichbar, Zen3 ist winzig im Vergleich zu Golden Cove oder Firestrom und damit eben kein klassischer high performace core. Das geniale an Zen ist ja gerade, das sie mit einem deutlich schmaleren Core dieselbe IPC wie Intel erreichen bei deutlich besserer Perf/Watt und /mm² bzw. dieselbe Leistung wie Firestrom dank deutlich mehr Takt bei vergleichbarer Perf/Watt und besserer Perf/mm² (Prozessnormiert). Bleibt die Frage was passiert, wenn AMD mit Zen5 dann auch mal in die Breite geht.
robbitop
2022-08-27, 10:34:07
Ja. Es ist anscheinend extrem schwierig breite Cores zu bauen, die schnell und energieeffizient sind.
Bei Samsungs Exynos M Cores hat man ein Negativbeispiel gesehen. Nicht schneller als die schmaleren ARM A cores aber durstiger. Energieeffizienz war nicht so toll.
Apple hat das im Mobile Sektor als einziger hinbekommen bis dato (mal schauen was Nuvia für QCOM machen wird - ist ja im Prinzip fasr „gestohlenes“ Apple know how - Apple Leute die ihr know how bei Apple schärfen konnten und dann abgehauen sind und ihr know how an QCOM für Milliarden verkauft haben :D Krass dass es dafür keine non competes in den Arbeitsverträgen gab).
Btw ab und an blitzt bei Golden Cove doch schonmal durch, dass das ein high performance Core ist. Es gibt ein paar Spiele und Anwendungen, wo er Zen 3 einfach davon zieht und es den X3D braucht um wieder ranzukommen)
Platos
2022-08-27, 10:36:10
Welche Spiele sind das ?
fondness
2022-08-27, 10:39:11
Krass dass es dafür keine non competes in den Arbeitsverträgen gab).
Ist verboten in Kaliforien. Ein Mitgrund, warum die dort so erfolgreich sind IMO.
Btw ab und an blitzt bei Golden Cove doch schonmal durch, dass das ein high performance Core ist. Es gibt ein paar Spiele und Anwendungen, wo er Zen 3 einfach davon zieht und es den X3D braucht um wieder ranzukommen)
Ja und ab und an ist er dann eben sogar hinten. Im Schnitt ist Golden Cove ungefähr das schneller, was er mehr Takt hat, die IPC ist höchstens minimal höher.
robbitop
2022-08-27, 10:41:21
@Platos
Puh müsste ich jetzt raussuchen. Waren schon ein paar. Auf Anhieb fällt mir noch Anno 1800 ein.
robbitop
2022-08-27, 10:43:07
Ist verboten in Kaliforien. Ein Mitgrund, warum die dort so erfolgreich sind IMO.
Klar das hat sein für und wieder. Für die Innovation ist das super - aber für die Firmen natürlich extremst desaströs, da man sein teuer/mühsam aufgebautes know how nicht beschützen kann.
Platos
2022-08-27, 10:46:46
@Platos
Puh müsste ich jetzt raussuchen. Waren schon ein paar. Auf Anhieb fällt mir noch Anno 1800 ein.
Ahh, aber war Anno nicht das Spiel, was auf Intel sowieso immer besser lief? Denkst du wirklich, das liegt an der Hardware und nicht möglicherweise auch einfach an der Softwareoptimierung ?
dildo4u
2022-08-27, 10:46:55
Welche Spiele sind das ?
Paar Beispiele gibt es hier Far Cry 6,Riftbreaker,Hitman 3,Watch Dogs Legion,Cyberpunk etc.
https://youtu.be/31R8ONg2XEU
Der 12700k war ein zu gutes Angebot im März war er bei 400 jetzt sinds 450.
Platos
2022-08-27, 10:49:10
Klar das hat sein für und wieder. Für die Innovation ist das super - aber für die Firmen natürlich extremst desaströs, da man sein teuer/mühsam aufgebautes know how nicht beschützen kann.
Find ich aber gut. Weil anderenfalls gehört dein Wissen im Grunde ja anderen Leuten.
Paar Beispiele gibt es hier Far Cry 6,Riftbreaker,Hitman 3,Watch Dogs Legion,Cyberpunk etc.
https://youtu.be/31R8ONg2XEU
Ok, thanks, aber nochmals die Frage von oben: Warum sollte das jetzt an der Hardware liegen und nicht einfach an der Optimierung auf Softwarebasis?
robbitop
2022-08-27, 11:01:49
Ich glaube es kommt drauf an aus welcher Brille man das sieht. Wenn man auch schonmal Unternehmer war, kennt man auch die andere Seite.
So spezifisches Know How ist nur möglich, wenn Firmenressourcen genutzt werden:
1.) es entsteht während der Arbeitszeit für die man bezahlt wird - also gehört das know how auch zT dem Arbeitgeber - und gerade solche Leute (CPU Senior Fellows usw) werden auch richtig fettig dafür bezahlt
2.) gerade bei so speziellem know how wird teures Equipment benötigt wofür der Arbeitgeber zahlt
3.) Forschungsergebnisse sind oftmals die Frucht großer Teams - bezahlt durch den Arbeitgeber. Wenn man sich die Erkenntnisse daraus zieht und merkt -> ist es dann eigenes know how?
Je spezieller und teurer das Know How desto mehr Ressourcen vom Arbeitgeber sind involviert. Und desto eher hat der Arbeitgeber daran auch einen Anteil und desto schützenswerter ist das.
Klar als Arbeitnehmer denkt man sich, dass man schön im eigenen Sinne alle ausbootet. Aber wenn man der Unternehmer ist, der da alles reingesteckt hat an ressource und dann wird man ausgebootet ist es was anderes.
Non competes sind IMO schon sinnvoll - aber natürlich erst ab einem gewissen paygrade und erst ab einer gewissen Stufe des schützenswerten Know hows. Und wenn man gefeuert wird, muss der AG für die Dauer des Non competes das volle Gehalt zahlen.
Ich schätze Verständnis beider Seiten erfordert, dass man schonmal in beiden Rollen gesteckt hat (oder es noch tut). Und das alles gilt IMO nur für wirklich spezielles, super teures know how. Know how was nur die 0,x% der schlausten Köpfe mit extrem hohen Geldbeträgen im Unternehmensmileu hinbekommen.
y33H@
2022-08-27, 11:11:05
Anno 1800 etwa liegt ADL sehr gut, auch Kingdome Come.
robbitop
2022-08-27, 11:12:32
Ok, thanks, aber nochmals die Frage von oben: Warum sollte das jetzt an der Hardware liegen und nicht einfach an der Optimierung auf Softwarebasis?
Ich habe eher den gegenteiligen Eindruck: Kram der wirklich schlecht optimiert ist, läuft oft auf Alderlake schneller. Da scheint die uArch mehr Durchsatz raus zu bekommen. Und das ist eben auch eine Stärke die richtig Transistoren kostet.
Sobald eine gewisse MT Optimierung vorhanden ist, scheint die Spreizung zu sinken.
basix
2022-08-27, 14:35:12
@non competes: Für etwas gibt es Patente. Damit schützt man die Sache / Technologie, ohne dem Arbeitnehmer quasi ein Berufsverbot zu erteilen. Natürlich ist das gespeicherte Wissen in den Köpfen wertvoll, aber ein automatischer Technologie und Know How Transfer ist es auch nicht. Hier geht es beim Abwerben nicht um spezifische Technologien, sondern um die Erfahrung der Leute (was im groben gut funktioniert und was nicht) und dass sie halt einfach intelligent und deswegen für eine Firma wertvoll sind.
robbitop
2022-08-27, 15:02:19
Man kann vieles aber aus einer Vielzahl von Gründen nicht patentieren. Auch ist es sperrig und kostenintensiv alles zu patentieren.
Patente sind hilfreich aber kein Heilmittel. Non Competes machen aus o.g. Gründen schon Sinn und gibt es vielerorts und in vielen Branchen. Die Leute mit non competes werden idR auch fürstlich dafür entschädigt.
Platos
2022-08-27, 16:05:20
Ich glaube es kommt drauf an aus welcher Brille man das sieht. Wenn man auch schonmal Unternehmer war, kennt man auch die andere Seite.
So spezifisches Know How ist nur möglich, wenn Firmenressourcen genutzt werden:
1.) es entsteht während der Arbeitszeit für die man bezahlt wird - also gehört das know how auch zT dem Arbeitgeber - und gerade solche Leute (CPU Senior Fellows usw) werden auch richtig fettig dafür bezahlt
2.) gerade bei so speziellem know how wird teures Equipment benötigt wofür der Arbeitgeber zahlt
3.) Forschungsergebnisse sind oftmals die Frucht großer Teams - bezahlt durch den Arbeitgeber. Wenn man sich die Erkenntnisse daraus zieht und merkt -> ist es dann eigenes know how?
Je spezieller und teurer das Know How desto mehr Ressourcen vom Arbeitgeber sind involviert. Und desto eher hat der Arbeitgeber daran auch einen Anteil und desto schützenswerter ist das.
Klar als Arbeitnehmer denkt man sich, dass man schön im eigenen Sinne alle ausbootet. Aber wenn man der Unternehmer ist, der da alles reingesteckt hat an ressource und dann wird man ausgebootet ist es was anderes.
Non competes sind IMO schon sinnvoll - aber natürlich erst ab einem gewissen paygrade und erst ab einer gewissen Stufe des schützenswerten Know hows. Und wenn man gefeuert wird, muss der AG für die Dauer des Non competes das volle Gehalt zahlen.
Ich schätze Verständnis beider Seiten erfordert, dass man schonmal in beiden Rollen gesteckt hat (oder es noch tut). Und das alles gilt IMO nur für wirklich spezielles, super teures know how. Know how was nur die 0,x% der schlausten Köpfe mit extrem hohen Geldbeträgen im Unternehmensmileu hinbekommen.
Naja, das ist für mich mehr eine Grundsatzfrage, ob man jemandem verbieten sollte, das eigene Wissen nicht mehr selbst nutzen zu dürfen. Im Grunde gehört dann dein Gehirn einer Firma (teilweise, also ein Teil deines Wissens). Und da sage ich, ne, das sollte nicht möglich sein.
Wenn man von anderen Lernt (im Team arbeitet), ist es dann ja im Endeffekt auch immer noch das eigene Wissen. Natürlich wäre es das auch, wenn man Spionage betreibt :D Ist also jetzt nicht ganz so einfach zu trennen.
Aber ich bin da eher der Meinung, dass das eine gute Sache ist. Die führenden Köpfe der Forschungsabteilung sind ja im Grunde der Existenzgrund eines Unternehmens. Ohne die, wäre das Unternehmen nichts. Aber gehört ein Teil der Firma dann auch ihnen? Nein, normalerweise nicht. Also finde ich es durchaus gerechtfertigt, dass eben dann der eine die Firma verlässt und selber was gündet (oder will). Ich finde es gut, dass es diese Regelung dort gibt.
Aber natürlich ist die Sache nicht immer schwarz-weiss. Aber es gibt ja trotzdem immer noch Patente, ist also auch überhaupt nicht schwarz-weiss geregelt (anscheinend)
robbitop
2022-08-27, 16:13:29
Ich sehe schon dass es hier keine Unternehmer gibt. ;)
mboeller
2022-08-27, 16:26:24
Ich sehe schon dass es hier keine Unternehmer gibt. ;)
Schau in Deutschland ist das ganze sehr einfach gelöst:
Entweder du bezahlst mich (egal ob ich jetzt für dich arbeite oder nicht mehr) oder zu hältst die Schnauze!
Wenn ein Arbeitnehmer kündigt besteht so lange Wettbewerbsverbot so lange der ehem. Arbeitgeber weiterhin für den ehemaligen Arbeitnehmer bezahlt. Wenn er nicht mehr bezahlt dann ist der ehem. Arbeitnehmer frei alles zu machen was er will.
Alles andere wäre ein (arbeitsrechtlich verbotenes) Arbeitsverbot. Frei nach dem Motto entweder arbeitest du für mich oder für die Müllabfuhr... das spielt sich nicht.
amdfanuwe
2022-08-27, 16:56:49
Ja, schau in D:
Geschäftsgeheimnisse werden in Deutschland durch das Gesetz streng geschützt. Auch ohne Klauseln im Arbeitsvertrag gilt eine Verschwiegenheitspflicht für Arbeitnehmer. Dafür sorgt § 241 Abs. 2 Bürgerliches Gesetzbuch (BGB), der euch dazu verpflichtet, Rücksicht auf die Rechte und Interessen eures Arbeitgebers zu nehmen. Hierzu gehört auch der Schutz von Geschäftsgeheimnissen.
In § 17 des Gesetzes gegen den unlauteren Wettbewerb (UWG) ist zudem geregelt, dass der Verrat von Geschäfts- und Betriebsgeheimnissen mit einer Freiheitsstrafe von bis zu drei Jahren oder einer Geldstrafe bestraft werden kann.
In Californien gibt es das halt nicht bzw. sind entsprechende Klauseln im Arbeitsvertrag verboten.
Daher floriert da auch die Industrie so gut.
robbitop
2022-08-27, 17:06:03
Ich glaube manchen ist der Kontext von non compete nicht klar und dem entsprechenden Umfeld. Und das non compete gibt es durchaus auch in Deutschland. Das sind nicht irgendwelche normal sterblichen Leute wie wir - ersetzbaren Leute, die es zu Hauf gibt. Standard Maschinenbauer, E Techniker, Programmierer, BWLer oder andere 0815 Akadamiker. Davon gibt es viele Millionen weltweit. Hier geht es um Senior Fellows in Schlüsselpositionen in Tech Unternehmen- das sind Leute die verdienen das 10 bis 20 fache von normalen Leuten. Das sind Leute mit so einem Talent und IQ dass es davon Größenordnungen weniger gibt. Für Non Compete wird man extrem(!!!) fett kompensiert. Überhaupt nicht vergleichbar mit dem was 99% der Leute kennen und erleben.
Es geht am Ende darum, dass man für eine gewisse Zeit X ein Wettbewerbsverbot bekommt - die Zeit aber selbst wenn man nicht arbeitet komplett bezahlt wird. Ich kenne jemanden, der hat 3 Jahre lang 7 stelliges Gehalt bekommen ohne was zu tun weil er das Unternehmen verlassen hat. Für die Zeit zahlt die Firma. Den Leuten geht es nicht schlecht - die werden dafür fürstlich kompensiert.
Im Gegenzug bekommen Wettbewerber aber halt die Erkennisse nicht, die derjenige während der Zeit in der Firma gesammelt hat. Die konnten aber auch nur erzeugt werden weil es die entsprechenden Resources gab (viele Millionen an RnD Budget, super teures Equipment, Armeen von Ingenieuren die forschen - Erkenntnisse die ohne diese Resources nicht möglich wären und voll bezahlt wurden). Sowas ist weltweit für diese Art Leute üblich. Das sind aber halt auch nicht viele - meistens ziemlich high ups. Das muss man schon im richtigen Kontext sehen.
Natürlich ist sowas für die Mehrzahl der Leute mit normalem Gehalt abstrus. :) aber der head of technology von tsmc kann zB nicht mal eben zu Samsung oder SMIC weil der ein non compete hat. Nach 3 Jahren schon aber dann hat tsmc halt 3 Jahre Vorsprung. Sowas gibts in genug Branchen mit tech fokus. Halte ich für diese wenigen Ausnahmen auch absolut für legitim.
Brillus
2022-08-27, 17:26:40
Ich glaube manchen ist der Kontext von non compete nicht klar und dem entsprechenden Umfeld. Und das non compete gibt es durchaus auch in Deutschland. Das sind nicht irgendwelche normal sterblichen Leute wie wir - ersetzbaren Leute, die es zu Hauf gibt. Standard Maschinenbauer, E Techniker, Programmierer, BWLer oder andere 0815 Akadamiker. Davon gibt es viele Millionen weltweit. Hier geht es um Senior Fellows in Schlüsselpositionen in Tech Unternehmen- das sind Leute die verdienen das 10 bis 20 fache von normalen Leuten. Das sind Leute mit so einem Talent und IQ dass es davon Größenordnungen weniger gibt. Für Non Compete wird man extrem(!!!) fett kompensiert. Überhaupt nicht vergleichbar mit dem was 99% der Leute kennen und erleben.
Es geht am Ende darum, dass man für eine gewisse Zeit X ein Wettbewerbsverbot bekommt - die Zeit aber selbst wenn man nicht arbeitet komplett bezahlt wird. Ich kenne jemanden, der hat 3 Jahre lang 7 stelliges Gehalt bekommen ohne was zu tun weil er das Unternehmen verlassen hat. Für die Zeit zahlt die Firma. Den Leuten geht es nicht schlecht - die werden dafür fürstlich kompensiert.
Im Gegenzug bekommen Wettbewerber aber halt die Erkennisse nicht, die derjenige während der Zeit in der Firma gesammelt hat. Die konnten aber auch nur erzeugt werden weil es die entsprechenden Resources gab (viele Millionen an RnD Budget, super teures Equipment, Armeen von Ingenieuren die forschen - Erkenntnisse die ohne diese Resources nicht möglich wären und voll bezahlt wurden). Sowas ist weltweit für diese Art Leute üblich. Das sind aber halt auch nicht viele - meistens ziemlich high ups. Das muss man schon im richtigen Kontext sehen.
Natürlich ist sowas für die Mehrzahl der Leute mit normalem Gehalt abstrus. :) aber der head of technology von tsmc kann zB nicht mal eben zu Samsung oder SMIC weil der ein non compete hat. Nach 3 Jahren schon aber dann hat tsmc halt 3 Jahre Vorsprung. Sowas gibts in genug Branchen mit tech fokus. Halte ich für diese wenigen Ausnahmen auch absolut für legitim.
Nur so Frage hier in De? Weil nach meinem Wissen in Deutschland macimal 1 Jahr erlaubt ist.
robbitop
2022-08-27, 17:57:46
Nur so Frage hier in De? Weil nach meinem Wissen in Deutschland macimal 1 Jahr erlaubt ist.
Soweit ich weiß sind zwei Jahre in Deutschland erlaubt. Mein Beispiel ist aus den USA. Ich arbeite auch selbst aktuell für ein US amerikanisches Unternehmen und hab da auch schon einiges gesehen, was man hierzulande nicht kennt.
w0mbat
2022-08-27, 18:06:40
Die meisten Tech Firmen in den USA sind in Kalifornien und dort ist jegliches non-compete eh verboten.
robbitop
2022-08-27, 18:25:48
Hehe Filterblase. Es gibt nicht nur in der PC und mobile Sparte Tech. Und es gibt auch eine ganze Menge Techfirmen in anderen Bundesstaaten als Kalifonien.
OgrEGT
2022-08-27, 19:26:03
Wo war nochmal der Zen4 Thread?
iamthebear
2022-08-27, 19:41:38
Es steigt nicht nur bei Cinebench und co, sondern die Anwendungsperfomance im Allgemeinen.
Das kommt stark darauf an, was du als "Anwendungsperformance" bezeichnest. Wenn du damit die typischen Multimediabenchmarks wie Blender meinst, die Computerbase ständig testest könntest du Recht haben.
Aber die Welt besteht nicht nur aus Spieoen und Videobearbeitung. Das sehen nur die meistens Youtuber so :P
Es gibt eine Menge Anwendungen die rein ST limitiert sind.
Aber es gibt auch Anwendungen, die zwar alle Kerne nutzen jedoch im Gegenteil zu Cinebench sehr speicherlastig sind d.h. es werden L2 Größe, L3 Größe/Bandbreite, RAM Bandbreite, Ringbus Performance usw. auch mitgetestet und dank vieler Kerne ist die Last hier oft deutlich höher als beim durchschnittlichen Spiel mit 6 Threads.
Typische Reviews sind hier sehr einseitig. Den Vorteil von DDR5 wird man z.B. rein mit Gaming + Cinebench nicht erkennen können, genauso wenig ob die Architektur noch gut mit mehr Kernen skaliert.
Solche Software hangelt sich wahrscheinlich permanent durch extrem verpointerte große Strukturen die sich im Laufe der Zeit komplett über das RAM verteilen.
Da hilft keine Bandbreite, sondern da hilft nur kleinere Latenz.
Oder mehr L3. Gerade bei den etwas älteren Spiepen sind diese verpointerten Strukturen machmal gar nicht so groß wie man denkt.
Das Ganze scheint jedoch auch architekturabhängig zu sein.
Rocket Lake und ADL scheinen z.B. deutlich weniger von zusätzlichem L3 zu profitieren als es noch Comet Lake tat.
Ich habe die Vermutung, dass dies am inklusiven Cachesystem liegt, das nicht so gut mit unterschiedlichen Workloads zu Recht kommt. Angenommen der Mainthread ist gar nicht so speicherlastig und kommt mit seinem L2 perfekt zu Recht.
Wenn dann aber ein Hintergrundthread ständig den gesamten RAM abgrast und den Inhalt des Mainthreads aus dem L3 wirft, dann fliegen die Daten auch aus dem L2. Mit ADL kann der Mainthread mit seinen 1.25MB L2 normal weiter arbeiten.
Von 15 auf 16 Takte bei 1,25=>2MB (+ Erhöhung der Assoziativität von 10 auf 16fach). Das ist als relative Steigerung wirklich erstmal nicht schlecht.
Mal sehen, was für eine L2-Latenz die 1 MB L2 des Zen4 Kerns dann haben wird. Die 512kB bei Zen+, Zen2 und Zen3 kommen mit 12 Zyklen daher. Bis 14 Zyklen wäre wohl okay. Mehr als das wären eventuell als Opfer der Taktsteigerung zu sehen (wobei vom Gefühl her eher der L3 limitierte).
Die Faustregel lautet ja: Doppelte Anzahl an Einträgen = 1 Takt mehr Latenz. Das würde im Fall von RTL ja genau passen.
Zumindest eine Teilmenge wird für Zen 4 umgesetzt. Auch Interessant die Simulation zum L2 Cache von Raptor Cove: die 2 mib L2 wird so gut wie nichts an IPC ggü Golden Cove bringen aber wohl Energieeffizienz steigern.
Intel hat massiv am Ringbus bzw. der L3 Bandbreite geschraubt. Wahrscheinlich geht der L2 auch in diese Richtung, dass man damit versucht den L3 zu entlasten. Das ist glaube ich nicht nur eine Frage des Energieverbrauchs, sondern auch eine Skalierungsfrage. Doppelte Kernanzahl bedeutet doppelte Datenmenge, die an jedem Kern an seinem Ringbus Stop bewältigt werden muss.
Und man hat ja den Vergleich von Zen 4 zu Zen3 bzw. Alderlake und Raptorlake. D.h man kann schon sehr gut einschätzen, wo die Anwendungsperfomance landen wird, da diese von Alderlake vs Zen3 ziemlich gut bekannt sind.
Cinebench gibt dir keine Antwort darauf, was der doppelte L2 bei Zen4 und RTL bringen, da alle Daten in den L2 passen.
Es sagt auch nichts über Core to Core Latenzen oder die Auswirkungen von DDR5 aus.
Cinebench ist gut dafür geeignet:
.) Das Kühlsystem zu testen
.) Zu schauen ob die Taktraten unter Last stabil bleiben
.) Die grobe Leistungsfähigkeit des Kerns selbst zu ermitteln
Jup.
Ich hab's vor einer Weile mal grob überschlagen, dadurch dass SRAM in N5 nur ~1.3x dichter als in 7nm ist, sorgt allein die Verdoppelung des L2 schon dafür, dass bei Zen4 noch ca. genauso viel Fläche für Cache draufgeht wie bei Zen3.
Die SRAM Zellen selbst für 4MB zusätzlichen L2 sind gerade einmal 0.84mm² groß bzw. 0.105mm² pro Kern. Das wird jetzt kaum den riesigen Unterschied machen. Der von dem, was auf den Die Shots als "L2" eingefärbt ist das ist die Verwaltungslogik dahinter und diese ist Logik und sollte 1.7x skalieren.
Macht total Sinn. Ein OoO Window von 256 war bei Zen3 einfach schon winzig im Vergleich zu anderen high performance Cores wie Golden Cove (512) oder Apple Firestorm (630). Für den 32mb L3 ist Zen3s ROB eigentlich schon zu klein, sprich eigentlich wäre genug cache/latency da, aber vorher limitiert das OoO window.
320 ist leider immer noch wenig, schade dass AMD diesmal noch nicht in die Vollen geht.
Ich denke das ist bei AMD eine strategische Sache.
Ein großes OoO Window bedeutet wenn die Sprungvorhersage nicht ganz mitkommt, dass öfters Mal die falschen Befehle unnötig verarbeitet werden. Das ist aus reiner Performanceüberlegung zwar egal, kostet aber unnötig Energie.
Energieeffizienz ist für AMD ein großes Thema, denn die wollen in den lukrativen Businessmarkt der 15W Notebooks.
Zossel
2022-08-27, 19:44:11
Ich sehe schon dass es hier keine Unternehmer gibt. ;)
Unternehmer die nicht jammern sind keine Unternehmer.
BlacKi
2022-08-27, 22:11:05
Ich habe eher den gegenteiligen Eindruck: Kram der wirklich schlecht optimiert ist, läuft oft auf Alderlake schneller.
das gibt echt zu denken... ist das echt so?
Zossel
2022-08-28, 09:01:52
das gibt echt zu denken... ist das echt so?
Wahrscheinlich ist es einfacher einen Pudding an die Wand zu nageln als diese Aussage dingfest zu machen.
Es wurden noch nicht mal Indizien für die These geliefert.
Nightspider
2022-08-28, 09:15:55
Erstmal AMDs Vorstellung abwarten, dann können wir sinnvoller weiter diskutieren. ^^
robbitop
2022-08-28, 09:22:14
Wahrscheinlich ist es einfacher einen Pudding an die Wand zu nageln als diese Aussage dingfest zu machen.
Es wurden noch nicht mal Indizien für die These geliefert.
So ziemlich alle unoptimierten ST Titel laufen auf den Intel CPUs besser. (ARMA, PUBG, Anno und da gibt es noch einen Batzen mehr von diesem Softwaremüll) Ob das wirklich Zufall ist oder ein Indiz?
Tobalt
2022-08-28, 09:54:16
Wenn Intel mehr Befehle OoO sortieren kann, ist es doch natürlich, dass dies gerade bei schlechten Kompilaten Vorteile bringt, oder ?
robbitop
2022-08-28, 10:02:13
Wenn das der Bottleneck ist ja. Auf dem Papier hat ADL mehr von so ziemlich allem. Aber aber das muss ja nicht der Bottleneck sein. Aber irgendwie schafft es Alderlake bei diesem Softwaremüll auf etwas höherer IPC zu bleiben.
Sowas kann man analysieren mit entsprechenden tools woran es bei der jeweiligen Applikation beim jeweiligen Prozessor hakt. Macht so wie chipsncheese es tut.
Gipsel
2022-08-28, 10:24:51
Noch keiner das hier zum AVX512-Support (https://twitter.com/Mysticial/status/1562994903155494915) verlinkt? Zugegeben wenig Informationen, zeigt aber, daß offenbar ein paar mehr Qualification Samples (mit finalen Bezeichnungen) durch die Gegend fliegen (der Typ von InstLatX64 hat offenbar auch ein Sample). Daran gemessen ist die Menge an Leaks noch erstaunlich gering.
Achja, der y-Cruncher Author ist natürlich unter NDA, aber deutet ein paar Änderungen an (" I can't comment yet on how similar Zen4 is to Zen3, but there are some surprises which I'd have least predicted."). Und auf die Frage "1x512 or 2x256?" erinnert er daran, daß Zen3 insgesamt vier 256bit Pipelines hat (2x FMA + 2x ADD). Eine mögliche Variante wäre also z.B., daß AMD die Pipelines (und Registerfiles) so aufbohrt, daß es 4x 256bit FMA wird. Wäre für die Performance vermutlich bald optimal (insbesondere für Software ohne AVX512-Support). Aber im Prinzip hat er nicht viel gesagt (darf er ja auch nicht).
Piefkee
2022-08-28, 14:01:47
https://share.api.weibo.cn/share/331428616,4807511867920916.html?weibo_id=4807511867920916
5.7GHz (PBO/XFR 5.85GHz)
https://wx2.sinaimg.cn/bmiddle/641e555dgy1h5mo7zjfv1j20av0ay42q.jpg
fondness
2022-08-28, 14:03:21
5.85GHz Max Boost ist schon ganz nett. Aber defacto eh wie erwartet, AMD boostet immer höher als die offizielle Angabe und die 5.85Ghz wurde AFAIK auch schonmal genannt.
Linmoum
2022-08-28, 14:18:36
Hatte Angstronomics im Mai ja schon geschrieben, 5.7GHz und damit 5.85GHz fmax.
iamthebear
2022-08-28, 18:10:50
Anscheinend dürften sich RTL und Zen4 sehr ähnlich sein:
.) Beide 5.8GHz max ST boost
.) Beide fast gleiche IPC (RTL denke ich noch eine Spur höher)
.) Beide gleiche Threadanzahl an der Spitze
.) Beide von der Verlustleistung vergleichbar (350W Modus mal außen vor)
.) Beide neue DDR5/PCIe 5.0 Plattform mit ähnlichen Features
Den Vorteil den ich bei AMD sehe ist für Gamer das VCache Modell und den Sockel der wohl länger leben wird.
Complicated
2022-08-28, 18:15:51
Wenn Intel mehr Befehle OoO sortieren kann, ist es doch natürlich, dass dies gerade bei schlechten Kompilaten Vorteile bringt, oder ?
Dass Intels eigener Compiler für AMD nicht immer nur optimiert, ist ja keine neue Information. So läuft halt auf schlecht optimierter Software die Intel CPU etwas besser. Häufig wird da dann die Singlecore-Performance als Grund angeführt, was viel häufiger am Compiler liegt als an der Hardware.
https://www.agner.org/forum/viewtopic.php?t=6
Software programmers should be aware of these problems and avoid unfair CPU dispatching in any software product that may run on non-Intel processors. Possible remedies and workarounds include:
Avoid the Intel compiler. There are other compilers with similar or better performance. If you need an Intel compiler for a specific feature, then use the Intel compiler only for the relevant part of the program and compile the rest of the program with another compiler.
Avoid Intel function libraries with unfair CPU dispatching, if possible. The Intel MKL and VML libraries have unfair CPU dispatching in many cases. The IPP and SVML libraries have fair CPU dispatching when used with a non-Intel compiler.
Intel function libraries have two CPU dispatchers, a fair one and an unfair one. You may call the fair dispatcher explicitly. The MKL library also contains a function that detects whether it is running an Intel CPU. You may override this function with another function that always returns true. Code examples for these methods are provided in https://www.agner.org/optimize/intel_dispatch_patch.zip. Note that these methods are relying on undocumented features in Intel function libraries.
Set the environment variable MKL_DEBUG_CPU_TYPE=5 when running on an AMD computer. This will improve performance on certain MKL functions.
Use other compilers and other function libraries than Intel whenever a suitable alternative exists.
Make your own functions. For example, you may use my C++ vector class library (VCL) for making mathematical functions that use the latest instruction set extensions for parallel computation.
Exxtreme
2022-08-28, 18:24:16
Wenn Intel mehr Befehle OoO sortieren kann, ist es doch natürlich, dass dies gerade bei schlechten Kompilaten Vorteile bringt, oder ?
Theoretisch ja. Aber es ist so, die drei großen C/C++-Compiler (Micros~1, GCC, clang) optimieren jetzt schon extrem gut. Da holt man mit mehr Ooo-Sortierung womöglich nichts Nennenswertes mehr raus. Und die Compiler für andere Programmiersprachen sind eher Nische und die Software ist in aller Regel nicht so sehr performancerelevant. Und Programme, die in einer VM laufen (Java, C# etc.) sind wieder eine andere Baustelle. Wobei die Laufzeitumgebungen wiederum mit MSVC oder GCC kompiliert sind.
aufkrawall
2022-08-28, 18:29:31
Dass Intels eigener Compiler für AMD nicht immer nur optimiert, ist ja keine neue Information.
Nur werden reale Anwendungen unter Windows mit MSVC direkt von Microsoft und generischem CPU-Target kompiliert. Also mal besser die Fake News für sich behalten...
aceCrasher
2022-08-28, 19:08:59
.) Beide von der Verlustleistung vergleichbar (350W Modus mal außen vor)
Inwiefern sind 170W max eines 7950X und 251W max eines 13900K vergleichbar? Selbst der 13700K wird 100%ig >200W PL2 haben. Für mich sind das andere Welten.
BlacKi
2022-08-28, 19:14:56
Inwiefern sind 170W max eines 7950X und 251W max eines 13900K vergleichbar? Selbst der 13700K wird 100%ig >200W PL2 haben. Für mich sind das andere Welten.es sind zwar nur 170w tdp aber dennoch 230w ppt. 230w ist der verbrauch im benchmark, 170w ist kühlervorgabe.
intel 7 ist der alte 10nm prozess und amd mit tsmc hat hier den 5nm prozess am start, wundert nicht das hier amd effizienter ist, wird IMHO aber auch etwas teurer werden
Complicated
2022-08-28, 19:17:18
Nur werden reale Anwendungen unter Windows mit MSVC direkt von Microsoft und generischem CPU-Target kompiliert. Also mal besser die Fake News für sich behalten...
Wo ist das denn Fake-News? Link mit Quelle ist dabei, ich empfehle Dir das Lesen anstatt wie üblich unqualifiziert daher zu schwadronieren.
Nur werden reale Anwendungen unter Windows mit MSVC direkt von Microsoft und generischem CPU-Target kompiliert.
Mal wieder ein Argument an der Quelle und dem Thema vorbei:
I have tested how well the different compilers optimize, and published the results in my C++ optimization manual (https://www.agner.org/optimize/#manuals). The Clang and Gnu compilers are very good. Intel's LLVM-based compiler is very similar to the Clang compiler. Microsoft's compiler and the legacy Intel compiler give somewhat inferior performance.
Merkwürdig - warum haben alle immer nur von WinTel gesprochen?
Dass sich die Dinge jetzt erst ändern und schnellere Compiler breiten Einsatz erfahren, hilft nun mal nicht bei all der alten schon vorhandenen Software. Daraus aber Rückschlüsse auf die Hardware-Fähigkeiten für die schlecht optimierten Spiele zu ziehen ist eben nicht so einfach möglich - das hindert Massen von Testern natürlich nicht daran irgendwelcher Software dann als Singlecore-Indikator zu nutzen. Compiler Angaben sucht man da vergeblich.
aufkrawall
2022-08-28, 19:23:32
Merkwürdig - warum haben alle immer nur von WinTel gesprochen?
Mit dem genauen Lesen hast du es wohl selber nicht so? Da steht, dass der Microsoft-Compiler nicht optimal vs. Clang/GCC ist.
Da steht nicht, dass der Microsoft-Compiler NUR mit AMD-CPUs schlechtere Ergebnisse produziert. Und auch nicht implizit im Kontext.
Stell dir vor: Viele Programme laufen auch unter Windows mit Intel langsamer, wenn sie mit MSVC anstatt Clang kompiliert sind...
Complicated
2022-08-28, 19:28:44
Und inwiefern ist dein Einwurf in Relation zu dem was ich geschrieben habe? Bleib mal im Thema und erfinde nicht ständig Deine eigene Diskussion.
Wenn es Dir zu komplex ist zwei Sätze zu verstehen, einfach mal Deine Finger der Impulskontrolle unterwerfen - Deine direkten persönlichen Angriffe, mir Fake zu unterstellen, stehen nicht in gesundem Verhältnis zu Deinem Halbwissen und Textverständnis.
aufkrawall
2022-08-28, 19:37:58
Diese Reaktion zeigt, dass meine Annahme, dass du den Sachverhalt aus deinem Link absichtlich verdreht wiedergegeben hast, aus gutem Grund erfolgte.
Jetzt bitte nicht weiter rumheulen, weil du erwischt wurdest. Hose hoch und BTT.
Gipsel
2022-08-28, 20:23:47
Das Thema hier ist übrigens immer noch Zen4.
Also wenn man schon dazu aufruft, beim Thema zu bleiben ...
Complicated
2022-08-28, 21:20:32
Ich habe gar nichts verdreht, sondern eine Randbemerkung gemacht zu den diskutierten Schlussfolgerungen. Dein Beitrag hat keinen Bezug dazu hergestellt und verstanden hast Du es auch nicht.
@Gipsel
Ich mag nur nicht haltlos Fake unterstellt bekommen hier im Diskurs. Feindseligen Ton möchte ich mir nicht gefallen lassen.
r3ptil3
2022-08-28, 22:07:47
https://i.ibb.co/4mmNKLG/7950X.png
https://twitter.com/9550pro/status/1563846926164176901
Da wird AMD morgen dermassen gut auserwählte Best Case Szenarien vorführen und das ganze so schmackhaft präsentieren, dass selbst die verschworensten Intel-User über einen Seitenwechsel nachdenken.
Linmoum
2022-08-28, 22:20:22
Ich glaube nicht, dass sie da besonders was auswählen müssen oder werden. Haben sie in der Vergangenheit ja auch nicht gemacht, der 5800X3D zuletzt ist ja ebenfalls exakt da gelandet, wo AMD ihn in den eigenen Benchmarks verortet hatte.
Interessanter wird's bei TDP/PPT und den Preisen.
Platos
2022-08-28, 22:49:04
Ja, bin auch auf die Preise gespannt. Hochpreisig wie Zen3 oder gute Preise wie Zen2...
Mal abwarten.
Tangletingle
2022-08-28, 22:52:35
Die bisher geleakten Mainboardpreise lassen böses erahnen.
BlacKi
2022-08-28, 22:55:50
Ja, bin auch auf die Preise gespannt. Hochpreisig wie Zen3 oder gute Preise wie Zen2...
Mal abwarten.in euro wirds nochmal gut was obendrauf geben. ist halt natur der sache, auch bei der konkurenz
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.