Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)
Seiten :
1
2
3
4
5
[
6]
7
8
9
10
11
12
13
14
15
16
17
18
Ich finde das ist eine naive, engstirnige Sicht der Dinge. Es war schon immer so und wird nie anders sein. Milliarden Geräte sind ARM. Immer mehr Dynamik geht in diese Richtung, die es voher nicht gab (Windows on ARM, M1). RISC-V wächst exponentiell.
Dinge sind nicht statisch und vorhersehbar. Smartphones, Tablets sind ARM. Server und HPC sind am Wechseln. Notebooks hegen auch diese Dynamik. Der Desktop ist die letzte Bastion.
Es ist völlig unvorhersehbar was hier über die nächsten Jahrzehnte passiert.
Sry, ich kapiers einfach nicht, wie man sowas glauben kann. Klar gibts auch ARM-Notebooks, das ist aber alles Nische. Lass uns wetten, dass in 10 Jahren der PC immer noch x64 ist. Das werd ich sowas von gewinnen.
Felixxz2
2021-06-14, 23:34:42
Jede Aussage „das wird 100% so kommen, wer anders denkt ist doof“ lässt doch immer recht tief blicken. Dass x86 und vor allem Intel massivst unter Druck sind ist nun wirklich allgemeiner Konsens. Was sich daraus entwickeln wird bleibt natürlich Spekulation. Aber dieses „war schon immer so und wird auch immer al bleiben“ ist natürlich extrem kurzsichtig.
Nach der Logik wäre auch AMDs Aufstieg undenkbar gewesen. Oder der von Apple selbst.
Aha das lässt also "tief blicken" na du schießt den Vogel ab mit dem Unsinn.
Felixxz2
2021-06-15, 00:36:22
Krasses Argument :freak:
bbott
2021-06-15, 00:38:31
Was macht die Leute hier eigentlich so sicher, dass Apple nicht sehr viel größere Ambitionen hat als aktuell sichtbar? Ich meine, wenn ich schon ein sehr gutes Design habe warum nicht unabhängig von Apple Devices verkaufen? Die Margen im HW-Geschäft sind traumhaft, noch viel höher als bei Apple aktuell. Spätestens dann hat Intel ein großes Problem wenn sie nicht schleunigst mal ordentlich abliefern. Das einzige valide Ziel von Intel muss sein, dass ich in jeder noch so kleinen Marktnische das beste Produkt anbiete. Im meine die haben Ressourcen Ende nie, die haben eigenen Fabs, die haben alle Möglichkeiten und werden von allen Seiten überholt - das ist doch absurd.
Weil TSMC jetzt schon am Limit ist, weil man Marge verlieren würde, weil man exclusive bleiben will besser gesagt bleiben muss. Kurz weil es Apple ist :D
Gegenfrage: Was könnte Apple gewinnen? Kurz Wenig, außer Konkurrenten ein M1+/M2 im Samsung S22?! :freak:
Narolf
2021-06-15, 03:47:57
Ich finde die Diskussion, ob x86 weiterhin König im Desktop/Notebook-Bereich sein wird oder ob ARM ihm diese Position streitig machen kann, von der falschen Seite gedacht. Ja, ARM wird weiter an Relevanz gewinnen, aber nicht weil es x86 im Desktop verdrängt, sondern weil das Desktopsegment an Relevanz verliert.
Mehr und mehr Leute verbringen den größten Teil ihrer, ich nenne es mal "Computerzeit", am Smartphone und das wird in Zukunft nur mehr werden. Die Generation 20 und jünger ist zu einem nicht gerade kleinen Teil quasi komplett ohne Desktop-/Notebooknutzung aufgewachsen. Für die wird diese Geräteklasse die Dinger sein, die sie wenn dann für Arbeit/Studium nutzen müssen und sonst nichts, außer sie haben vielleicht persönliches Interesse an PC-Hardware/Software. x86-Desktop/Notebook wird nicht verschwinden, aber in den nächsten 10-20 Jahren mehr und mehr aus dem privaten Markt gedrängt werden, weil die Leute in ihrer Freizeit lieber Smartphones oder Tablets nutzen werden. Und zukünftige Software wird sich diesen Gegebenheiten dann anpassen. Webseitendesigns werden ja gefühlt schon heute in erster Linie mit Blick auf Smartphones entwickelt.
So sehe ich das zumindest.
CrazyIvan
2021-06-15, 07:06:12
Ich finde das ist eine naive, engstirnige Sicht der Dinge. Es war schon immer so und wird nie anders sein. Milliarden Geräte sind ARM. Immer mehr Dynamik geht in diese Richtung, die es voher nicht gab (Windows on ARM, M1). RISC-V wächst exponentiell.
Dinge sind nicht statisch und vorhersehbar. Smartphones, Tablets sind ARM. Server und HPC sind am Wechseln. Notebooks hegen auch diese Dynamik. Der Desktop ist die letzte Bastion.
Es ist völlig unvorhersehbar was hier über die nächsten Jahrzehnte passiert.
+1
@HOT
Um alle Deine steilen Thesen der letzten beiden Tage einzeln zu kommentieren fehlt mir schlicht und ergreifend die Zeit, weshalb ich es etwas genereller halte:
Ist Dir jemals die Möglichkeit in den Sinn gekommen, dass Du selbst Dich mit Deinem Standpunkt vielleicht auf dem Holzweg befinden könntest?
Dein Maß an Selbstüberzeugung lässt mich unweigerlich an das Stichwort Narzissmus (https://de.m.wikipedia.org/wiki/Narzissmus) denken. Just saying ...
robbitop
2021-06-15, 08:24:41
Sry, ich kapiers einfach nicht, wie man sowas glauben kann. Klar gibts auch ARM-Notebooks, das ist aber alles Nische. Lass uns wetten, dass in 10 Jahren der PC immer noch x64 ist. Das werd ich sowas von gewinnen.
Ich sagte ja, dass es NICHT vorhersehbar ist. Es aber eine starke Dynamik gibt, die es vorher nicht gab. Da muss man eben ein wenig vorausschauen mit Perspektive und nicht immer nur ins heute und gestern schauen. Ansonsten wird man eben überrascht. Schau dir an was MS und QC investieren, Windows auf ARM zu bringen. Das machen die nicht aus Spaß. Noch sind die Produkte eher schlecht. Aber man schaue was passiert, wenn QC Nuvia hat. Das Potenzial hat Apple mit M1 gezeigt. Und das war nur der Anfang.
Wenn ich AMD oder Intel CTO wäre, würde ich dafür sorgen, dass sowohl ARM als auch RISCV auf dem Radar ist und RnD dort investiert wird. Einfach nur, um absprungbeteit zu bleiben. Oder besser: selbst der Initiator sein, wenn der Markt reif ist. Soll QC ruhig noch ein paar Jahre Wegbereiter sein. Und wenn es kurz vorm Kippen ist, mit einem überlegenen Produkt die halboffenen Tore einrennen statt potenziel hinterher rennen zu müssen.
Wenn es nicht passiert, dann hat man halt Geld in die Versicherung seines eigenen Bestehens investiert. Aber garantiert auch interessante Erkenntnisse für eigene Designs gewonnen haben.
ChaosTM
2021-06-15, 08:54:47
Sry, ich kapiers einfach nicht, wie man sowas glauben kann. Klar gibts auch ARM-Notebooks, das ist aber alles Nische. Lass uns wetten, dass in 10 Jahren der PC immer noch x64 ist. Das werd ich sowas von gewinnen.
Da wir fertigungstechnisch mehr oder weniger vor einer unüberwindlichen Wand stehen und diese immer näher rückt, wird Effizient immer wichtiger. X86/64 konnte das früher mit den häufigen Node Sprüngen immer gut "erschlagen" bzw kompensieren. Das wird jedoch mit der Zeit immer weniger gut funktionieren.
Der Rückzugskampf wir ein harter, ist aber schon so gut wie verloren (imho).
Mein derzeitiges Zen3 PC-System ist möglicherweise mein letztes unter x64. Wenn die Leistung stimmt ist mir auch herzlich egal, welcher Prozessortyp in meinem Rechner werkelt.
Wenn das System dann noch deutlich weniger Strom verbraucht, umso besser. Das wird aber kaum passieren, da die GPUs das in Nullzeit wieder auffressen werden. ;)
amdfanuwe
2021-06-15, 09:42:38
Ich finde die Diskussion, ob x86 weiterhin König im Desktop/Notebook-Bereich sein wird oder ob ARM ihm diese Position streitig machen kann, von der falschen Seite gedacht.
++
Letztendlich ist der PC ein Arbeitsgerät. Wenn jemand zB. Videos oder Photos bearbeiten will, wird er sich die Hardware nach der Software aussuchen. Je nach Beratung wirds dann Apple oder PC.
Wenn jemand Gaming sagt, lautet die Empfehlung Win 10 X86 PC oder Konsole.
In der Industrie muß man 3 Bereiche unterscheiden:
Office -> muß Win Office drauf laufen
Anwendung wie Bildbearbeitung, CAD, Smulation -> muß entsprechende Software drauf laufen
Produkt Entwicklung -> suchen den Prozessor nach Anforderung an OS, Preis, Softwareunterstützung seitens Hersteller oder 3rd Party aus.
Stellt euch nur die Frage, warum ihr einen PC habt.
So lange es AAA Games vornehmlich für Win auf X86 gibt und man jährlich die Möglichkeit hat sein System durch neue CPUs und GPUs an seine Ansprüche anzupassen, so lange wird Win auf X86 für uns interessant bleiben.
Betrachtet man die Seite der Softwareentwickler hat man das Henne Ei Problem. Ich entwickle doch keine super CAD Software für Android! Werde ich keine Kundschaft finden, die sich das auf dem 5"-8" Geräten antut.
Für Apple, muß ich mich deren Vorgaben unterwerfen.
Für Android, muß ich mich an Google halten
Für Windows, versucht MS auch grad die Kontrolle zu bekommen.
Für Linux, welches Linux?
Win x86 ist momentan noch die verbreiteteste Platform auf der ich die meiste Kundschaft erreichen kann wenn es um komplexere Anwendungen geht und die den offensten Vertriebsweg bietet.
Aus Softwaresicht schaut man also: auf welcher Hardware kann ich mein Vorstellungen realisieren und wo erreiche ich den größten Kundenkreis.
Eine Tendenz muß man aktuell noch beachten: CLOUD
Ich entwickle meine Software für die CLOUD und der Kunde braucht nur noch ein Terminal auf dem ein Webbrowser läuft.
Ich persönlich habe eine Abneigung gegen ABO Modelle, von daher bleibt es auf absehbare Zeit bei mir ein Win X86 PC auf dem ich spielen kann und auch günstg in Sales an gute Software komme.
Da wir fertigungstechnisch mehr oder weniger vor einer unüberwindlichen Wand stehen und diese immer näher rückt, wird Effizient immer wichtiger. X86/64 konnte das früher mit den häufigen Node Sprüngen immer gut "erschlagen" bzw kompensieren. Das wird jedoch mit der Zeit immer weniger gut funktionieren.
Der Rückzugskampf wir ein harter, ist aber schon so gut wie verloren (imho).
Mein derzeitiges Zen3 PC-System ist möglicherweise mein letztes unter x64. Wenn die Leistung stimmt ist mir auch herzlich egal, welcher Prozessortyp in meinem Rechner werkelt.
Wenn das System dann noch deutlich weniger Strom verbraucht, umso besser. Das wird aber kaum passieren, da die GPUs das in Nullzeit wieder auffressen werden. ;)
Der Befehlssatz ist kein Hindernis, die ISAs habel alle ihre Vor- und Nachteile, das hatten wir schon zig mal und die Annahme, dass x86 ineffizient wäre ist schlichtweg falsch. Letztendlich hat jede ISA ihr Päckchen zu tragen und hat auch bei den derzeitgen Architekturen, die ja alle samt eigene µCodes besitzen, auch nur noch einen untergeordneten Stellenwert.
x86 hat sich eben etabliert und das muss man erst mal vom Thron stoßen. In verschiedenen Märkten klappt das sogar, im Serverbereich teilweise, bei der verschiedenen Notebookmärkten, diese Tendenz ist aber schon seit 10 Jahren zu sehen.
Letztendlich ist es die Softwarebasis, die verwendet wird, also die Kompatiblität und die Offenheit, die den Umstieg verhindert.
Tobalt
2021-06-15, 10:10:51
Dekstop/Mobile wird sicher der Markt sein, in dem x86 am tiefsten verwurzelt ist. 10 Jahre würde ich dem auch bestimmt noch geben.
Aber HPC .. -> Perf/W ist king.. wird schwer für x86 hier.
Server .. hier bröckelt der x86-Putz schon heute.
Jegliche neue Gebiete (z.b. DNN "Inference Farmen" ) würde ich mal Prinzipiell bei Servern eingliedern, aber der Bedarf an Spezialeinheiten wird auch nicht durch aktuelle x86 Angebote bedient.
Im Desktop liegt es auch *vor allem* an der Software und an Windows.
Wenn nun aber a) Apple auf ARM setzt und b) Windows ARM bietet wird künftige Software eh cross-ISA lauffähig werden. Dann erodiert auch der letzte große Vorteil von x86.
Anschließend (5-10 Jahre) könnte man fast Äpfel mit Äpfel vergleichen. Das heißt ja nicht dass x86 sofort fertig ist, aber eben, dass man einige geschenkte Vorteile nicht mehr hat und sich knallhart an Perf/W messen müssen wird.
robbitop
2021-06-15, 10:21:40
Tja nur sobald es passiert dass ARM Notebooks für Windows eine kritische Schwelle erreichen, wird Software immer öfter für beide ISAs kompiliert werden. Das dauert natürlich und hängt vom Erfolg dieser Initiative ab. Dass das so kommt ist nicht gewiss - ist aber ein mögliches Szenario. Poteziell sind ARM SoCs günstiger und brauchen weniger Energie.
Sobald ein Großteil der SW für ARM kompiliert ist kann sich auch ein Wettbewerb von der ARM Welt im PC entfachen. Die x86 Welt ist ja eine von Patenten künstlich geschützte Welt. Wettbewerb hat das Potenzial für vieles.
Am Ende kann es so kommen - muss aber nicht. Es ist aber klar sichtbar, dass MS als Besitzer des meist genutzten PC Consumer OS diesen Wandel aktiv unterstützen will. Und dazu kommt, dass ARM SoCs noch nie so wettbewerbsfähig wie heute sind. Apple hat das gezeigt. Bis vor ein paar Jahren wurde ARM von vielen belächelt in Bezug auf Performance. So viel IPC wie Skylake? Hahaha niemals. Tja und jetzt liegt M1 30-40% vorn in Bezug auf IPC. Die Konstellation ist einfach völlig verändert.
Alles kann - nichts muss.
=Floi=
2021-06-15, 14:37:27
Aber HPC .. -> Perf/W ist king.. wird schwer für x86 hier.
Server .. hier bröckelt der x86-Putz schon heute.
Hier muss man aber ganz klar intels preispolitik als motovation sehen! AMD konnte damals auch nichts passendes liefern.
Früher waren 100$ pro core normal und bei großen rechnern braucht man auch immer mehr kerne um mithalten zu können. Je mehr sockel und kerne, desto teuerer wurde der spass. Bei den servern gilt das selbe.
Google, Amazon, MS und der rest, welche eine kritische grösse haben, entwickelt hier einfach selbst chips indem man die günstige ARM architektur einkauft und das ganze skaliert. Das dürfte dann wahrscheinlich bei 5$ pro (A7X) core liegen und für vieles reichen.
Für cloud und normale webservices hat man dadurch auch noch neben dem kostenvorteil auch einen wettbewerbsvorteil.
Gipsel
2021-06-15, 14:41:28
Poteziell sind ARM SoCs günstiger und brauchen weniger Energie.Low price, high performance, low power consumption: Choose two!
Das gilt für Alle, unabhängig vom Befehlssatz ;).
Letzterem wird meiner Meinung nach zu viel Bedeutung beigemessen. Der ist am Ende tendentiell nebensächlich, wenn man gleichen Aufwand reinsteckt. Und das muß man, wenn man auf gleiche Charakteristiken kommen will.
Apple hat sich für ARM entschieden, weil man da günstig eine Lizenz bekommt (und deren Smartphones sowieso schon damit laufen). Hätten die irgendwie eine x86er Lizenz besessen und genau so viel Aufwand in ein x86er-Design gesteckt, was auf 5nm produziert werden würde, wäre das Ergebnis vermutlich vergleichbar zum M1.
BlacKi
2021-06-15, 14:43:16
wenn ihr über arm vs x86 weiterreden wollt, solltet ihr euch einen thread nehmen:)
Gipsel
2021-06-15, 14:49:33
wenn ihr über arm vs x86 weiterreden wollt, solltet ihr euch einen thread nehmen:)Guter Punkt.
Aber sag mal, wie stark ist Deine Befürchtung, daß bei Alderlake die IPC-Steigerungen der GoldenCoves in Spielen ähnlich stark verpufft, wie es das bei bei den Willow- und CypressCoves in Tiger- und Rocketlake oft zu tun scheint? Der momentane Vermutung, daß es zu einem großen Teil an den Caches liegt, scheint ja erst mit RaptorLake explizit abgeholfen zu werden.
BlacKi
2021-06-15, 15:23:11
ddr5. zumindest bei den spielen. mit ddr5 wird viel neu gemacht und nicht einfach kopiert wie ddr3 vs 4.
was viele auch weglassen: wenn man den 11900k mit dem 10900k vergleicht, der 10kerner hat einfach mehr cache, wenn man per core vergleiche anstellt, dann sieht etwas weniger schlimm aus 10700k vs 11700k. nun kommt adl mit 24mb + 6mb. ich würde mal gerne wissen ob man durch den ringbus 30mb glatt ziehen kann, oder ob das wie bei den chiplets durch straflatenzen bestraft wird. wenn man die zusammenzählen kann, verdoppelt man fast den cache. https://www.hardwaretimes.com/intel-12th-gen-alder-lake-golden-cove-gracemont-cache-configuration-detailed/
mich interessieren mal die cpu limitierten benchmarks mit einem 11900kb vs 10700k auf gleichem takt. aber das werden wir wohl nicht zu sehen bekommen.
Gipsel
2021-06-15, 20:37:36
ddr5. zumindest bei den spielen. mit ddr5 wird viel neu gemacht und nicht einfach kopiert wie ddr3 vs 4.Erstmal abwarten, wie das mit den Latenzen aussieht (daran hängt Spieleperformance ja oft). Bisher bin ich noch nicht überzeugt, daß uns da ein relevanter Fortschritt begrüßt.
nun kommt adl mit 24mb + 6mb. ich würde mal gerne wissen ob man durch den ringbus 30mb glatt ziehen kann, oder ob das wie bei den chiplets durch straflatenzen bestraft wird. wenn man die zusammenzählen kann, verdoppelt man fast den cache. https://www.hardwaretimes.com/intel-12th-gen-alder-lake-golden-cove-gracemont-cache-configuration-detailed/Du nimmst also an, daß es für jeden großen Kern und jedes Gracemont-Modul jeweils 3MB L3 gibt und das eventuell anders läuft als bisher?
Wenn man der Quelle des Artikels folgt, hat dort hat eine 2+8 Konfiguration (AlderLake-M) 2x 2MB L2 pro Vierergruppe-Gracemonts (also 4MB L2 insgesamt für die 8 Gracemonts), die beiden GoldenCoves haben je 1,25MB L2 (also 2,5MB insgesamt) und es gibt genau einen einzigen L3-Cache von 12MB. Wie der in Slices unterteilt ist und wie die einzelnen Kernsorten da dranhängen, ergibt sich daraus zwar noch nicht sicher. Aber intel hat ja in der Vergangenheit die Cache-Slices auch unabhängig von den angeschlossenen Kernen deaktivieren können. Wenn da also 10x 3MB L3 Slices verbaut sind, sind das aller Wahrscheinlichkeit nach schlicht 30MB L3. Oder gibt es irgendwo schon was Anderslautendes zu Alderlake-S, also der 8+8 Desktop-Variante?
Achja, nur größerer Cache hilft oft nicht so wirklich, wenn er dabei langsamer wird ;). Aber dann hoffen wir mal auf intels 10nm und einen kompakten Cache (hilft bei den Latenzen, wenn der physisch klein ist).
robbitop
2021-06-15, 21:51:04
Low price, high performance, low power consumption: Choose two!
Das gilt für Alle, unabhängig vom Befehlssatz ;).
Letzterem wird meiner Meinung nach zu viel Bedeutung beigemessen. Der ist am Ende tendentiell nebensächlich, wenn man gleichen Aufwand reinsteckt. Und das muß man, wenn man auf gleiche Charakteristiken kommen will.
Apple hat sich für ARM entschieden, weil man da günstig eine Lizenz bekommt (und deren Smartphones sowieso schon damit laufen). Hätten die irgendwie eine x86er Lizenz besessen und genau so viel Aufwand in ein x86er-Design gesteckt, was auf 5nm produziert werden würde, wäre das Ergebnis vermutlich vergleichbar zum M1.
Der niedrigere Preis kommt einfach vom größeren Wettbewerb. x86 ist ja praktisch abgeschlossen für zusätzliche Wettbewerber. Nur zwei Marktteilnehmer. Hingegen kann jeder Lizenznehmer von ARM werden und mitmischen. Bei RISC V sogar noch freier.
Der Befehlssatz ist letztendlich egal für die Qualität des Prozessors. Man wird aber den Befehlssatz nehmen, der die wenigsten Probleme macht.
Es wäre sicherlich hilfreich für x86, wenn Intel und AMD (x64 ist ja größtenteils AMD) den Markt für mehr Wettbewerber öffnen würde.
robbitop
2021-06-16, 08:50:51
Genau das. +1
Mal wieder zum DDR5...
Ist eigentlich gesichert, dass die neuen Kisten ein Quad-Channel Interface bekommen? Also 2x2x32 Bit? Ansonsten würde sich die Bandbreite ja nicht mal erhöhen.
Ich sehe so oder so keinen wirklichen Performanceboost. DDR5 6400 mit CL32 oder so bräuchte man um per Channel überhaupt mit performance DDR4 3200 XMP gleich zu ziehen. Ein Vorteil käme dann erst über mehr Channels. Aber das Quad-Channel jetzt nicht gerade einschlägt wie eine Bombe ist ja auch klar. Wenn ich hier beim Broadwell-e zwei DIMMs abschalte kann ich das in real life Anwendungen mit Ach und Krach messen.
TheAntitheist
2021-06-16, 10:58:30
Die Bandbreite steigt doch schon bei gleichem Takt um 30%...
Gipsel
2021-06-16, 11:07:07
Die Bandbreite steigt doch schon bei gleichem Takt um 30%...Unter bestimmten Bedingungen (Extremfall wäre gar +100% nutzbare Bandbreite wegen der halbierten Kanalbreite), nicht im Allgemeinen. Und Bandbreite ist für Spieleperformance oft nicht wirklich entscheidend.
memory_stick
2021-06-16, 12:14:06
@Wuge
Ist immer noch ein Dual Channel Interface 2x64Bit, aber ein Channel kann bei Bedarf pro transaction entweder als 1x64Bit only read/only write verwendet werden, oder geteilt als 2x32Bit simmultanious read/write.
Das kann im Extremfall (Nur 32Bit werte gleichzeitig schreiben und lesen) einen 100% Performancevorteil ggü früheren DDR Standards bieten, im Schnitt rechnet man aber von 30% realer Bandbreitenerhöhung durch das eben flexibler ausnutzbare Interface.
Was es definitv nicht bedeutet ist dass es Quad Channel, also 4x64Bit sind wie bei den HEDT System von Intel. Es sind weiterhin total nur 2x64Bit, können bei Bedarf aber eben auf 2x2x32Bit aufgeteilt werden
Deshlb geht man auch davon aus, dass bereits DDR5 4800 gewisse Parität in der Performance(effektive Bandbreite, nicht zwingend Latenz) erreichen könnte ggü DDR4 3200.
robbitop
2021-06-16, 12:17:23
Das verstehe ich nicht. Wenn es weiterhin 2x64bit ist und die Granurität eher besser wird, muss die effektive Bandbreite bereits mit 3200 oder darunter hergestellt sein. Nicht erst darüber.
Der_Korken
2021-06-16, 12:27:21
Das Problem ist, dass immer 16 Takte auf einmal gelesen werden müssen, was bei 64bit Channelbreite 128Byte ergeben. Bei random access wird aber immer nur eine Cache-Zeile (64Byte) benötigt, d.h. die 2x32bit-Aufteilung ist notwendig, um die Granularität von DDR4 beizubehalten. Allerdings ist die Übertragungsverzögerung bei gleichem Takt doppelt so hoch bei DDR5, weil die Cache-Zeile 16 Takte lang übertragen wird statt nur 8 Takte. Dafür können entsprechend 4 Cache-Zeilen parallel übertragen werden statt 2. Ob das an der Gesamtlatenz viel ausmacht, weiß ich nicht, aber das wäre ein Aspekt, wo DDR4 bei gleichen Takt Vorteile gegenüber DDR5 hat. Der rechnerische Durchsatz bleibt natürlich gleich bei gleichem Takt.
Die Bandbreite steigt doch schon bei gleichem Takt um 30%...
Das ist bullshit bzw. geht vom maximal schlechtem DDR4 aus. Für "unsere" Systeme, wo man weiß wie eine tRFC eingestellt wird, wo man nicht nur 1 Rank pro Kanal und idealerweise etwas optimierte tREFI hat, holt DDR4 schon 25 von den theoretischen 30% ;)
Die Folie von Micron mit den 30% referenziert auf die Verlust durch refresh wenn ich mich recht entsinne. Und das sind eben keine 30% bei DDR4 bzw. nur im absoluten Worst case (single rank, scheiß tRFC, 7.8us refresh), den man mit etwas Sachverstand easy vermeiden kann.
Das Problem ist, dass immer 16 Takte auf einmal gelesen werden müssen, was bei 64bit Channelbreite 128Byte ergeben. Bei random access wird aber immer nur eine Cache-Zeile (64Byte) benötigt, d.h. die 2x32bit-Aufteilung ist notwendig, um die Granularität von DDR4 beizubehalten. Allerdings ist die Übertragungsverzögerung bei gleichem Takt doppelt so hoch bei DDR5, weil die Cache-Zeile 16 Takte lang übertragen wird statt nur 8 Takte. Dafür können entsprechend 4 Cache-Zeilen parallel übertragen werden statt 2. Ob das an der Gesamtlatenz viel ausmacht, weiß ich nicht, aber das wäre ein Aspekt, wo DDR4 bei gleichen Takt Vorteile gegenüber DDR5 hat. Der rechnerische Durchsatz bleibt natürlich gleich bei gleichem Takt.
Genau das ist der Punkt. Das lesen einer einzelnen Cacheline braucht bei DDR5 doppelt so viele Takte. D.h. DDR4 3200 = DDR5 6400 bei einem 64 Byte Zugriff. Mehr Bandbreite geht nur über parallele Transaktionen. Ich sehe da keinen Unterschied zu einem Quad-Channel DDR4 Interface.
robbitop
2021-06-16, 14:45:04
Das Problem ist, dass immer 16 Takte auf einmal gelesen werden müssen, was bei 64bit Channelbreite 128Byte ergeben. Bei random access wird aber immer nur eine Cache-Zeile (64Byte) benötigt, d.h. die 2x32bit-Aufteilung ist notwendig, um die Granularität von DDR4 beizubehalten. Allerdings ist die Übertragungsverzögerung bei gleichem Takt doppelt so hoch bei DDR5, weil die Cache-Zeile 16 Takte lang übertragen wird statt nur 8 Takte. Dafür können entsprechend 4 Cache-Zeilen parallel übertragen werden statt 2. Ob das an der Gesamtlatenz viel ausmacht, weiß ich nicht, aber das wäre ein Aspekt, wo DDR4 bei gleichen Takt Vorteile gegenüber DDR5 hat. Der rechnerische Durchsatz bleibt natürlich gleich bei gleichem Takt.
Die Cache Zeilen bekommt man sicherlich gefüllt. Prefetching und Sprungvorhersage sind ja ausgereift und dazu 3x Cache Hirarchien.
Wenn das alles so gut funktionieren würde (in Spielen), würde die Speicherlatenz nicht so eine Rolle spielen.
Jedenfalls wird die erste Cacheline im Burst bei DDR5 4800 später zur Verfügung stehen als bei DDR4 3200.
robbitop
2021-06-16, 15:16:12
Naja ich bezweifle dass das Problem da innerhalb einer Cacheline selbst liegt.
Das was gesucht wird ist nicht lokal und muss aus dem Speicher geholt werden. Da geht es sicherlich eher um die Gesamtlatenz. Aber die Cacheline selbst wird man sicherlich locker voll kriegen, weil sicherlich genug Daten auf einmal geholt werden. Aus og Gründen. Dazu kommt, dass ja wuch mehrere Kerne am SI angekoppelt sind und dadurch ja noch mehr Bedarf da ist. Da wird sicher ordentlich gebündelt. Da sind 16 Takte nichts.
Gipsel
2021-06-16, 15:32:23
Naja ich bezweifle dass das Problem da innerhalb einer Cacheline selbst liegt. Das was gesucht wird ist nicht lokal und muss aus dem Speicher geholt werden. Da geht es sicherlich eher um die Gesamtlatenz. Aber die Cacheline selbst wird man sicherlich locker voll kriegen, weil sicherlich genug Daten auf einmal geholt werden.
Die Speicherrequests passieren mit der Granularität einer Cacheline. Selbst wenn die CPU nur 4 Byte irgendwo benötigt, werden immer die 64 Byte (die Größe einer Cacheline), in der die benötigte Speicherstelle liegt, geladen (in den Cache natürlich). Und die CPU kann sich da auch nicht aussuchen, was es in eine Cacheline packt. In einer Cacheline stehen immer 64 zusammenhängende Bytes des Adressraumes (auch wenn die CPU nur 1 Byte davon benötigen sollte und der Rest nie benutzt wird). Das ist schlicht die Granularität des kompletten Cache- und Speichersystems heutiger CPUs. Und das kostet wegen den Prefetch-/Burstlängen bei Zugriffen auf den Speicher auch nicht wirklich Speicherperformance, es mindert nur gewissermaßen die Caching-Effizienz. Es bedingt sich so ein wenig gegenseitig.
Die Dauer der Übertragung einer Cacheline ist aber tatsächlich ein relativer kleiner Teil der Gesamtlatenz (ein paar Nanosekunden).
robbitop
2021-06-16, 15:38:01
In der Praxis werden sicherlich aber die Cachelines doch in der Mehrzahl der Fälle voll / gut genutzt sein.
Gipsel
2021-06-16, 15:39:25
In der Praxis werden sicherlich aber die Cachelines doch in der Mehrzahl der Fälle voll / gut genutzt sein.Das hängt stark vom Einzelfall ab und ist längst nicht garantiert.
amdfanuwe
2021-06-16, 15:42:21
Jedenfalls wird die erste Cacheline im Burst bei DDR5 4800 später zur Verfügung stehen als bei DDR4 3200.
Und der 2te Thread oder Prefetch bekommt seine Cacheline gleichzeitig und muß nicht auf den ersten warten wie bei DDR4.
Also mal abwarten, was es real bringt.
Ja schon richtig... nur von der Theoretischen Betrachtung her ergibt sich für mich der Schluss, dass DDR5 bei gleichem Takt langsamer als DDR4 sein muss bzw. bei maximaler Parallelität maximal genauso gut performt. Wenn wir über DDR4 2666 vs. DDR5 4800+ reden wird letzters schon besser performen. Aber es würde mich wundern, wenn DDR5 4800 an DDR4 3733 heran kommt.
Ich sehe den Unterschied zwischen einem Quadchannel DDR4 (4x64 Bit) und Quadchannel (4x 32 Bit) DDR5 nicht. Sofern die Parallelität bzw. das Interleaving perfekt funktionieren, performt 4x64 Bit x 3200 Mhz DDR4 genauso wie 4x32 Bit x 6400 Mhz DDR5. Eine Cacheline kommt im gleichen Zeitintervall, die Latenz ist gleich, die Bandbreite ist gleich. Was DDR5 bleibt ist per Bank refresh, was bei gut eingestelltem DDR4 auch kein riesen Thema ist.
Wenn das Prefetchen / interleaven so gut funktionieren würde, dann hätte meine Broadwell-e Kiste doch nicht nur 1-2% Performancevorteil aus dem 4x64 Bit Controller.
BlacKi
2021-06-16, 15:56:54
Wenn das alles so gut funktionieren würde (in Spielen), würde die Speicherlatenz nicht so eine Rolle spielen.
Jedenfalls wird die erste Cacheline im Burst bei DDR5 4800 später zur Verfügung stehen als bei DDR4 3200.
aber speichertakt skaliert bei intel sehr gut mit der bandbreite. ddr5 4800 wird schon ein gutes plus bringen im vergleich zu 3200.
https://youtu.be/JdaAVxAvJ9o?t=1310
die leute die sagen latenzen sind wichtiger, haben vermutlich ihre erfahrungen auf einem ryzen system gesammelt. ableitungen von dort zu intel halte ich für schwer übertragbar.
Lehdro
2021-06-16, 16:07:53
aber speichertakt skaliert bei intel sehr gut mit der bandbreite. ddr5 4800 wird schon ein gutes plus bringen im vergleich zu 3200.
https://youtu.be/JdaAVxAvJ9o?t=1310
die leute die sagen latenzen sind wichtiger, haben vermutlich ihre erfahrungen auf einem ryzen system gesammelt. ableitungen von dort zu intel halte ich für schwer übertragbar.
Es gibt Spiele die reagieren krass auf Latenz, andere auf Bandbreite und wiederum andere auf gar nichts. Das so einfach auf AMD/Intel runterzubrechen bringt gar nichts. Ich empfehle da einfach mal dieses Video (https://www.youtube.com/watch?v=dhXxCoX0bso), da sind verschiedene, recht extreme Kombinationen, gegeneinander aufgestellt. "simples" Timing Tuning bringt da prozentual teilweise mehr als DDR4 4000 - auf einem Intel.
BlacKi
2021-06-16, 16:37:02
Es gibt Spiele die reagieren krass auf Latenz, andere auf Bandbreite und wiederum andere auf gar nichts. Das so einfach auf AMD/Intel runterzubrechen bringt gar nichts. Ich empfehle da einfach mal dieses Video (https://www.youtube.com/watch?v=dhXxCoX0bso), da sind verschiedene, recht extreme Kombinationen, gegeneinander aufgestellt. "simples" Timing Tuning bringt da prozentual teilweise mehr als DDR4 4000 - auf einem Intel.
hast du die zahlen falsch abgelesen oder ich? in keinem test konnte sich 2666cl10 vor 4000cl15 setzen, teilweiße lag 4000 erheblich vor 2666. beide haben laut ram calc 7,5ns. trotzdem zieht bandbreite davon.
Lehdro
2021-06-16, 16:44:49
hast du die zahlen falsch abgelesen oder ich? in keinem test konnte sich 2666cl10 vor 4000cl15 setzen, teilweiße lag 4000 erheblich vor 2666. beide haben laut ram calc 7,5ns. trotzdem zieht bandbreite davon.
Ja, absolut gesehen.
Ich meine aber die Steigerung aufeinander prozentual gesehen. Nur Timing + selber Takt bringt teilweise mehr als davon ausgehend nochmals deutlich höher mit dem Takt zu gehen.
Beispiel Hitman 2:
Base: 102 fps
Stock + Timings: 117 fps
Macht + 14,7%
Von diesen 117 fps auf das DDR 4000 Setting kommst du auf 129 fps. Das sind gerade einmal 10% nochmals oben drauf. Das lässt darauf schließen das die Timings definitiv wichtiger als die Bandbreite sind, da der Großteil der Steigerung schon OHNE Bandbreitenerhöhung erreicht wird.
robbitop
2021-06-16, 16:46:56
hast du die zahlen falsch abgelesen oder ich? in keinem test konnte sich 2666cl10 vor 4000cl15 setzen, teilweiße lag 4000 erheblich vor 2666. beide haben laut ram calc 7,5ns. trotzdem zieht bandbreite davon.
RAM Latenz ist nur ein Bruchteil der Gesamtlatenz. Bei 4000 vs 2666 MHz taktet der IMC wesentlich höher was seinen Anteil ander Gesamtlatenz drastisch reduziert. Entsprechend geringer ist die Gesamtlatenz.
Lehdro
2021-06-16, 16:53:12
RAM Latenz ist nur ein Bruchteil der Gesamtlatenz. Bei 4000 vs 2666 MHz taktet der IMC wesentlich höher was seinen Anteil ander Gesamtlatenz drastisch reduziert. Entsprechend geringer ist die Gesamtlatenz.
Perfekt, dann testen wir mit RKL und Gear Mode die selben internen Takte (1:2) und schließen das somit aus. Dann gleichen wir die RAM Latenzen ab, so dass trotz unterschiedlicher Taktraten (1:2) dort dieselbe Latenz rauskommt. Nur die Bandbreite würde dann erhöht sein. Ich vermute mal das wird noch stärker auf eine Latenzlimitierung hinweisen, weniger eine Bandbreitenlimitierung (Spezialfälle wie Packprogramme ausgenommen), gerade in Games.
robbitop
2021-06-16, 16:56:20
Ich wünschte mir, dass das Tool von Ian zum Detaillierten Messen der Latency Ladder frei verfügbar ist. Dieses kann verschiedenste Zugriffspattern messen. Die von AIDA gemessene Gesamtlatenz ist mE sehr ungenau / irreführend wenn man sich anschaut wie unterschiedlich die Ergebnisse über mehrere uArchs hinweg bei unterschiedlichen Accesspatterns sind.
Dann könnte man versuchen halbwegs akurat latenznormiert über mehrere uArchs hinweg zu testen.
BlacKi
2021-06-16, 17:25:01
Ja, absolut gesehen.
Ich meine aber die Steigerung aufeinander prozentual gesehen. Nur Timing + selber Takt bringt teilweise mehr als davon ausgehend nochmals deutlich höher mit dem Takt zu gehen.
Beispiel Hitman 2:
Base: 102 fps
Stock + Timings: 117 fps
Macht + 14,7%
Von diesen 117 fps auf das DDR 4000 Setting kommst du auf 129 fps. Das sind gerade einmal 10% nochmals oben drauf. Das lässt darauf schließen das die Timings definitiv wichtiger als die Bandbreite sind, da der Großteil der Steigerung schon OHNE Bandbreitenerhöhung erreicht wird.
lol
base ist 2666cl15 102fps
timing ist 2666cl10 117fps
MT/s ist 4000cl15 129fps
MT/s wins.
robbis einwand lasse ich gelten. der höhere imc takt fließt sicher mit rein. aber wenn man sich die benches zu den gearmodes gibt, welche ja prozentual stärker abweichen als zwischen 2666 und 4000, dann bleibt immernoch ein bandbreitenvorteil vorhanden.
Gipsel
2021-06-16, 17:49:40
lol
base ist 2666cl15 102fps
timing ist 2666cl10 117fps
MT/s ist 4000cl15 129fps
MT/s wins.Versuch's mal mit 4000 CL23 (Latenz nur geringer verbessert [IMC-Takt] und 50% höhere Bandbreite). ;)
Ich wünschte mir, dass das Tool von Ian zum Detaillierten Messen der Latency Ladder frei verfügbar ist. Dieses kann verschiedenste Zugriffspattern messen. Die von AIDA gemessene Gesamtlatenz ist mE sehr ungenau / irreführend wenn man sich anschaut wie unterschiedlich die Ergebnisse über mehrere uArchs hinweg bei unterschiedlichen Accesspatterns sind.
Dann könnte man versuchen halbwegs akurat latenznormiert über mehrere uArchs hinweg zu testen.
Dito. Die Effektiven Latenzen über verschiedene, möglichst realitätsnahe Zugriffsmuster wären interessant. Bzw. die effektive Bandbreite in solchen Mustern.
BlacKi
2021-06-16, 18:59:59
Versuch's mal mit 4000 CL23 (Latenz nur geringer verbessert [IMC-Takt] und 50% höhere Bandbreite). ;)
warum? 2666 ist auch mehr takt pro latenz. 2666cl10 ist die equivalenz zu 4000cl15. beides hat ausgerechnet 7,5ns absolute latency. mit cl23 wäre die absolute latenz nichtmehr vergleichbar. es hat schon seinen grund warum steve hier die beiden mhz vs timings so gewählt hat.
Der_Korken
2021-06-16, 19:03:51
warum? 2666 ist auch mehr takt pro latenz. 2666cl10 ist die equivalenz zu 4000cl15. beides hat ausgerechnet 7,5ns absolute latency. mit cl23 wäre die absolute latenz nichtmehr vergleichbar. es hat schon seinen grund warum steve hier die beiden mhz vs timings so gewählt hat.
Es ist doch vollkommen logisch, dass 4000CL15 mindestens so schnell wie 2666CL10 sein muss, weil die absolute Latenz beim Speicher gleich ist, dafür aber der IMC 50% höher taktet. Damit hast du aber nicht gezeigt, dass Takt mehr bringt als Latenz, sondern du hast gezeigt, dass Takt+Latenz mehr bringt als nur Latenz. Der von Gipsel vorgeschlagene Vergleich wäre daher der interessante.
BlacKi
2021-06-16, 19:11:28
du willst also den vorteil von dem höheren taktenden imc mit schlechteren timings ausgleichen? keine ahnung ob das wirklich equivalent wäre.
deshalb warte ich lieber auf die ddr4 vs 5 vergleiche, auch wenn ich erwarte, das komische vergleiche angestellt werden.
Gipsel
2021-06-16, 19:37:28
warum? 2666 ist auch mehr takt pro latenz. 2666cl10 ist die equivalenz zu 4000cl15. beides hat ausgerechnet 7,5ns absolute latency. mit cl23 wäre die absolute latenz nichtmehr vergleichbar.Doch! Da 4000 CL23 dann die etwa gleiche absolute Speicherlatenz hat (nur noch den Vorteil des höheren IMC-Taktes) wie 2666CL15, was die Basis darstellt, wäre das das Setting der Wahl um zu sehen, ob +50% Bandbreite bei annähernd gleicher Latenz mehr bringt als reduzierte Latenz bei gleicher Bandbreite.
es hat schon seinen grund warum steve hier die beiden mhz vs timings so gewählt hat.Es hat schon einen Grund, daß ich das genau so vorgeschlagen habe. ;)
=======================
du willst also den vorteil von dem höheren taktenden imc mit schlechteren timings ausgleichen? keine ahnung ob das wirklich equivalent wäre.Nein. Es ging darum, was relativ gesehen mehr bringt, Latenz oder Bandbreite. Dann muß man beides aber auch möglichst unabhängig variieren. Daß niedrigste Latenz in Kombination mit höchster Bandbreite am schnellsten sein dürfte, muß niemand in diesem Zusammenhang wirklich testen, das weiß man auch vorher. ;)
robbitop
2021-06-16, 19:38:52
Ja der Vergleich zeigt, dass Steve sich offenbar nicht so intensiv mit dem Thema Latenz befasst hat.
BlacKi
2021-06-16, 19:54:36
Doch! Da 4000 CL23 dann die etwa gleiche absolute Speicherlatenz hat ;)
mein genutzter calc sagt was anderes. https://notkyon.moe/ram-latency.htm
und derhier auch.
https://www.xbitlabs.com/ram-speed-calculator/
mal davon abgesehen wäre auch ein vergleich zwischen kaufbaren produkten angebracht, denn weder 4000cl15 noch 2666cl10 gibts zu kaufen. zb. während 3200cl14 als latenz optimierter speicher gilt, wird 4000cl19 als hochtaktmodell angesehen, welcher angeblich scheiß timings hat und langsamer sein soll als 3200cl14. auch wenn 4000cl19 auf intel schneller ist und laut calc langsamer. unter anderem wegen dem imctakt. ich mein selbst 3200cl12 ist langsamer als 4000cl20. und nicht nur wegen des imc.
Gipsel
2021-06-16, 20:35:52
mein genutzter calc sagt was anderes. https://notkyon.moe/ram-latency.htm
und derhier auch.
https://www.xbitlabs.com/ram-speed-calculator/Was sagen die denn? Das ist beste Match, den Du bei 4000GT/s mit 2666 CL15 hinbekommen kannst.
mal davon abgesehen wäre auch ein vergleich zwischen kaufbaren produkten angebracht,Angebracht wäre, die These, daß Latenz eventuell relativ gesehen wichtiger ist als Bandbreite, objektiv zu prüfen. Mein Vorschlag täte das. ;)
BlacKi
2021-06-16, 20:48:01
zuerst musst du mir aufzeigen das 4000cl23 equivalent wäre, was ich bezweifle
Um mal wieder näher an das Ursprungsthema zu kommen: den Latenzvorteil, den man mit hart übertaktetem IMC holt wird es bei DDR5 nicht geben. Dann ist Gear 2 Standard bzw. die Pfade und Latenzen um IMC sind auf den höheren Takt ausgelegt und nicht auf Kante ausgetakte wie bei nem Coffee Lake mit DDR4 >4200 MHz ;)
PS: zur latenz gehört auch immer die Bandbreite. Entscheidend ist, wann die Cacheline an der CPU ist. Da gehören die 8 (DDR4) Takte der Übertragung natürlich mit dazu. Heißt, höherer Takt beschleunigt, auch wenn CL+RCD zusammen jeweils 15ns betragen.
Gipsel
2021-06-16, 21:08:48
zuerst musst du mir aufzeigen das 4000cl23 equivalent wäre, was ich bezweifleBenutze doch Deine verlinkten Rechner (oder tippe das selber in einen Taschenrechner)! Deine Zweifel am Ergebnis ist dann Dein Problem. :freak:
BlacKi
2021-06-16, 21:40:13
Benutze doch Deine verlinkten Rechner (oder tippe das selber in einen Taschenrechner)! Deine Zweifel am Ergebnis ist dann Dein Problem. :freak:na hab ich doch. 2666cl10 vs 4000cl15 =7,5ns.
Gipsel
2021-06-16, 22:09:22
na hab ich doch. 2666cl10 vs 4000cl15 =7,5ns.Lies die letzten paar Posts nochmal! Da steht schon Alles dazu.
Aber ich bin nett und versuche es nochmal. Du vergleichst schlicht die falschen Dinge.
Baseline 2666 CL15
Fall 1: gleiche Latenz, 50% höhere Bandbreite
Fall 2: gleiche Bandbreite -33% Latenz
Frage: Was bringt mehr, Fall1 oder Fall2?
Du vergleichst Fall 2 mit einem Fall 3: +50% höhere Bandbreite und -33% Latenz. Daß Fall3 am schnellsten sein wird, versteht sich ja von selbst, beantwortet aber obige Frage nicht.
Edit zu unten:
bandbreiteKannst Du mit den hier im Thread angegebenen Daten nicht beantworten.
Zur Erinnerung, das waren:
base ist 2666cl15 102fps
Fall 1 (wäre so 4000CL23) fehlt
Fall 2 (2666cl10) 117fps
Fall 3 (4000cl15) 129fps
BlacKi
2021-06-16, 22:12:11
bandbreite
BlacKi
2021-06-16, 22:23:36
ich weiß das alleine der takt die absolute latenz senkt, aber die latenzen wurden nicht abgesenkt. thats the point. hier geht es timings senken vs takt erhöhen. war es schon immer und wird es immer gehen. du versuchst eine antword auf eine nicht gestellt frage zu geben. ein hoffnungsloser versuch davon abzulenken, das takt mehr bringt als latenzen zu senken. noch dazu billiger. bei intel. besonders wenn der imc mitskaliert.
Gipsel
2021-06-16, 22:31:29
ich weiß das alleine der takt die absolute latenz senkt, aber die latenzen wurden nicht abgesenkt. thats the point.Absolute Latenzen sind am Ende der Punkt.
Denn worum ging es letztendlich in Lehdros These?
Beides zu verbessern, Latenzen und Bandbreite ist ja trivialerweise am schnellsten. Es ging ihm aber schon darum, was mehr bringt: Eben entweder oder und gerade nicht nur eines und als Alternative beides simultan zu verbessern. Anders ergibt die Frage ja auch gar keinen Sinn (weil die Antwort sonst trivial wäre). Und das haben Andere ja auch sofort erkannt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12709022#post12709022).
Wenn Du das fortsetzen willst, gerne per PN. Aber eigentlich ist Alles dazu gesagt, oder?
Es geht um Grundsatz um Alder lake ;) Und vielleicht noch um DDR5.
Jedenfalls wird die IMC saklierung da sein aber auf Gear 2 Niveau starten.
Andernfalls würde mich mal interessieren, ob die Fertigungstechnik nicht schon soweit ist, dass man so 32 GB SRAM statt unsinnig viel DRAM verbauen könnte ;)
robbitop
2021-06-16, 22:46:15
Richtig. Gesamtlatenz ist relevant. Denn das ist es, was am Ende ankommt.
TheAntitheist
2021-06-17, 02:07:27
Unter bestimmten Bedingungen (Extremfall wäre gar +100% nutzbare Bandbreite wegen der halbierten Kanalbreite), nicht im Allgemeinen. Und Bandbreite ist für Spieleperformance oft nicht wirklich entscheidend.
Ist mir doch egal obs in Spielen was bringt ich sagte nur, das es mehr Bandbreite gibt bei gleichem Takt und nix anderes.
https://www.datanet.co.kr/news/photo/201911/139767_65106_3456.png
und das ist im Allgemeinen. Hier gehts um die CPU und nicht um Spiele. Da könnt ihr über die Latenz meckern wie ihr wollt, meine Aussage war "30% Mehr Bandbreite bei gleichem Takt"
was gibts da zu diskutieren? Ist das hier ein Spieleforum? Nein also ist deine Argumentation am Thema vorbei oder einfach nur ein Sinnloser Angriff/Provokation.
robbitop
2021-06-17, 08:36:57
Wer bestimmt, um was es hier geht? Offenbar ist es doch für viele relevant. Wenn man dieses Forum gut kennt, weiß man, dass ein Großteil der User hier CPUs für Spiele kaufen. Ergo kann man auch darüber diskutieren. Dazu kommt, dass Spiele nicht die einzigen Anwendungen sind, die von Latenzen profitieren.
BlacKi
2021-06-17, 17:24:32
Absolute Latenzen sind am Ende der Punkt.
Denn worum ging es letztendlich in Lehdros These?
Beides zu verbessern, Latenzen und Bandbreite ist ja trivialerweise am schnellsten. Es ging ihm aber schon darum, was mehr bringt: Eben entweder oder und gerade nicht nur eines und als Alternative beides simultan zu verbessern. Anders ergibt die Frage ja auch gar keinen Sinn (weil die Antwort sonst trivial wäre). Und das haben Andere ja auch sofort erkannt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12709022#post12709022).
Wenn Du das fortsetzen willst, gerne per PN. Aber eigentlich ist Alles dazu gesagt, oder?
das hat er nicht.
Ja, absolut gesehen.
Ich meine aber die Steigerung aufeinander prozentual gesehen. Nur Timing + selber Takt bringt teilweise mehr als davon ausgehend nochmals deutlich höher mit dem Takt zu gehen.
Beispiel Hitman 2:
Base: 102 fps
Stock + Timings: 117 fps
Macht + 14,7%
Von diesen 117 fps auf das DDR 4000 Setting kommst du auf 129 fps. Das sind gerade einmal 10% nochmals oben drauf. Das lässt darauf schließen das die Timings definitiv wichtiger als die Bandbreite sind, da der Großteil der Steigerung schon OHNE Bandbreitenerhöhung erreicht wird.
der imc vorteil beträgt 1-4% und nicht 10% die durch die taktrate.
die leute überschätzen den anteil durch den höheren imc takt. zumal er hier noch von timings also ram timings redet und nicht von gesammtlatenzen.
es war eigentlich unmissverständlich das er von ram timings redet und nicht von den gesammt latenzen die durch die taktrate steigen.
ich rede eigentlich immer von taktrate, auch wenn ihr immer von bandbreite redet, die meine ich eigentlich nicht. falls das irgendwo passiert ist, tut es mir leid, das ist ein fehler meinerseits.
robbitop
2021-06-17, 17:30:20
Wie kommst du auf 1-4%? Hast du dazu konkrete Daten?
BlacKi
2021-06-17, 18:34:42
Wie kommst du auf 1-4%? Hast du dazu konkrete Daten?
naja, gearmode 2 ist hier im video 2-6% langsamer. hier halbiert sich die taktrate des imc. im video wo es um 2666cl10 vs 4000cl15 geht, hat der imc aber nur 50% mehr takt. nicht 100%. der performance vorteil dürfte also bei 1-3% liegen. https://www.youtube.com/watch?v=AgFlB0HG_84
Lehdro
2021-06-18, 16:18:24
es war eigentlich unmissverständlich das er von ram timings redet und nicht von den gesammt latenzen die durch die taktrate steigen.
Wenn ich die Taktfrequenz gleich lasse, aber an den Timings drehe, was mache ich dann? ;)
In dem Zusammenhang muss ich von Timings reden, da nur das akkurat ist. Du hast ja selber festgestellt das man die Gesamtlatenz mit Takt und/oder Timings beeinflussen kann. Will ich aber die Bandbreite aus der Rechnung ausschließen, so kann ich nur die Timings anfassen. Denn erst diese beeinflussen die Latenz - es ist eben ein Produkt aus mehreren Faktoren. Deswegen der Fokus auf Timings, da das Beispiel dieselbe Taktrate beinhaltete. Nur zur Klärung von meiner Seite.
BlacKi
2021-06-18, 18:42:26
wenn ich von taktvorteil rede, dann sind damit auch die latenzverbesserungen gemeint die durch mehr takt entstehen. um bandbreite ging es mir nie, siehe quadchannel. bandbreite bringt minimalst etwas. bandbreite ist nicht mein hauptargument sondern die takt vs timings bei ram. wenn du von anfang an gesagt hättest, das takt letztendlich latenzen verbessert, dann hätte ich gesagt, ja, aber es bringt mehr als nur die ram timings anzufassen. du wirst, zumindest bei intel, immer einen besseren performance vorteil mit deutlich hochtaktenderem ram haben im vergleich mit latenztuning. so schlecht kann der oc ram garnicht sein, das ein ramkit mit besonders guten latenzen schneller ist. meist ist schneller ram sogar billiger noch dazu.
dasselbe mit dem dual rank quatsch. da opfert man viel zu viel taktrate, und obendrauf schlechtere latenzen wenns ganz dumm läuft.
Distroia
2021-06-18, 19:49:22
Und es wurde schon mehrmals gesagt, dass es selbstverständlich ist, dass Takt und Latenz mehr bringt als Takt alleine. Das ist nicht die Frage, die Frage ist, was bringt nur Latenz alleine. Der Vorschlag war deswegen, die Auswirkungen der Latenz allene zu testen, indem man die Bandbreite festpinnt. Wenn Bandbreite, so wie du selbst sagst, kaum etwas bringen sollte, dann würde man das sehr deutlich daran erkennen, dass die Performance kaum steigt, wenn die absoluten Latenzen gleich bleiben und nur der Takt und somit die Bandbreite steigt.
Wenn du mehrere Dinge testen willst, dann solltest du eben dafür sorgen, dass jeweils alle anderen Werte gleich bleiben. So kannst du hier Latenz und Bandbreite alleine analysieren und dann am Ende schauen, was die beste Kombination von beiden ist.
BlacKi
2021-06-18, 19:55:05
die frage lautete was bringt mehr, takt oder latenz. 2666cl10 oder 4000cl15. mir ging es nie um die gesammtlatenz incl. imc.
Lehdro
2021-06-18, 19:59:27
die frage lautete was bringt mehr, takt oder latenz. 2666cl10 oder 4000cl15. mir ging es nie um die gesammtlatenz incl. imc.
Nochmal: 4000cl15 ist Takt UND Timings und somit quasi 2x latenzvermindernd. 2666 CL10 ist nur Timings als latenzbeeinflussende Stellschraube.
Naja ich bin raus, ich habe es wahrlich versucht.
BlacKi
2021-06-18, 20:02:39
Nochmal: 4000cl15 ist Takt UND Timings
ja, aber nicht ramtimings. cl 15 ist cl15. das kann man so im bios eintragen, das kauft man so. das die gesammtlatenz des systems dadurch sinkt ist unerheblich.
Distroia
2021-06-18, 20:02:49
die frage lautete was bringt mehr, takt oder latenz. 2666cl10 oder 4000cl15. mir ging es nie um die gesammtlatenz incl. imc.
Das ist keine Frage, das ist völlig klar, schon bevor du irgendwas gemessen hast. Du hast bei 4000 cl15 die gleichen Latenzen wie bei 2666 cl10, aber eine deutlich höhere Taktrate. Natürlich ist das schneller! Das wurde aber auch schon gesagt.
BlacKi
2021-06-18, 20:04:23
ich gebs auf
Distroia
2021-06-18, 20:04:54
;D
davidzo
2021-06-25, 00:35:18
Gerüchte von Yuuki_Ans: https://mobile.twitter.com/yuuki_ans/status/1403932903986323457/photo/1
- Alderlake brauchte ein ES3, das ist normalerweise nicht vorgesehen, eigentlich kommt nach ES1 &2 direkt QS und SQS bis zur Retailversion. Angeblich wegen einem "major bug repair or adaption"
- "DDR5 support is a bit garbage now"
- "CPU adaption is not very good"
- Windows10 may not recognize big cores or small Cores (dass es win11 braucht wurde ja schon vermutet, komisch aber dass die OEMs von denen yuuki die infos hat noch kein win11 hatten)
- May be delayed for a long time
Dr. Lloyd
2021-06-25, 01:24:26
Wenn ich das richtig lese, kommt die Meldung von einem Chinesen namens Bilibili und dessen Liste ist inzwischen mehr als einen Monat alt. Meteor Lake wird von ihm als 13. Core-Generation bezeichnet, womit er Raptor Lake komplett ignoriert und seine gesamte Aufzählung negativ geprägt ist. Sowas passiert, wenn ein Bedenkenträger sich als Leaker versucht.
Unicous
2021-06-25, 01:56:01
Das ist so willkürlich und vage, ich finde da kann man nicht wirklich was herauslesen.
Einzig das mit dem ES ist nicht ganz so vage und zumindest halbwegs glaubwürdig.
Am Scheduler wird offensichtlich gearbeitet, wie man z.B. hier sieht:
https://hothardware.com/news/windows-11-gives-hybrid-architectures-a-single-threaded-boost
"adaption not very good"? War das nicht zu erwarten?:confused:
Oder worauf soll sich das beziehen?
Die DDR5 Plattform zu verzögern klingt auch nach einem schrecklichen PR-Desaster, aber wir werden sehen ob dieser Leak wirklich Substanz hat. Das ist von Bilibili und wurde dazu auch noch mit Google Translate übersetzt. Gibt genug shit poster in den chinesischen Foren, da sollte man immer vorsichtig sein.
@Dr. Lloyd
Es ist eine populäre Website in China, hat aber an sich nicht so viel mit Technik zu tun.
Klingt nach einer zusätzlichen ES-Stufe, vielleicht sogar aufgrund des sehr schlechten DDR5-Supports, aber das ist nicht mehr als ne Vermutung. Irgend ein dicker Hund muss sich aber vergraben haben in der CPU, wenn man immer noch im ES-Stadium war. Das könnte den Launch verzögern, wenn man einen Respin braucht um bis zu einem halben Jahr. Das würde RTL natürlich obsolet machen, wenn es MTL früher schafft als geplant und ADL verschoben wird.
davidzo
2021-06-25, 10:13:06
Wenn Yuuki_Ans das zitiert, würde ich dem eine gewisse Legitimität nicht absprechen. Der hat bisher eine sehr gute quote und verfügt auch über reale quellen bei den OEMs. Kann sein dass er lieber was zitiert anstatt seine eigenen quellen zu gefährden.
DDR5 scheint in erster Linie ein Kompatibilitätsproblem zu sein. Da ist wohl noch einiges im Argen was vielleicht nur nur durch firmware/microcode gelöst werden kann.
An eine Verschiebung von RTL glaube ich aber nicht, das ist doch dieselbe Architektur und Fertigung nur in einer anderen Ausbaustufe. RTL wird sicher nur eine Ergänzung im Highend sein, nicht top to bottom. Da rechne ich fest mit alderlake refreshes für die kleinern DIEs im 13th gen Core Lineup.
w0mbat
2021-06-25, 12:24:08
Wäre ein GAU für Intel, wenn sich ADL wirklich nochmal verspäten würde.
Thunder99
2021-06-25, 13:30:28
Wäre ein GAU für Intel, wenn sich ADL wirklich nochmal verspäten würde.
Passt aber zu Intel ;D
Distroia
2021-06-25, 20:59:34
Weiß jemand, wie lange es von QS bis SQS und Retailversion normalerweise dauert? Und wofür stehen die Abkürzungen überhaupt?
BlacKi
2021-06-26, 03:35:43
ich will ja euren intel bash nicht ruinieren, aber neue grafik tests macht man nicht auf unausgereiften cpus/boards.
ich halte q3 als notebook zeitrahmen nachwievor für realistisch. vl passt man für den desktop alderlake nochmal an, passend zu zen3+vcache.
Das ist kein Intel-Bash und der dicke Fehler kann auch z.B. nur die Produzierbarkeit behindern und muss nicht die Funktion einschränken.
KarlKastor
2021-06-26, 12:11:35
Wäre ein GAU für Intel, wenn sich ADL wirklich nochmal verspäten würde.
Nochmal? Für wann war der denn ursprünglich geplant?
Piefkee
2021-06-26, 12:53:36
ich will ja euren intel bash nicht ruinieren, aber neue grafik tests macht man nicht auf unausgereiften cpus/boards.
ich halte q3 als notebook zeitrahmen nachwievor für realistisch. vl passt man für den desktop alderlake nochmal an, passend zu zen3+vcache.
CES Januar halte ich für realistischer als q3. Außerdem soll ja erst Desktop kommen dann mobile laut Par galsinger
w0mbat
2021-06-26, 13:09:33
Nochmal? Für wann war der denn ursprünglich geplant?
10nm im desktop war für 2016 geplant. Die epische Verspätung solltest du mitbekommen haben :ugly:
davidzo
2021-06-26, 18:11:19
Alderlake ist aber nicht Cannon Lake. Nach CNL hat man alle Desktopentwicklungen in 10nm erstmal gestrichen.
ADL war jedenfalls schon immer für 2021 geplant, wird in den allerersten Gerüchten in 2019 schon in der zweiten jahreshäfte vermutet.
Später wurde daraus die konkretisierung "Q3 21". es gibt mehrere (unbestätigte aber authentische) Roadmaps die Q3 nennen, zumindest die OEM Auslieferung war da geplant. Q4 oder gar Q1'22 wäre also eine erste Verschiebung.
Rocketlake hat sich verspätet, IcelakeSP sogar um mehrere Jahre. Aber Aderlake war tatsächlich erst seit 2019 auf den Roadmaps und schon immer für Ende 2021 gesetzt.
Lehdro
2021-06-26, 18:54:57
Alderlake war jedenfalls schon immer für 2021 geplant, wird in den allerersten Gerüchten in 2019 schon in der zweiten jahreshäfte vermutet.
Später wurde daraus die konkretisierung "Q3 21". es gibt mehrere (unbestätigte aber authentische) Roadmaps die Q3 nennen, zumindest die OEM Auslieferung war da geplant. Q4 oder gar Q1'22 wäre also eine erste Verschiebung.
Rocketlake hat sich verspätet, IcelakeSP sogar um mehrere Jahre. Aber Aderlake war tatsächlich erst seit 2019 auf den Roadmaps und schon immer für Ende 2021 gesetzt.
Ähm. (https://www.pcgameshardware.de/CPU-CPU-154106/News/Intel-Leak-10-nm-Roadmap-soll-Alder-Lake-und-Ice-Lake-Xeons-fuer-2020-zeigen-1347726/)
davidzo
2021-06-26, 19:00:58
Ähm. (https://www.pcgameshardware.de/CPU-CPU-154106/News/Intel-Leak-10-nm-Roadmap-soll-Alder-Lake-und-Ice-Lake-Xeons-fuer-2020-zeigen-1347726/)
Da hat ein übereifriger Schreiberling wohl eine unzulässige Zusammenfassung in der Überschrift gemacht. Da steht was vom 1274 Prozess in 2020 und von Icelake SP in 2020 (der mit q2 2021stark verspätet ist wie ich bereits geschrieben habe). Im Rahmen eins Process node Updates von Produktlaunch zu sprechen wäre da ein bisschen übertrieben, das können genausogut tapeouts sein.
Die ersten leaks 2019 sprachen jedenfalls schon von 2021 und das war vor den chinesischen roadmapleaks: https://www.3dcenter.org/news/intel-alder-lake
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-september-2019
KarlKastor
2021-06-27, 00:17:43
10nm im desktop war für 2016 geplant. Die epische Verspätung solltest du mitbekommen haben :ugly:
Wo ist jetzt der Zusammenhang? Da liegen drei 10 nm Produkte vor Alder Lake.
w0mbat
2021-06-27, 01:06:46
Wo ist jetzt der Zusammenhang? Da liegen drei 10 nm Produkte vor Alder Lake.
Echt? Intel hat schon drei desktop Produkte in 10nm? Erzähl mir mehr...
y33H@
2021-06-27, 01:42:07
Cannon, Ice, Tiger ...
BlacKi
2021-06-27, 01:43:51
CES Januar halte ich für realistischer als q3. Außerdem soll ja erst Desktop kommen dann mobile laut Par galsingerfür letzteres hätte ich gerne die quelle, ich hab sie nicht gefunden. ich denke es ist ziemlich klar, das wohl wieder die K produkte zuerst erscheinen im desktop bereich, richtige verfügbarkeit auch ausgeschlossen. ich rechne mit mitte- ende q4 mit den ersten kaufbaren produkten für desktop.
Cannon, Ice, Tiger ...+lakefield, naja, 22nm+10nm^^
CES Januar halte ich für realistischer als q3. Außerdem soll ja erst Desktop kommen dann mobile laut Par galsinger
Die ADL-S waren ja für November geplant. Das passt auch gut zum Produktionsstart im Spätsommer. Q3 ist so oder so Quatsch, das ist mMn einfach falsch interpretiert worden. Intel gab in der Vergangenheit gerne den Start der Produktion als Termin auf Roadmaps an. Für Notebooks gibts ja erst mal den neuen Tiger Lake H45 und darunter der noch erscheinende Tiger Lake Refresh, da wird also sicherlich erst nächstes Jahr was passieren. Und November steht jetzt in Frage, falls man tatsächlich einen Respin benötigen sollte, dann würde sich ADL-S auf ca. März/April verschieben. In dem Falle würde RTL sicherlich gecancelt, da ja MTL schon Mitte 2023 anstehen würde. Ich würd mal darauf tippen, dass Intel diesen Termin auf jeden Fall packen wird. MMn ist das im Desktop aber auch egal, da ADL und RTL eh nicht sonderlich toll für Intel sein werden, da ADL mMn auf jeden Fall das Nachsehen haben wird ggü. den echten 12-Kernern und den neuen VCache-Varianten. Wirklich konkurrenzfähig wird Intel eh erst wieder mit MTL. Solange die 10nm genutzt werden ist bei Intel halt Durststecke angesagt.
KarlKastor
2021-06-27, 22:21:39
Echt? Intel hat schon drei desktop Produkte in 10nm? Erzähl mir mehr...
Alder Lake war nicht der erste geplante 10 nm Desktop Prozessor.
Was möchtest du noch wissen, dann erzähle ich gerne mehr.
CrazyIvan
2021-06-28, 06:58:17
[...]
Wirklich konkurrenzfähig wird Intel eh erst wieder mit MTL. Solange die 10nm genutzt werden ist bei Intel halt Durststecke angesagt.
So wahnsinnig schlecht, wie hier gern getan wird, ist 10nm SF wirklich nicht - siehe zum Beispiel hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12712667#post12712667).
Die Energieffizienz und auch die Leistungseffizienz von TGL sind durchaus auf Augenhöhe mit Cézanne auf TSMC 7nm. Und dass auch die Taktbarkeit passt, zeigt ja TGL-H. ADL wird zumindest in allen Kategorien außer massive MT wieder halbwegs aufschließen, würde ich mal tippen.
Tiger Lake braucht mehr Strom als Cezanne, um konkurrenzfähig zu sein. Vor allem bei 15W sieht man die Vorteile von N7+Zen3.
CrazyIvan
2021-06-28, 08:23:43
@HOT
Hast Du auf den Link geklickt und Dir die Diagramme angeschaut?
Und ja - leider gibt es derzeit nur jeweils ein Sample zu TGL und Cézanne. Aber das ist immerhin ein Fingerzeig.
Du lenkst vom Thema ab ;). ADL hat keinen zusätzlichen Cache und keine 12 großen Kerne und für RTL gibts offenbar noch mehr kleine Kerne, aber keine großen und der Gamecache in RTL ist sicherlich nichts gestacktes, sondern einfach nur ein etwas vergrößerter L3. Man traute sich mit RTL halt größere Dies zu.
Die Durststrecke auf 10nm war nicht direkt auf die Prozessperformance bezogen, sondern auf die Produkte, die damit kommen. Der VCache war halt der Coup. Das kostet ADL in seinem Kernmarkt mMn die Performancekrone. Sobald es ans echte MT geht, hat ADL mMn eh keine Chance gegen echte 12-16 Kerne. Das wird sich aber alles Ende des Jahres (oder früher) zeigen, wenn die ersten echten Preformancedaten leaken (abseits von Geekbench natürlich).
CrazyIvan
2021-06-28, 10:19:49
Da bin ich ganz bei Dir. Und ich wollte auch nicht vom Thema ablenken. Aber Deine Aussage klang für mich eben so, als würdest Du 10nm SF & ESF grundsätzlich als nicht konkurrenzfähig abstempeln.
davidzo
2021-06-28, 10:45:44
https://www.igorslab.de/en/intel-socket-lga-1700-and-lga-1800-in-detail-exclusive-data-and-drawings-for-the-new-cpus-ab-alder-lake/
LGA1700/1800 thermal and mechanical Guidelines.
Sooo sinnlos diese Kühleränderung!:rolleyes:
78x78mm statt 75x75mm, das sind ja Welten:freak: - Nicht!
- Die 3mm Änderung nur um damit alle vorhandenen Kühler inkompatibel zu machen wäre echt nicht nötig gewesen.
Dass das boardlayout mit 78x78mm möglich ist und mit 75x75 auf keinen Fall kann mir keiner erzählen.
100x100, 90x90 oder wenigstens 80x80 hätten immerhin wesentlich massivere Boxedkühler und OEMkühler emöglicht, da eine größere Extrusion zwischen die Montagelöcher passt. So bleibt es bei den total unterpowerten Standardboxedkühlern, für 78x78 lohnt es sich nichtmal ein neues ExtrusionsDIE zu machen.
Immerhin bleibt Intel aber bei quadratischen Lochpatterns, nicht so krumme Werte wie AMD.
Das hat den großen Vorteil, dass man den Kühler dann jederzeit um 90Grad drehen kann ohne eine neue Halterung. Im Server braucht man das nicht, da der airflow ja vordefiniert ist, aber für den Clientsektor ist das quadratische Pattern echt ein Segen.
Da bin ich ganz bei Dir. Und ich wollte auch nicht vom Thema ablenken. Aber Deine Aussage klang für mich eben so, als würdest Du 10nm SF & ESF grundsätzlich als nicht konkurrenzfähig abstempeln.
Na ja, für 16C scheint es ja schlichtweg nicht zu reichen. Und monolithische Manycores sind schlecht -> Ice Lake SP bzw. nicht mehr monolithisch -> SR. So gut wie N7 ist der definitiv nicht, da gibts nichts schönzureden. Es ist natürlich toll, dass Intel es geschafft hat im Mobilbereich konkurrenzfähiger zu werden.
davidzo
Ähm, ist der nicht deutlich flacher als der alte LGA?
Loeschzwerg
2021-06-28, 11:01:20
Das Warum beschreibt Igor korrekt auf der zweiten Seite :)
However, the most important change for the LGA-1700 socket might be the Z-stack, i.e. the distance between the top edge of the IHS and the top of the motherboard. Here, the distance shrinks by more than a millimeter and the graph clearly shows that you could not generate enough contact pressure with the old mounting kits to cool the CPU accordingly well. To avoid the temptation to mount the old cooler anyway, the hole spacing of the holes for the fasteners has also been increased by 3 mm each – better safe than sorry.
=Floi=
2021-06-28, 11:04:26
Ist der neue sockel nur so wenig größer? Wurden die pins kleiner?
Klar, wird es intel egal sein, aber ich kann mir auch technische gründe vorstellen:
75x75 wird wegen den mindestabständen der lötstellen vom sockel zur bohrung nicht mehr groß genug gewesen sein. 100x100 oder 90x90 wäre wohl zu groß und man übt dann zu große biegekräfte auf das board und den sockel aus. Es bräuchte auch eine art zentrierung.
davidzo
2021-06-28, 11:22:03
Das Warum beschreibt Igor korrekt auf der zweiten Seite :)
Und genau das zeigt wie arrogant bzw. gleichzeitig mutlos Intel ist. Das bezieht sich nur auf ihre eigenen Pushpin Kühler. Man hat das Holespaßing geändert damit niemand aus versehen einen alten Boxedkühler verwendet, der durch das dünnere package dann nicht mehr genug Anpressdruck aufbringt. Soweit kann man das verstehen, als engineer will man möglichst nichts falsch machen, bzw. für fehler verantwortlich sein.
Für Kühler mit Schraubmontage ist das aber weitgehend irrelevant, da kannst du locker mehr anpressdruck draufschrauben, Mit mehr umdrehungen bei der Rändelmutter oder kürzeren Schrauben oder Unterlegscheiben bei den Federn um genau jenen Druckverlust auszugleichen.
Aber das ist ja none of intels Business, die bleiben ja bei den geliebten Pushpins :D
Das war eine chance, wenn man schonmal was ändert, dann gleich richtig: 90x90mm Lochabstand, Schraubmontage direkt in die Backplate wie bei AMD, größeres Heatsinkprofil mit 110 oder gar 120mm Boxedlüfter. Dann würde man PL2 immerhin auch für einen gewissen Zeitraum mit dem Boxedkühler erreichen, was im moment praktisch unmöglich ist.
So eine X-förmige Backplate mit angenieteten Gewinden wie bei HEDT kostet nicht die welt, zumal die Backplate zentral unter dem LGA eh schon vorhanden ist und mit dem ILM verschraubt. Weg mit den Pushpins. So ein verzinktes flaches Stahlblechteil wie die größere backplate kostet wenige cents in der Serie, die Sockelteile fürs ILM sind da eher teurer, weil tiefgezogen und extrem maßhaltig.
Stattdessen Politik der minimalen Schritte. Hätte nichts anderes von Intel erwartet.
Ist der neue sockel nur so wenig größer? Wurden die pins kleiner?
Klar, wird es intel egal sein, aber ich kann mir auch technische gründe vorstellen:
Der neue Sockel ist schon erheblich größer. Aber es ging hier um den Lochabstand. Der hat sich praktisch nicht geändert, aber man hat trotzdem die chance genutzt um 15 Jahre Kühlerkompatibilität mal eben abzuwickeln.
75x75 wird wegen den mindestabständen der lötstellen vom sockel zur bohrung nicht mehr groß genug gewesen sein. 100x100 oder 90x90 wäre wohl zu groß und man übt dann zu große biegekräfte auf das board und den sockel aus. Es bräuchte auch eine art zentrierung.
Da ist reichlich platz zwischen den lötstellen vom neuen LGA zu den 75x75er Löchern, das wird es nicht sein.
Und die Mainboarddurchbiegung ist abhängig vom Abstand der verschraubten Sockel Backplate üblicherweise aus 1.5mm verzinktem Stahl und den Löchern. Die Backplate ist ohnehin schon einige Millimeter größer, man könnte sie durchaus noch um +2mm erweitern damit 80x80mm square denselben Anpressdruck/ Durchbiegung erzeugt wie 75x75.
arcanum
2021-06-28, 12:39:09
bei noctua wird man, wie schon bei AM4, wahrscheinlich das passende mount kit kostenlos ordern können. jeder andere große hersteller wird die kits zumindest kostenpflichtig anbieten. ich hatte in den letzten 5 jahren etliche kühler und eigentlich sind die mount kits seit jahren so modular aufgebaut, dass man keinen kühler mehr wegschmeißen muss, solange der hersteller das passende kit nachliefert. was auch sinn macht, da mittlerweile alle kühler sowohl auf AMD- als auch auf Intel-Boards drauf passen.
BlacKi
2021-06-28, 17:54:48
preislich hält sich das noch im rahmen. 4800er gibts als 32gb kit garnicht zu kaufen. dafür kosten die pro gb nicht wirklich mehr. das war bei ddr4 damals anders. damals hat ddr4 das doppelte gekostet pro gb.
https://videocardz.com/newz/teamgroup-elite-ddr5-4800-32gb-memory-goes-on-sale-on-amazon
w0mbat
2021-06-28, 19:00:53
Schnelleren DDR4-3600 CL16 gibts für um die 160€, da ist doppelt so teuer doch nicht wirklich weit weg. Zumal der RAM noch nicht verfügbar ist.
BlacKi
2021-06-28, 19:06:33
war klar das sowas wieder kommt. ich gehe aber nichtmehr drauf ein.
w0mbat
2021-06-28, 19:30:11
DDR5 ist die Zukunft. Aber er ist anfangs eben wieder doppelt so teuer, du behauptest das würde nicht stimmen.
Aber wenn man falsch liegt einfach nicht mehr drauf eingehen, auch ein Plan :ugly:
BlacKi
2021-06-28, 19:36:55
nein, damals hat ddr3 2133 nur halb soviel gekostet wie ddr4 2133. das wird wohl diesmal nicht so kommen wie früher. das hab ich auch so geschrieben.
Unicous
2021-06-28, 19:48:24
Ich wollte einen längeren Post schreiben, aber BlacKi ist es wirklich nicht wert.
Bei Amazon ist der Preis übrigens mittlerweile verschwunden und man kann das Produkt nicht mehr bestellen, bei Newegg ist es "out of stock".
Dass Amazon und Newegg den exakt gleichen Preis fordern ist bestimmt zufällig und nicht dem Fakt geschuldet, dass Distributoren gerne mal Produkte ins Warensystem pushen und da willkürliche Preise angeben. Teamgroup hat vor ein paar Tagen 400 USD MRSP aufgerufen und Amazon und Newegg, zwei Websiten die die höchsten Preise für Hardware aufrufen, unterbieten das nonchalant mal eben mit einem über 20%igen Preisnachlass.:freak:
In einer Zeit in der GPUs für ein Vielfaches des MSRP verkauft werden und die RAM-Preise steigen, zeigen Amazon und Newegg Herz und verkaufen das Produkt unter Wert.:freak:
Ich habe übrigens noch ein tolles Angebot gefunden:
https://www.mylemon.at/artikel/team/ted532g4800c40dc01/ram-d5-4800-32gb-cl40.html
;D;D;D
BlacKi
2021-06-28, 19:51:27
Dass Amazon und Newegg den exakt gleichen Preis fordern ist bestimmt zufällig und nicht dem Fakt geschuldet, dass Distributoren gerne mal Produkte ins Warensystem pushen und da willkürliche Preise angeben.
nein, das ist der uvp preis.
Unicous
2021-06-28, 19:58:43
:rolleyes:
https://www.pcgameshardware.de/RAM-Hardware-154108/News/DDR5-4800-32-GiByte-Preis-400-Dollar-Teamgroup-1374231/
https://www.tomshardware.com/news/teamgroup-to-start-ddr5-sales-in-june-2021
TeamGroup said that its Elite DDR5-4800 dual-channel 32GB (2x16GB) kit will be available from Amazon US, Newegg, Amazon Japan, and various major retailers in Europe in late June or early July. This kit is not going to be cheap though as it will carry an MSRP of $399.99.
Außerdem wird immer gerne bei diesen dämlichen US - EU Preisvergleichen vergessen, dass da keinerlei Steuern inkludiert sind, man also davon ausgehen kann dass der Preis auf jeden Fall nicht 1:1 übertragbar ist auf EU-Preise. Aber das ist Blacki scheißegal denn er stellt weiterhin seine Strohpuppen auf.
=Floi=
2021-06-28, 22:09:26
Der hat sich praktisch nicht geändert, aber man hat trotzdem die chance genutzt um 15 Jahre Kühlerkompatibilität mal eben abzuwickeln.
ja, das ist bitter und wie gesagt wäre ein größerer schritt schon besser gewesen. Gerade bei den boxed kühlern könnte man viel verbessern. Dort fände ich besere kühler auch super.
Es würde wohl auch nicht mehr die kühler fläche passen. Es sind eben neue specs.
arcanum
2021-06-28, 22:15:31
ja, das ist bitter und wie gesagt wäre ein größerer schritt schon besser gewesen. Gerade bei den boxed kühlern könnte man viel verbessern. Dort fände ich besere kühler auch super.
Es würde wohl auch nicht mehr die kühler fläche passen. Es sind eben neue specs.
die gewachsene heatspreaderfläche dürfte wohl der hauptgrund für die spec-änderung der bohrungen sein. die boxed kühler haben wahrscheinlich eine zu kleine cold plate und durch die änderung ist jeder kühlerhersteller gezwungen die kompatibiltät seiner kühler selbst zu testen, bevor sie diese samt neuem mounting kit für lga 1700 freigeben.
davidzo
2021-06-29, 10:03:18
die gewachsene heatspreaderfläche dürfte wohl der hauptgrund für die spec-änderung der bohrungen sein. die boxed kühler haben wahrscheinlich eine zu kleine cold plate und durch die änderung ist jeder kühlerhersteller gezwungen die kompatibiltät seiner kühler selbst zu testen, bevor sie diese samt neuem mounting kit für lga 1700 freigeben.
Die Boxedkühler decken den Heatspreader auch heute schon nicht richtig ab. Das ist egal, solange der DIE dadrunter nicht größer ist, siehe Threadripper.
Wie Loeschzwerg mit dem Zitat von Igor belegt hat geht es wohl um den Anpressdruck. Der neue Sockel ist gut einen Millimeter flache als der alte. Wenn man hier aus versehen einen alten Kühler montiert sieht alles okay aus, aber die Bodenplatte schwebt womöglich nur über dem IHS und die Wärmeleitpaste wird nicht angedrückt. Fragt sich ob der LGA überhaupt zuverlässig kontaktiert wird wenn der Heatsinkdruck fehlt.
Die 1mm geringere Sockelhöhe ist natürlich toll für SFX und OEM systembuilder die damit AIOs oder so bauen. Aber ist es das wert?
Das doofe an 78x78 vs 75x75 mm ist auch dass es optisch nicht zu erkennen ist. Schon 80 oder 85mm könnte man optisch von einem 75x75 Kühler unterscheiden. So wird man jedes mal nachmessen müssen um zu sehen ob der Kühler kompatibel ist wenn da gerade keine OVP mit beschreibung dran ist.
arcanum
2021-06-29, 10:35:58
ich würde ursache und wirkung nicht verdrehen. die 0,xmm niedrigere sockelhöhe ist mit sicherheit keine technische notwendigkeit und wird durch die änderung der lochabstände möglich.
die-size und form werden sich hingegen verändern, wodurch unpassende kühler an leistung verlieren könnten. was das an publicity hinter sich ziehen würde, kann man sich leicht vorstellen. durch die änderung muss jeder hersteller die kühler validieren, für die man lga 1700 mounting kits rausgibt.
das ist auch auf der erste verlinkten seite bei igor beschrieben:
"Was als Erstes auffallen dürfte, ist der neue Heatspreader (IHS), der jetzt rechteckig und nicht mehr quadratisch ausfällt. Das hat bei Luftkühlern einen großen Einfluss auf die optimale Positionierung der Heatpipes und ist vor allem bei Kühlern mit DHT (Direct Heat Touch), also ohne echten Heatsink, durchaus ein wichtiger Faktor für die mögliche Performance. Denn dann kühlen ja nur die angeschliffenen Heatpipes. Liegen diese Ungünstig, war es das mit der Performance, denn wir kennen genau dieses Problem ja auch von AMDs Ryzen-CPUs und den asymmetrisch platzierten Dies."
und
"Wasserkühler sind hiervon nicht weniger betroffen, denn auch die Coldplate mit den Mikrokanälen ist hier der Schwerpunkt für ein optimales Design. Glück hat der, dessen Kühler bereits für Ryzen angepasst wurde oder der bereits für rechteckige Sockel (Ryzen, Threadripper, Xeon) ausgelegt ist (Bild oben). Dann sollte es auch mit einem neuen Mounting Kit locker reichen. Kleinere, runde Kühler in All-in-One Kompaktwasserkühlern sollte her allerdings, wie schon auf den aktuellen Ryzens, durchaus Probleme bekommen können."
WedgeAntilles
2021-06-29, 11:34:45
Außerdem wird immer gerne bei diesen dämlichen US - EU Preisvergleichen vergessen, dass da keinerlei Steuern inkludiert sind, man also davon ausgehen kann dass der Preis auf jeden Fall nicht 1:1 übertragbar ist auf EU-Preise.
Also das ist in seiner Absolutheit aber auch völlig Quatsch.
Die 3070 hat in den USA einen offiziellen Preis von 499 Dollar
Die 3080 von 699 Dollar
Die 3090 von 1499 Dollar.
Die PS5 kostet in den USA 499 Dollar.
Das sind EXAKT die gleichen Preise, wie sie in Deutschland aufgerufen werden.
Also so zu tun, als hätten die US Preise so absolut gar nix mit den Preisen in D zu tun ist schon abenteuerlich.
Unicous
2021-06-29, 12:47:57
Bei so viel hochnäsigem Unwissen fällt einem nichts mehr ein. Als kleiner Tip USD in EUR umrechnen und dann die Mehrwertsteuer hinzurechnen. Und dann staunen. Dass in den USA außerdem noch regional unterschiedlich Steuern anfallen, die nicht aufgeführt sind, gebe ich dir auch noch auf den Weg.
Ich würde auch gerne mal wissen wo die genannten Produkte für den aufgerufenen Preis regulär zu kaufen sind. Du kannst gerne mal PS5 bei Newegg eingeben und dann erblassen.
Es geht auch nicht um um den MSRP sondern um den Preis im freien Handel. Im Gegensatz zu Europa wird der MSRP selten unterschritten solange der Hersteller nicht selbst die Preise drückt(siehe z.B. Intel die gerade massiv an der Preisschraube drehen ohne den MSRP/UVP offiziell angepasst zu haben), das maximale der Gefühle sind mail in rebates oder Sonderangebote. In Europa herrscht deutlich mehr Preiskampf und das bedeutet auch, dass Hardware generell günstiger zu haben ist bzw. war, vorausgesetzt natürlich es gibt keine künstliche Verknappung oder Lieferengpässe wie es gerade der Fall ist und bei DDR5 der Fall sein wird.
Darüber hinaus werden Produkte wie die PS5 absichtlich mit einem "einheitlichen" Preis weltweit vermarktet. Scheint dir offensichtlich auch noch nicht aufgefallen zu sein sonst hättest du den Strohhalm PS5 nicht als Argument aufgeführt. :uponder:
Das AMD und Nvidia die Preise an die MwSt angleichen ist kein Geheimnis. Dass die UVP in der Vergangenheit von der MSRP abwich ist auch logisch, siehe erster Absatz. Ergo, dein MSRP=UVP ist generell Blödsinn und allein den jetzigen ökonomischen Bedingungen geschuldet. Viel mehr wird in letzter Zeit großzügig aufgerundet, speziell bei den Flaggschiffen und man landet dann tatsächlich beim MSRP, obwohl das Produkt eigentlich günstiger sein sollte.
WedgeAntilles
2021-06-29, 12:58:22
Willst du mich verarschen?
Es geht in der Diskussion um die UVPs, nicht um die Marktpreise.
Du stellst dich doch hin und sagst, dass der UVP der USA nciht mit dem UVP in Deutschland verglichen werden kann. Ja sogar, dass der Preis in den USA keine Aussagekraft für den in D hat.
Was der Marktpreis ist, spielt dabei dann welche Rolle? Ich helfe dir: Gar keine.
Gibt es eine Garantie, dass der UVP von DDR5 hier gleich sein wird wie in den USA? Nein, natürlich kann das abweichen.
Es besteht aber die nicht ganz schlechte Chance, dass der UVP Preis in D ziemlich Nahe am US Pendant ist.
Ob der Marktpreis mit dem UVP überhaupt viel zu tun haben wird, weiß heute natürlich keiner - ist aber wie gesagt nicht Gegenstand der Diskussion. Den Marktpreis in 6 Monaten kennst du schließlich für gar nichts.
Du schreibst, der Preis wäre "auf keinen FAll" übertragbar.
Meine Beispiele haben bewiesen, dass deine absolutaussage unhaltbar ist.
Was ich übrigens in meinem ersten Satz gesagt habe. Das eben diese Absolutheit von dir Quatsch ist.
Und das dann anhand von Beispielen gezeigt.
q.e.d.
Offensichtlich überfordert dich aber die deutsche Sprache mit ihren Feinheiten und du hast entweder keine Ahnung was du sagst oder du pöbelst halt gerne.
Ist mir eigentlich schnuppe, es lohnt sich weder mit einem Ignoranten zu diskutieren noch mit einem Troll.
Von daher bin ich an dieser Stelle raus, du darfst dich jetzt meinetwegen als großen Gewinner sehen oder sonst was :)
amdfanuwe
2021-06-29, 13:56:03
Als kleiner Tip USD in EUR umrechnen und dann die Mehrwertsteuer hinzurechnen. Und dann staunen.
USD aktuell: 1€=$1,19
UVP(US Brutto)/$1,19 + 19%(MWST D) = Preis in Euro inkl. MWST
Ich staune. Aktuell entspricht der UVP US ohne Steuer dem Verkaufspreis in D inkl. MWST 1:1.
Währungsschwankungen ist Risiko des Händlers und erst bei größeren Schwankungen wird der Verkaufspreis auf die nächst nächst überzeugende xx9,90 oder so angepasst.
Je nach Händler noch Transportkosten und mehr oder weniger Marge. Passt schon im Moment Pi mal Daumen mit 1:1 zu rechnen.
Unicous
2021-06-29, 14:39:17
Ach Junge. Lies doch erst einmal was ich schreibe bevor du anfängst wie ein Kaputter in die Tasten zu hauen.:freak:
Der MSRP in den USA bedeutet meist Marktpreis und wird eher überboten als unterboten und bleibt relativ stabil. Gesteuert wird der Preis über Rabatte und andere Preisnachlässe, meist durch Bundles mit anderen Produkten.
In Deutschland und Europa ist es eher ein Maximalwert (eher selten wird dieser von Händlern wissentlich überboten), je nachdem ob die Nachfrage das Angebot deckt. Momentan sehen wir, dass die Preise durch die Decke schießen weil die Nachfrage nicht gedeckt werden kann. In den USA entsteht dadurch ein regelrechter Schwarzmarkt mit Wucherpreisen und leider sind wir da auch nicht so weit von entfernt. Was bei uns positiv ins Gewicht fällt ist der Fakt, dass wir einen deutlich robusteren Verbraucherschutz haben und auch deutlich gesünderer Wettbewerb herrscht, das schützt uns aber trotzdem nicht davor, dass Händler die Preise hochschießen lassen, weil die Nachfrage nicht beherrschbar ist.
Wenn also Teamgroup 400 Dollar als MSRP aufruft und Amazon und Newegg zeitgleich diesen Preis um über 20% unterbieten, bei einem Produkt, das nicht einmal auf dem Markt ist, kann man davon ausgehen, dass der Preis entweder ausgedacht ist. Oder es eine kurzfristige und deutliche Preisanpassung gegeben hat. Letzteres ist möglich aber in Anbetracht steigender DRAM-Preise eher unwahrscheinlich.
Sollte ersteres der Fall sein, werden wir hierzulande bis auf Weiteres keine 310 Euro für dieses RAM Kit bezahlen sondern eher 400+ Euro.:wink: Das ist der Marktlage geschuldet, dem äußerst geringen Angebot, dem zögerlichen Gebaren der Konkurrenz und der nicht vorhandenen Plattform.
btw.
Du schreibst, der Preis wäre "auf keinen FAll" übertragbar.
Traurig, dass du etwas zitierst, das ich nie gesagt habe. Wie kommst du darauf mit Worte in den Mund zu legen?:confused:
Deine Beispiele sind absoluter Blödsinn, denn es sind "Zufälle". Wenn du mal über den Tellerrand hinausschaust über den kleinen Teich schaust wirst du sehen, dass eine PS5 449 Pfund kostet, das sind umgerechnet ca. 621 Dollar (MwSt. UK:20%).:freak:
Nix MSRP=MSRP.:freak:
Nvidia z.B. hat mehrfach den Preis angepasst je nachdem ob der Dollar stark oder wie jetzt vergleichsweise schwach ist. Die Geforce 1070 FE weil du so gerne Nvidia als Beispiel nimmst hatte einen UVP von 499 Euro und in den USA waren es 449 Dollar. Warum die 50 Dollar Diskrepanz fragt sich WedgeAntilles staunend? Weil der Eurokurs entsprechend schwach war und bei 1:1,10 rumdümpelte. Im letzten Jahr ist der Kurs von abermals ca. 1:1,10 auf jetzt 1:1,19 angestiegen. Ein Produkt das in den USA (ohne Steuern) für 449 Dollar verkauft wird kostet durch MwSt und schwachem Dollarkurs deutlich mehr weil die Preise natürlich nicht angepasst werden, das Unternehmen müsste Umsatzeinbußen hinnehmen. Vor einem Jahr bekam man für diese 449 Dollar umgerechnet ca. 403 Euro, plus Mehrwertsteuer also ca. 479 Euro wenn man den Preis hier ansetzt und nicht bei 499 Euro. Mit heutigen Kurs plus Mehrwertsteuer sind das bereits 436 Euro. Das ist eine Diskrepanz von immerhin 43 Euro, die sich nicht in den Preisen wiederschlägt. Und als Unternehmen rundet man gerne auf, da wird aus 480 Euro dann eben 500 Euro. Oder aus 436 Euro 449 Euro. Alles nichts Neues, wird auch gerne mit Logistik, lokalen Gegebenheiten und sonstigem Blabla relativiert.
Die Preise sind Marketing und nicht Marktrealität. Aus 400 Dollar MSRP wird daher auch aller Voraussicht nach nicht 310 Dollar und schon gar nicht 310 Euro.:rolleyes:
Sollten keine Zeichen und Wunder geschehen, wird dieses Kit hierzulande 400 Euro und wahrscheinlich sogar mehr kosten, die Marktlage gibt es nicht her darauf zu hoffen, dass der Preis nachlässt. Das überhaupt über den Preis eines nicht kaufbaren Produktes auf Grund von Händlerlistungen diskutiert wird ist absolut dämlich.
Aber da du dich eh in unkonkreten Beleidigungen austobst (deutsche Sprache, Feinheiten... was zum Fick?:freak:) anstatt auf meinen Post einzugehen ist das eh mühselig, du bist wahrscheinlich gar nicht bis zu diesem Satz vorgedrungen und knabberst noch am ersten während der Antworten-Button schon gedrückt ist..:freak:
@amdfanuwe
No way, José. No shit, Sherlock. Ich kann es gar nicht glauben Captain Obvious.:eek:
Du hast exakt das herausgefunden, was eigentlich ein Geheimnis bleiben sollte. Händler passen die Preise an die Marktsituation an.(y)
(Im Übrigen hast du vergessen, dass Nvidia die Preise Anfang Januar angehoben hat, obwohl sie zuvor behauptet haben, sie würden die gesteigerte MwSt. nicht an den Kunden weitergeben. ;))
edit: Ich Doofi habe mich auch noch, naiv wie ich bin, darauf verlassen, dass WedgeAntilles ehrbar ist und die echten UVP für die Nvidia GPUs postet, aber nein, er hat natürlich gelogen und ich habe es nicht nachgeprüft.
Das sind EXAKT die gleichen Preise, wie sie in Deutschland aufgerufen werden.
Nein, die exakten Preise sind Folgende (und zwar seit mittlerweile einem halben Jahr):
3070 -> 519 Euro
3080 -> 719 Euro
3090 -> 1549 Euro
https://shop.nvidia.com/de-de/geforce/store/gpu/?page=1&limit=9&locale=de-de&category=GPU&gpu=RTX%203070,RTX%203080,RTX%203090&gpu_filter=RTX%203090~12,RTX%203080%20Ti~7,RTX%203080~15,RTX%203070%20Ti~3,RTX%2 03070~19,RTX%203060%20Ti~8,RTX%203060~2,RTX%202080%20Ti~1,RTX%202080%20SUPER~2,R TX%202080~0,RTX%202070%20SUPER~0,RTX%202070~0,RTX%202060~9,GTX%201660%20Ti~2,GTX %201660%20SUPER~15,GTX%201660~9,GTX%201650%20Ti~0,GTX%201650%20SUPER~5,GTX%20165 0~17
Die Preise in den USA sind unverändert.:rolleyes:
Piefkee
2021-06-29, 15:26:45
https://www.anandtech.com/show/16796/update-on-intel-sapphire-rapids-in-2022-q1-for-production-q2-for-ramp-h1-launch
As the validation continues, Intel works with its top tier partners for their specific monetizable goals and features that they’ve requested, so that when the time comes for production (Q1 2022) and ramp (Q2 2022), and a full public launch (1H 2022)
Deutliche Verzögerung von SPR.
Hinsichtlich Alderlake-S (rede nur von Desktop) kann ich mir bei besten will nicht vorstellen, dass Intel eine Consumer Plattform mit DDR5, 3-4 Quartale vor der Server Plattform releast.
Entweder gibts bei Alderlake-S nur DDR4 oder es wird einfach 2022 mit Alderlake...
davidzo
2021-06-29, 16:31:49
ich würde ursache und wirkung nicht verdrehen. die 0,xmm niedrigere sockelhöhe ist mit sicherheit keine technische notwendigkeit und wird durch die änderung der lochabstände möglich.
Ich weiß echt nicht wieso du versuchst mich über solche Belanglosigkeiten zu belehren, aber da liegst du mal echt falsch.
Die Höhe des LGA hat rein gar nichts mit dem Mountinghole Abstand zutun.
Die bisherige Dicke des LGAs hat eher historische Gründe. LGA775 war Intels erster LGA und hat damit das potential die physischen Proportionen zu verkleinern bei weitem nicht ausgereizt.
Seit LGA775 ist die Packagehöhe quasi identisch geblieben.
Mit Skylake hat man erstmals das Substrat deutlich dünner gemacht, musste aber für die Heatsinkkompatibilität entsprechend den IHS wieder dicker machen.
Intels Ingenieure machen sich also durchaus Gedanken was man bei der nächsten Plattform noch weiter fertigungsoptimiert, bzw. Kosten senkt und kompakter macht.
Für OEMs ist Kompaktheit bzw. die Packagehöhe durchaus ein Ding. Apple verwendet nicht ohne Grund keinen ILM Rahmen um den Sockel, sondern lädt die Sockelpins alleine über den Heatsink Anpressdruck auf.
Sicher ist das im mobile-Segment das größere Ding, wo Z-height extrem wichtig ist, aber auch bei Firmen-Rechnern, die heutzutage weitgehend im SFF format daherkommen, spielt die Packagehöhe durchaus eine kleine aber vorhandene Rolle.
die-size und form werden sich hingegen verändern, wodurch unpassende kühler an leistung verlieren könnten. was das an publicity hinter sich ziehen würde, kann man sich leicht vorstellen.
Du meinst so wie der Aufschrei dass seit Cometlake keiner der miteglieferten Boxedkühler auch nur ansatzweise imstande ist den allcore-boost zu garantieren?
Nee, aftermarketkühler sind Intel völlig wumpe.
Wenn du dir die System design guidelines herunterlädst sind da am Ende ausschließlich Zeichnungen vom Boxedkühler drin, so detailliert dass die zum Nachbauen taugen. Dass man vom Referenzdesign abweicht und vielleicht was besseres bauen möchte ist Intel so ziemlich egal.
durch die änderung muss jeder hersteller die kühler validieren, für die man lga 1700 mounting kits rausgibt.
Bei Aftermarketkühlern würde da nichts neu validiert werden wenn Lochabstand und Packagehöhe gleich bleiben. Sieht man ja schön bei nehalem bis rocketlake. Die CPUs dazwischen haben sehr sehr unterschiedliche Die-größen und Proportionen und kein Aftermarkethersteller, außer so Streber wie Noctua, macht sich die Mühe das neu zu validieren, solange der Kühler auf der vorherigen Plattform den Boxedkühler von Intel bereits gehörig distanziert hatte.
OEMs validieren natürlich neu, selbst aber man sieht ja was da heraus kommt. Es geht da eher darum noch einen kleineren, schäbigeren Kühler verbauen zu können um 3 cent zu sparen, nicht darum dass irgendwelche performanceziele erreicht werden. - Solange die Kiste nicht brennt ist doch alles in Ordnung!
Intel sind die retail aftermarket Kühlerhersteller kackegal, zumindest solange bis man sie dann mal beim Marketing braucht um irgendwelche OC ergebnisse zu präsentieren. Aber das sind andere Abteilungen als das mechanical und thermal Engineering und die reden nur alle paar Jahrzente mal miteinander.
das ist auch auf der erste verlinkten seite bei igor beschrieben:
"Was als Erstes auffallen dürfte, ist der neue Heatspreader (IHS), der jetzt rechteckig und nicht mehr quadratisch ausfällt. Das hat bei Luftkühlern einen großen Einfluss auf die optimale Positionierung der Heatpipes und ist vor allem bei Kühlern mit DHT (Direct Heat Touch), also ohne echten Heatsink, durchaus ein wichtiger Faktor für die mögliche Performance. Denn dann kühlen ja nur die angeschliffenen Heatpipes. Liegen diese Ungünstig, war es das mit der Performance, denn wir kennen genau dieses Problem ja auch von AMDs Ryzen-CPUs und den asymmetrisch platzierten Dies."
Ja, das ist für uns Enthusiasten wichtig, weil wir gerne kühle, leise Systeme mit hohem Turbo und langer haltbarkeit haben wollen. Aber das interessiert intel nicht die Bohne. Schonmal die Systeme angeschaut die direkt nach Intels thermal and mechanical design guidelines gebaut werden? Viel Spaß ;D:
4DMg6hUudHE
ej89Y1kpFBo
VRFEr3rAizY
Intel - the way its meant to be cooled :freak:
- or should i say "the way its meant to be toasted" ;D
arcanum
2021-06-29, 16:43:48
Ich weiß echt nicht wieso du versuchst mich über solche Belanglosigkeiten zu belehren, aber da liegst du mal echt falsch.
Die Höhe des LGA hat rein gar nichts mit dem Mountinghole Abstand zutun.
war natürlich stark verkürzt aber dachte, der kern der aussage wäre erkennbar. wenn man den lochabstand verändert kann man auch weitere änderungen wie z.b. an der sockelhöhe vornehmen, da die kompatibilität eh gebrochen ist. ist ja schön wenn du so felsenfest von deiner spekulation bzw. der von igor überzeugt bist und das will ich dir nicht nehmen aber ich interpretiere die entscheidungen von intel anders.
davidzo
2021-06-29, 17:01:23
war natürlich stark verkürzt aber dachte, der kern der aussage wäre erkennbar. wenn man den lochabstand verändert kann man auch weitere änderungen wie z.b. an der sockelhöhe vornehmen, da die kompatibilität eh gebrochen ist. ist ja schön wenn du so felsenfest von deiner spekulation bzw. der von igor überzeugt bist und das will ich dir nicht nehmen aber ich interpretiere die entscheidungen von intel anders.
Ich lehne mich hier gar nicht an igor an. Ich sehe den LGA 1700/1800 nur eben eher als praktisch "AI-Engineering" an, was entstehen würde wenn man alle vorherigen LGAs und die neuen Constraints vorgibt. Da ist keinerlei Innovation, Aufbruchstimmung, Mut oder Performanceanspruch erkennbar. Und das nicht aus engineering Notwendigkeit, sondern aus "business as usual", "haben wir schon immer so gemacht". Die Einstellung ist ein schleichendes Todesurteil als Techfirma. Falls also jemand bei Intel aus dem Winterschlaf aufgewacht ist - wäre schön wenn man davon mal was sieht - im thermal engineering sind die offensichtlich nicht.
davidzo
2021-06-30, 11:49:50
Hatten wir das schon?
https://browser.geekbench.com/v5/cpu/8616870
HP OEM Notebook. - Das sind jetzt schon keine Lab Ergebnisse aus dem Upbringing, sondern handfeste OEM samples. Was clock und sleep states sowie voltages angeht kann es in der firmware noch einiges an tuning geben, aber so richtig große Bewegungen wie bei "oh, der L3 cache funktioniert noch nicht, mussten wir deaktivieren bis zum nächsten stepping" würde ich nicht mehr erwarten.
Geekbench 5 Score
1258 . . . . . . . . . . . . . . . . . . . . 6831
Single-Core Score . . . . Multi-Core Score
Bei 4,5Ghz.
Das ist ca. 10% hinter einem 5800U (1350 / 7500) im Lenovo ThinkBook 13s, einer der besten Implementierungen.
Allerdings ist der 6c/14T Alderlake wohl eher eine 45Watt CPU.
5800h Resultate sind all over the place. Bei MT geht das von nur 6000 punkten bis 10k. Liegt wohl an Latenzen, singlechannel Ram, wie auch an TDP und Kühlung. Komisch, dass es soviele firmware oder engineering limitierte 5800Hs gibt, die 11800Hs liegen wesentlich näher beisammen.
Wenn die Taktraten noch auf Tigerlake Niveau gebracht werden können, ist die CPU wohl konkurrenzfähig zu Cezanne - auch in MT und das wäre neu. Tigerlake schafft das zwar stellenweise auch, aber nur bei einer erheblichen TDP Anhebung.
Fragt sich nur wie der Energieverbrauch von Alderlake dabei ist und ob das auch für Rembrandt reicht...
Daredevil
2021-06-30, 11:56:26
Da hat mein M1 iPad mehr Dampf. :D
Da erwarte ich bei so vielen Kernen schon deutlich mehr im MT.
dildo4u
2021-06-30, 12:45:26
Takt fehlt halt der Quad ist hier schon bei 6k.
https://wccftech.com/intel-tiger-lake-u-core-i7-1195g7-outperforms-desktop-cpus-in-latest-geekbench-single-core-benchmark/
Undertaker
2021-06-30, 18:04:01
Hatten wir das schon?
https://browser.geekbench.com/v5/cpu/8616870
HP OEM Notebook. - Das sind jetzt schon keine Lab Ergebnisse aus dem Upbringing, sondern handfeste OEM samples. Was clock und sleep states sowie voltages angeht kann es in der firmware noch einiges an tuning geben, aber so richtig große Bewegungen wie bei "oh, der L3 cache funktioniert noch nicht, mussten wir deaktivieren bis zum nächsten stepping" würde ich nicht mehr erwarten.
Da sind noch diverse Handbremsen aktiv, von potentiellen Takt- und TDP-Beschränkungen bis hin zu gröberen BIOS-/Firmware-Bugs etc. Die werden teils erst in den letzten Wochen (manchmal sogar Tagen :D) vor Markteinführung gelöst.
Zur ersten Einschätzung reicht schon ein Vergleich mit der aktuellen Generation:
https://browser.geekbench.com/v5/cpu/compare/8610641?baseline=8616870
30% mehr ST- und 50% mehr MT-Performance der aktuellen Modelle ggü. diesem Alder Lake Sample sagen eigentlich schon genug zur Validität dieses Ergebnisses. :)
smalM
2021-06-30, 18:09:21
Hatten wir das schon?
Bei 4,5Ghz.
Da steht 4,25 GHz.
Aber die Angabe stammt wahrscheinlich aus der GB5-Datenbank. Im Testlauf werden immer noch diese 26GHz angezeigt.
Integer ST = 1192, das paßt zu 4,25GHz.
Integer MT = 6335 ist wirklich mau, da muß der Takt ziemlich weit runtergesetzt worden sein.
Aber wie üblich, ohne weitere Angaben zum Power-Envelope ist die Betrachtung müßig. Man kann eigentlich nur noch davon ausgehen, daß der für den ST-Lauf gereicht hat...
@Daredevil
Wir wissen, daß der M1 bei CPU-Vollast 21W Packagepower zieht.
Beim obigen System wissen wir nichts, außer daß es auf 'Balanced' steht, was immer das in dem Fall bedeuten mag.
davidzo
2021-07-01, 19:35:49
Wir wissen, daß der M1 bei CPU-Vollast 21W Packagepower zieht.
Beim obigen System wissen wir nichts, außer daß es auf 'Balanced' steht, was immer das in dem Fall bedeuten mag.
:freak: Wissen wir das?
DU hast recht wenn CPUlast auch die GPU beinhaltet, den DRAM, die SSD, alle peripherie und schnittstellen und das Ganze dann an der Wand in 110v gemessen wird. Ja dann kommen die 22Watt hin. Wollen wir die x86 plattformen dann auch alle so vermessen:biggrin:? Package Power Muhahaha ;D
Jedenfalls wenn man nicht vom tablet soc ausgeht sondern von der 'salvage'-Version im Desktoprechner bei der Powerenvelope praktisch egal ist. Glaub mal nicht dass der M1 im Tablet sich genau so verhält...
- Singlethreaded liegt der M1 im Mac mini übrigens bei 6,3Watt active Power (ebenfalls an der Wall gemessen).
Echt der Hammer wie sich die x86 Jünger alles irgendwie schön reden können ;D
Was wir hier vergleichen sind immerhin Alderlake-H und Tigerlake-H, also 45Watt CPUs mit PL2s von 65-85Watt.:eek:
CrazyIvan
2021-07-02, 05:57:12
@davidzo
+1
(Ich habe nichts weiteres hinzuzufügen, wollte jedoch meine Zustimmung signalisieren.)
BlacKi
2021-07-13, 14:28:56
Qualification sample mit über 5ghz.
https://videocardz.com/newz/intel-core-i9-12900k-alder-lake-s-qualification-sample-allegedly-offers-5-3-ghz-turbo-clock
Interessant, der 2. Respin wurde aufgrund von PCIe-Bugs nötig. Das ist natürlich so schwerwiegend, dass man hier noch mal ran musste. Mal sehen, ob da eine Verspätung dadurch dann entsteht.
Die CB-Werte würd ich nicht ernst nehmen, die sind hochgerechnet.
Gipsel
2021-07-13, 17:12:30
Die CB-Werte würd ich nicht ernst nehmen, die sind hochgerechnet.Vor Allem offenbar von einem gemessenen CB-Run auf die maximalen (single core?) Boostfrequenzen hochgerechnet, die das Ding ja wahrscheinlich (analog zu den letzten Generationen) nie und nimmer innerhalb der TDP halten kann.
In der Vergangenheit waren die Qualification Samples (anders als ES) meist praktisch identisch zur Serienvariante, so daß auch die gemessene Performance vermutlich nahe an der der finalen liegen dürfte.
Nightspider
2021-07-13, 17:16:32
Welche Monate sind für einen Releasezeitraum atm am wahrscheinlichsten für ADL Mobile und Desktop?
Muss hier mal noch ein dutzend Seiten nachholen.
maximus_hertus
2021-07-13, 17:21:57
Afair sollte im Oktober die Vorstellung und im November der eigentliche Launch erfolgen. Allerdings nur die großen Modelle (i9-K, i7-K, ggf. i5-K).
Die kleineren (non-K i9, i7, i5, i3, etc.) sollen erst (Anfang) 2022 folgen.
w0mbat
2021-07-13, 17:37:26
Das war aber vor dem benötigtem ES3, was die Zeitlinie wohl etwas nach hinten verschiebt.
Jo da machte der PCIe-Bug offenbar einen Strich durch die Launchrechnung. Ich denke mal CES ist ein guter Termin für die Vorstellung. 5,3 GHz sieht gut aus, ist endlich auf dem Leistungsniveau von 14nm angekommen die 10nm. Immerhin.
mocad_tom
2021-07-14, 17:16:12
Die Gracemont-Kerne machen 3.9GHz und haben dabei die gleiche IPC wie die Sunny Cove Kerne mit gleichem Takt.
Single-Core bei 3.9GHz macht Sunny Cove 470 Cinebench R20 Punkte.
3700 Punkte liefern schonmal die Small Cores.
Jeder Small Core braucht hier 3.5W
28W benötigen die Gracemont Cores für 3700 Punkte.
32 Gracemont-Cores würden in Cinebench R20 aktuell alles nass machen, was es derzeit zu kaufen gibt.
Bei 112W Verbrauch (+ein bisschen Uncore) würde ein Cinebench R20 MT-Wert von 14800 rauskommen.
Jeder der hier über die Gracemont-Cores herzieht, der hat einfach nicht verstanden was die zu leisten im Stande sind.
Die Golden-Cove-Kerne werden etwas oberhalb des optimalen Perf/W-Bereichs betrieben(oberhalb des "Knies").
Diese liefern 7600 Cinebench-Punkte, benötigen hierfür aber auch 100W.
Um das nochmals etwas deutlicher zu formulieren:
Gracemont kann aus einem Watt 132 Cinebench-Punkte machen.
Golden-Cove kann aus einem Watt 76 Cinebench-Punkte machen.
2022 wird Raptor-Lake rauskommen (mit 16 small cores) und in Cinebench wird es einen mächtigen zuwachs geben(auch wenn sich das in Real-World nirgendwo mehr zeigen wird).
Ja doch ein Szenario wird auch stark profitieren: Compilieren von einem großen C++-Projekt mit vielen einzelnen cpp-Files.
robbitop
2021-07-14, 17:40:46
Jo da machte der PCIe-Bug offenbar einen Strich durch die Launchrechnung. Ich denke mal CES ist ein guter Termin für die Vorstellung. 5,3 GHz sieht gut aus, ist endlich auf dem Leistungsniveau von 14nm angekommen die 10nm. Immerhin.
Interessant. Genau das wurde hier vor einigen Monaten ja noch stark angezweifelt.
w0mbat
2021-07-14, 17:43:22
Die Gracemont-Kerne machen 3.9GHz und haben dabei die gleiche IPC wie die Sunny Cove Kerne mit gleichem Takt.
[x] Zweifel
Unicous
2021-07-14, 19:42:45
Wait, sprachen die Gerüchte nicht von Skylake IPC ohne SMT?:confused:
Wo kommt auf einmal Sunny Cove IPC her?:freak: Oder hat mocad_tom das aus dem Hut gezaubert? :uponder:
Aus einer extrapolierten CB-Milchmädchenreichnung mit aus der Luft gegriffenen Parametern irgendeine IPC abzuleiten finde ich schon sehr famos.:biggrin:
Der_Korken
2021-07-14, 20:04:21
Die Gracemont-Kerne machen 3.9GHz und haben dabei die gleiche IPC wie die Sunny Cove Kerne mit gleichem Takt.
Single-Core bei 3.9GHz macht Sunny Cove 470 Cinebench R20 Punkte.
3700 Punkte liefern schonmal die Small Cores.
Jeder Small Core braucht hier 3.5W
28W benötigen die Gracemont Cores für 3700 Punkte.
[...]
Die Golden-Cove-Kerne werden etwas oberhalb des optimalen Perf/W-Bereichs betrieben(oberhalb des "Knies").
Diese liefern 7600 Cinebench-Punkte, benötigen hierfür aber auch 100W.
Irgendwie erscheint mir der Unterschied zwischen big und little cores hier relativ gering. Hätte man die Effizienz der kleinen Kerne nicht auch annähernd mit mehr großen Kernen hinbekommen mit entsprechend weniger Takt und Spannung? Man bindet sich mit der heterogenen Architektur ja anderweitig einen Klotz ans Bein (instruction set, SMT, scheduling).
mocad_tom
2021-07-14, 20:55:08
https://twitter.com/9550pro/status/1414917736291999745
seht selbst - ist famos
"gracemont this small core score is very strong almost catch up with same frequency sunny cove"
Gipsel
2021-07-14, 21:23:52
Die Gracemont-Kerne machen 3.9GHz und haben dabei die gleiche IPC wie die Sunny Cove Kerne mit gleichem Takt.Ein IPC-Vergleich ist in erster Näherung taktunabhängig.
Und dann erreicht ein Gracemont-Kern vermutlich in Multithreadszenarien die Leistung eines Threads einer der großen Kerne (also etwa halbe Multithreadleistung eines ganzen großen Kerns). Nur eben hoffentlich für weniger als halbem Flächen- und Stromverbrauch (im TDP-Limit, da Multithread-Szenario und nicht voller Boost-Takt).
w0mbat
2021-07-14, 21:27:08
https://twitter.com/9550pro/status/1414917736291999745
seht selbst - ist famos
"gracemont this small core score is very strong almost catch up with same frequency sunny cove"
Ich sehe nur twitter und eine absolute BS Aussage.
Wenn Gracemont die IPC von Sunny Cove (also Cypress Cove = RKL) haben würde, wären das die Kerne, auf die Intel setzten würde. Und zwar 16+ von denen.
Die Gerüchte sagen Gracemont + HT = fast SKL ohne HT.
ChaosTM
2021-07-14, 21:33:28
Alles andere als eine klare Führung wäre ein herbe Enttäuschung beim 10fachen R&D Budget des Kontrahenten.
Intel scheint wieder munter zu sein. Sehr gut!
mocad_tom
2021-07-14, 21:36:06
Die 10nm-Gracemont-Kerne in Alderlake
64kb L1I$ und 32kb L1D$
https://wccftech.com/intel-alder-lake-s-16-core-alder-lake-p-14-core-10nm-desktop-mobile-cpu-dies-visualized/
Die 7nm-Gracemont-Kerne in Grand Ridge
64kb L1I$ und 32kb L1D$
https://videocardz.com/newz/intel-grand-ridge-features-up-to-24-atom-cores-supports-ddr5-and-pcie-4-0
In Sierra Forest wird auch der 7nm-Gracemont-Core verwendet.
Mit der Sierra Forest-CPU auf der Birch Stream AP Platform wird 2023 ziemlich die Post abgehen:
https://adoredtv.com/exclusive-intel-server-cpu-roadmap-for-2021-to-2024/
"There’s also a Sierra Forest AP but seemingly no Sierra Forest SP. It is 7nm but I don’t know if it’s related to Granite Rapids. Intel likely regards this product as competitive and winning. It is slated to launch towards the end of 2023."
https://www.tomshardware.com/news/intel-birch-stream-ap-platform-for-sierra-forest-cpus-listed-with-lga-7529-socket
"As such, the BHS-AP's 7,529-pin socket certainly implies there will be plenty of new functionality and/or power delivery."
Gipsel
2021-07-14, 21:42:30
Wenn der 8+8 Alderlake-S in der Multithreadperformance halbwegs konsistent zwischen AMDs 12- und 16-Kernern rauskommt (ohne 250+W Kernschmelze), hat intel den Job gut erledigt. Alles oberhalb wäre überraschend und sieht zum jetzigen Zeitpunkt wie Phantasie/Wunschvorstellung aus. Die Singlethread-Krone wird man vermutlich halbwegs deutlich bis Zen4 haben (außer eventuell bei Sachen, die von der V-Cache-Sache profitieren), aber Multithread-Performancekrone ist dann doch recht zweifelhaft.
mocad_tom
2021-07-14, 21:52:13
Die Gerüchte sagen Gracemont + HT = fast SKL ohne HT.
Gracemont hat kein HT - Gracemont hatte es noch nie.
Tremont hat auch kein HT.
Jim Keller war dafür, die großen Cores zu killen.
Er hat ausdrücklich das Gracemont-Team in Haifa gelobt.
Im Apple M1 sind die Cores ebenfalls gut effizient und ihr meint Intel kann keine effizienten Cores bauen?
Zumal Jim Keller anscheinend mehr mit dem Gracemont-Team unterwegs war als mit dem Golden-Cove-Team.
Gipsel
2021-07-14, 22:04:15
Gracemont hat kein HT - Gracemont hatte es noch nie.Genau!
Deswegen in MT: 2 Gracemont ~ 1 GoldenCove. ;)
Oder anders: 8+8 dürfte etwa wie ein 12Kerner GoldenCove performen, dabei aber kleiner sein und etwas weniger Strom ziehen (was beim Blick auf intels aktuelle Kerne und der mit GoldenCove erfolgenden Verbreiterung wohl ein wichtiges Kriterium sein dürfte).
Der_Korken
2021-07-14, 22:29:36
Wie ist eigentlich die Entstehungsgeschichte der Mont-Kerne? Die Cove-Kerne stehen so ziemlich am Ende einer langen Entwicklungskette, angefangen beim Conroe (wobei der sicher auch wieder eine Evolution zu irgendwas ist, aber zumindest ganz anders als der P4) mit Nehalem noch fast als größte Änderung zwischendurch. Bei AMD ist Zen 1 die komplette Neuentwicklung, also selbst jetzt mit Zen 3 noch relativ frisch.
w0mbat
2021-07-14, 23:00:49
Gracemont hat kein HT - Gracemont hatte es noch nie.
Ich weiß, ich hab mich falsch ausgedrückt. Was ich damit meinte war "8x Gracemont = 4C/8T SKL".
Nightspider
2021-07-15, 06:35:01
Die Singlethread-Krone wird man vermutlich halbwegs deutlich bis Zen4 haben (außer eventuell bei Sachen, die von der V-Cache-Sache profitieren)
Schön wäre es für den Konkurrenzkampf aber da müsste Intel schon echt gut auf RKL drauflegen.
In AMDs V-Cache Benchmarks wurden bis zu 25% mehr Leistung für die V-Cache CPU angegeben bei 4Ghz wo man sich eventuell schon im GPU Limit befindet. (Leider keine Auflösung angegeben)
Wie wir aber von den aktuellen Broadwell Benchmarks wissen, skaliert der V-Cache gerade langfristig und unter heavy workload richtig gut.
Ich denke eher in einigen Benchmarks wird ADL vorne liegen aber in vielen Anwendungen Zen3 mit V-Cache.
basix
2021-07-15, 08:17:44
ADL wird ebenfalls deutlich mehr L2$ und L3$ haben, das werden Spiele lieben.
- 10900K: L2$ = 256kB pro Core // L3$ = 20MByte
- 11900K: L2$ = 512kB pro Core // L3$ = 16MByte
- ADL: L2$ = 1280kB pro Core // L3$ = 30MByte
Und je nach dem bringt DDR5 ebenfalls noch was.
Sonyfreak
2021-07-15, 09:03:43
Gracemont hat kein HT - Gracemont hatte es noch nie.
Tremont hat auch kein HT.Wobei ich mich frage, warum man hier HT nicht einsetzt. Es heißt ja immer, dass HT kaum Logik kostet, im Normalfall bringt es aber einen deutlichen zweistelligen Prozentsatz an Leistungszuwachs. :uponder:
mfg.
Sonyfreak
ADL wird ebenfalls deutlich mehr L2$ und L3$ haben, das werden Spiele lieben.
- 10900K: L2$ = 256kB pro Core // L3$ = 20MByte
- 11900K: L2$ = 512kB pro Core // L3$ = 16MByte
- ADL: L2$ = 1280kB pro Core // L3$ = 30MByte
Und je nach dem bringt DDR5 ebenfalls noch was.
Also mir macht der große L2 mehr sorgen, denn die Latenz wird höher sein. Spiele lieben schnelle Caches und einen großen L3.
Der_Korken
2021-07-15, 10:05:19
Also mir macht der große L2 mehr sorgen, denn die Latenz wird höher sein. Spiele lieben schnelle Caches und einen großen L3.
Willow Cove hat bereits 1280kB und kommt laut Anandtech auf 14 Takte, gegenüber den 13 Takten von Sunny Cove mit 512kB. Völlig harmlos. AMD muss auch erstmal zeigen, ob sie ihre guten L2-Latenzen halten können wenn sie auf 1024kB hochgehen.
https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen/4
DeadMeat
2021-07-15, 11:30:41
..Wenn der 8+8 Alderlake-S in der Multithreadperformance halbwegs konsistent zwischen AMDs 12- und 16-Kernern rauskommt (ohne 250+W Kernschmelze), hat intel den Job gut erledigt. ...
Die neuesten Leaks sagen 125 PL1 und 228 PL2, da die meisten großen Intel Boards sicher wieder alle Limits ignorieren oder wenigstens PL2 dauer fahren dürfte die Kernschmelze fast schon wieder garantiert sein. Aber sind ja nur Leaks, genau wie die hochgerechneten Werte kanns ja auch nur unsinn sein.
Willow Cove hat bereits 1280kB und kommt laut Anandtech auf 14 Takte, gegenüber den 13 Takten von Sunny Cove mit 512kB. Völlig harmlos. AMD muss auch erstmal zeigen, ob sie ihre guten L2-Latenzen halten können wenn sie auf 1024kB hochgehen.
https://www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen/4
Wieviel das ausmacht sehen wir dann.
Der_Korken
2021-07-15, 13:20:18
Zen 1 hatte 17 Takte, weil der 12-Takte-Pfad bis zum Launch nicht fertig validiert war. Zen+ hatte dann 12 Takte und beim L3 logischerweise dann auch 5 Takte weniger (35 statt 40 glaube ich). Das hat vielleicht gute 5% IPC in Spielen gebracht, in Anwendungen weniger. Ich denke dass die höhere Hitrate des L2 den einen Takt Latenz mehr als wett macht.
r3ptil3
2021-07-15, 14:56:20
Alles andere als eine klare Führung wäre ein herbe Enttäuschung beim 10fachen R&D Budget des Kontrahenten.
Intel scheint wieder munter zu sein. Sehr gut!
Kann den Enthusiasmus nicht ganz nachvollziehen.
Nur schon wenn ich Taktraten von 5.3Ghz lese, deutet das für mich schon auf eine am Maximum spezifizierte CPU hin. IPC-Plus vielleicht wieder ein dickes Stück höher, aber der Verbrauch wird jegliche ernsthafte Konkurrenzfähigkeit vernichten.
Gerade gesehen:
https://www.pcgameshardware.de/CPU-CPU-154106/News/Intel-Alder-Lake-Detailierte-Specs-zu-den-K-Prozessorenm-12900K-12700K-und-12600K-1375940/
PL2: 228W
ChaosTM
2021-07-15, 15:10:46
Man muss schon froh sein, das Intel halbwegs mithalten kann, trotz Fertigungsnachteil.
Dass man mit dem Prozess keine Effizienzwettbewerbe gewinnen kann, versteht sich von selbst.
mboeller
2021-07-15, 15:15:06
Man muss schon froh sein, das Intel halbwegs mithalten kann, trotz Fertigungsnachteil.
Dass man mit dem Prozess keine Effizienzwettbewerbe gewinnen kann, versteht sich von selbst.
Welcher Fertigungsnachteil? 10nm bei Intel entspricht in etwa 7nm bei TSMC
ChaosTM
2021-07-15, 15:29:28
Stimmt, Alder tritt ja noch nicht direkt gegen ZEN 4 an. ZEN 3+ ist ja noch 7nm.
w0mbat
2021-07-15, 20:00:23
Welcher Fertigungsnachteil? 10nm bei Intel entspricht in etwa 7nm bei TSMC
Das ursprünglich angedachte Intel 10nm hat TSMC 7nm entsprochen, wie es jetzt ist wissen wir nicht.
mocad_tom
2021-07-15, 20:29:50
https://twitter.com/Redfire75369/status/1415562924597268480
7nm TSMC 96,5 MTr/mm^2
10nm Intel 101 MTr/mm^2
Unicous
2021-07-15, 20:44:32
Ach, wer liebt sie nicht, die offiziellen Herstellerangaben bei der Spitzen! Transistordichte die Intel vor 4+ Jahren für Cannon Lake angab.:freak:
Und Intel hat diese design rules auch nie aufgeweicht, außer natürlich bei 14nm+++++++.
https://www.anandtech.com/show/13405/intel-10nm-cannon-lake-and-core-i3-8121u-deep-dive-review/3
Back at Intel’s 2017 Technology and Manufacturing day, the company put out this slide, showing the millions of transistors per mm2 (MTr/mm2). This shows Intel making a very sizable 2.7x jump from 37.5 MTr/mm2 on its best 14nm node up to 100.8 MTr/mm2 on its 10nm node.
At the same time, Intel has suggested that the industry use a new way to measure transistor counts, based on the sizes of the two most common types of transistors in modern microprocessors.:freak:
Under this metric, Intel wants the number of transistors per unit area to be divided into NAND2 cells and Scan Flip Flop Cells, and weight them 60/40 accordingly. This is how Intel gets to the 100.8 MTr/mm2 number.
Intel also disclosed at IEDM that it has three types of logic libraries at 10nm, depending on the functionality required. These are short libraries (HD, high density), mid-height libraries (HP, high performance), and tall libraries (UHP, ultra-high performance). The shorter the library, the lower the power and the higher the density, however the peak performance is also lower. Ultimately the chip design is often a mixture of libraries – the shorter libraries work well for cost-sensitive applications, or for IO, and uncore. The larger libraries, by being less dense and having higher drive currents, are usually afforded for the most critical paths in the design.
The three libraries on Intel’s 10nm as a result come in three different densities. Only the high density library actually has the full 100.78 MTr/mm2:
Name Density MTr/mm2 Fins Cell Height
HD High Density 100.78 8 272 nm
HP High Performance 80.61 10 340 nm
UHP Ultra High Performance 67.18 12 408 nm
This makes a strong case for the HD cells for almost everything non-performance related, HP cells for most performance things, and UHP cells along the critical path. Ultimately the density that Intel uses from chip to chip is going to change depending on what cells they use and in what proportions. However within a specific chip design (say, a mid-core count Xeon), all chips built on that design will have the same cell layouts.
KarlKastor
2021-07-15, 20:49:13
Und wo liegt Ryzen in N7?
Garantiert auch nicht bei 96.
Unicous
2021-07-15, 20:50:03
Hat niemand behauptet? Was soll der whataboutism?:confused:
Naitsabes
2021-07-15, 21:13:18
Ach, wer liebt sie nicht, die offiziellen Herstellerangaben bei der Spitzen! Transistordichte die Intel vor 4+ Jahren für Cannon Lake angab.:freak:
[...]
Wobei das Zählen der Transistoren tatsächlich nicht so einfach ist. Bei einem guten Layout führt man möglichst viele Diffusionsgebiete von Transistoren zusammen. Da kann man dann drüber streiten was man als Transistor zählt...
KarlKastor
2021-07-15, 21:25:41
Hat niemand behauptet? Was soll der whataboutism?:confused:
Hä was? Ich habe ganz einfach ne Frage gestellt. Beantworte sie oder lass es bleiben. Den Rest kannst du stecken lassen.
Unicous
2021-07-15, 21:33:17
@Naitsabes
Hat ja auch keiner behauptet. Nur hat Intel nach Cannon Lake nicht mehr über die Transistoren-Dichte bei 10nm gesprochen. Bei 14nm haben sie nachweislich die design rules laxer gestaltet um mehr Performance herauszuholen.
Cannon Lake war eine Totgeburt und Intel hat offensichtlich am Prozess gearbeitet, aus +++++ wurde aus Marketinggründen später SuperFin. Was das konkret für die Transistordichte bedeutet, keine Ahnung. Intel schweigt sich seitdem über Details aus.:frown:
Welche Libraries Intel also konkret nutzt: Unbekannt. Daher ist dieser Transistordichte-Schwanzlängenvergleich müßig, da man nicht einmal weiß was das jeweilige Produkt für design rules, libraries, etc. nutzt.
@KarlKastor
Die Frage kann dir niemand beantworten, und es sollte doch klar sein, dass das offensichtlicher whataboutism war. ;)
Leider findet man nirgendwo, wieviele Transistoren die beiden Tiger Lake-Dies nun haben. Dann könnte man mal annäherungsweise ausrechnen, wie toll die Packdichte nun wirklich ist.
ChaosTM
2021-07-16, 12:21:06
So viel Unterschied zu TSMC's 7nm wird schon nicht sein. Nur muss Intel sehr bald gegen 5 und 3nm antreten und ihr Track Record bezüglich neuer Fertigungstechniken ist in letzter Zeit eher bescheiden. Wäre wichtig, dass 7nm sehr bald läuft.
KarlKastor
2021-07-16, 12:52:50
So viel Unterschied zu TSMC's 7nm wird schon nicht sein.
Naja, den L3 Cache packen die erheblich dichter. Ist die Frage was jetzt wirklich die Ursache ist.
Leonidas
2021-07-16, 13:03:04
Conroe (wobei der sicher auch wieder eine Evolution zu irgendwas ist, aber zumindest ganz anders als der P4)
Conroe war eine Weiterentwicklung von Pentium M und dieser eine Weiterentwicklung von Pentium III. Und Pentium III ist ein Nachfolger von Pentium II, welcher wiederum eher auf dem Pentium Pro aufsetzt. Letzterer ist die wahrscheinlich ursächliche Entwicklung (natürlich mit Anleihen bei allen früheren Intel-CPUs).
- ADL: L2$ = 1280kB pro Core // L3$ = 30MByte
1,25MB L2 pro P-Kern, richtig? Wieviel sind es pro E-Kern?
y33H@
2021-07-16, 13:08:17
Ja, gefühlt hängt das alles irgendwie an P6 (Core) bzw Bonnell (Atom) ...
Der_Korken
2021-07-16, 14:53:31
Conroe war eine Weiterentwicklung von Pentium M und dieser eine Weiterentwicklung von Pentium III. Und Pentium III ist ein Nachfolger von Pentium II, welcher wiederum eher auf dem Pentium Pro aufsetzt. Letzterer ist die wahrscheinlich ursächliche Entwicklung (natürlich mit Anleihen bei allen früheren Intel-CPUs).
Ja, an die Verbindung zwischen Pentium 3 und Conroe erinnere ich mich dunkel. Ich frage mich gerade nur in Anlehnung an den Post von mocad_tom, dass Keller angeblich die großen Kerne einstampfen wollte (völlig egal ob da was dran ist oder nicht), ob die Mont-Kerne nicht irgendwann wirklich der heimliche Gamechanger werden könnten. AMD hat analog die ganze Bulldozer-Entwicklungsreihe eingestampft und gesagt, wir pfeiffen erstmal auf high performance und sehen lieber zu, dass wir kleine und effiziente Kerne als Basisdesign haben. Takt und Detailoptimierung ist erstmal nicht so wichtig. Wenn Intel die Zukunft in den Mont-Kernen sieht, weil sie die Cove-Kerne nicht mehr effizient genug bekommen, würde die Balance richtug mehr little cores wieder besser zur Strategie von AMD und Apple mit wenigen little cores passen. Deren Design ist aus Intels Sicht dann nicht big.LITTLE ist, sondern eher little.EVEN_MORE_LITTLE.
Leonidas
2021-07-16, 15:17:25
Ja, an die Verbindung zwischen Pentium 3 und Conroe erinnere ich mich dunkel.
Das war seinerzeit ein heißes Thema. Pentium M war ja fast eine "illegale" Entwicklung von Intel Israel, während das US-Headquarter noch auf den P4 geschworen hatte. Interessant, das sich diese Entwicklung durchgesetzt hat - und damit sogar diejenigen Recht behalten haben, die im P4 von Anfang an nix gesehen haben.
Was waren wir seinerzeit froh, als es Pentium III nochmal als Tualatin und damit auf frischem Node gab, weil das Teil lange Zeit besser als die ersten P4s war.
basix
2021-07-16, 17:05:59
1,25MB L2 pro P-Kern, richtig? Wieviel sind es pro E-Kern?
Siehe hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12735782#post12735782
Dort sind shared 2 MByte für 4 E-Cores eingezeichnet.
Savay
2021-07-16, 17:15:56
Ja, gefühlt hängt das alles irgendwie an P6 (Core) bzw Bonnell (Atom) ...
War Sandy Bridge nicht eigentlich nen neuer Core und quasi das "Zen3-full-redesign" Äquivalent zum P6 und den darauf basierenden CPUs?
https://en.wikichip.org/wiki/intel/microarchitectures/sandy_bridge_(client)
D.h. der Ursprung der Coves dürfte m.E. eher bei SandyBridge liegen und nicht ganz so weit in der Vergangenheit.
basix
2021-07-16, 17:33:27
Kommt drauf an, was man als Architektur bezeichnet: CPU als gesamtes oder nur den Core?
Sandy Bridge führte meines Wissens den L3$-Ringbus, iGPU sowie uOp-Cache ein. Seither hat sich am generellen CPU-Aufbau nicht viel geändert. Bezüglich Core-Aufbau gab es bei Nehalem ebenfalls weitreichende Updates (z.B. SMT).
Gewisse andere Merkmale wie shared LLC, kurze Pipeline usw. gehen aber schon auf Conroe zurück. Ich glaube aber nicht, dass man in Golden Cove noch sehr viel von Conroe finden wird. Das sind 15(!) Jahre Unterschied und 65nm auf 10m SuperFin.
BlacKi
2021-07-16, 18:25:13
werden in L1-L2-L3 eigentlich dieselben daten gespeichert? also ist alles was in L1 liegt auch in L3?
Der_Korken
2021-07-16, 19:50:42
werden in L1-L2-L3 eigentlich dieselben daten gespeichert? also ist alles was in L1 liegt auch in L3?
Teilweise. Bei Zen enthält der L2 alles, was in den L1-Caches zu finden ist (sowohl L1D als auch L1I), aber die Daten vom L2 sind nicht im L3. Bei Intel war bis Skylake der L2 im L3 enthalten und ich hätte auch gedacht, dass der L1 im L2 enthalten ist (und dadurch auch im L3), aber irgendwer hatte mich diesbezüglich mal korrigiert. Bei Willow Cove ist der L2 definitiv nicht mehr im L3 enthalten, weil das viel zu verschwenderisch wäre (1,25 von 3MB pro L3-Slice wären quasi redundant). Bei Sunny Cove weiß ich es nich, ist aber auch egal, denn wir können ausgehen dass sich Alder Lake eher an Willow Cove orientieren wird.
BlacKi
2021-07-16, 19:59:45
kannst du kurz erklären wie entschieden wird, wer was speichert? ich dachte ja, es läuft einfach über, aber das ist dann wohl die prediction von denen immer geredet wird.
Der_Korken
2021-07-16, 20:17:22
kannst du kurz erklären wie entschieden wird, wer was speichert? ich dachte ja, es läuft einfach über, aber das ist dann wohl die prediction von denen immer geredet wird.
Diese Frage ist gar nicht so einfach zu beantworten. Solange die einzelnen Kerne exklusiv auf ihren eigenen Daten rechnen (d.h. es gibt keine Speicheradresse auf die von zwei oder mehr Kernen zugegriffen wird), ist es so:
1. Kern will Speicheradresse X lesen. Dann wird nacheinander in L1, L2, L3 und RAM geschaut. Der RAM muss es auf jeden Fall haben, aber wenn es davor schon gefunden wird, dann stoppt die Suche. Ich glaube es ist gängig, dass die angefragte Adresse dann im L1 landet und dort irgendeine andere verdrängt, d.h. die wandert eine Cache-Stufe nach oben (und verdrängt dort ggfs. ebenfalls was).
2. Kern will anschließend was in Adresse X schreiben. Der Inhalt wird lokal in die entsprechende Cache-Zeile im L1 geschrieben. Im RAM (und den Stufen dazwischen) ist die Änderung nicht unmittelbar sichtbar, sondern erst wenn die Adresse aus dem L1 verdrängt wird, wird das Update auch nach oben weitergereicht. (Es gibt auch die Strategie, dass Schreibzugriffe immer auch sofort an die höheren Stufen durchgereicht werden, z.B. wurde bei Bulldozer jeder L1-Schreibzugriff auch sofort im L2 durchgeführt, was aber die Schreibrate des L1 massiv eingeschränkt hat).
Bis hier ist alles einfach. Kompliziert wird es, wenn zwei Kerne auf X zugreifen. Solange sie nur lesen wollen, ist es noch unproblematisch, da einfach beide Kerne eine lokale Kopie in ihrem L1 speichern können. Das verschwendet natürlich ein wenig Platz im Cache-System, hält die Leselatenzen aber klein. Schreibzugriffe sind aber kritisch, denn wenn man das nicht irgendwie synchronisiert, würden beide Kerne komplett aneinander vorbei irgendwelche Sachen in die selbe Speicheradresse schreiben, aber eben nur lokal. Das wäre ein inkonsistenter Zustand. Deswegen muss ein Kern, welcher eine lokale Kopie von X hat, mitbekommen, dass ein anderer gerne was in X schreiben will. Zum Beispiel indem jeder Schreibzugriff auf X automatisch alle anderen lokalen Kopien von X invalidiert (also quasi löscht). Sobald jemand das nächste Mal X liest, müsste dieser sich auch die "richtige" Kopie holen und nicht die alte aus dem RAM.
Wie das genau funktioniert, kann man unterschiedlich handhaben. Da gibt es ganze Artikel zu verschiedenen Protokollen:
https://de.wikipedia.org/wiki/Cache-Koh%C3%A4renz
https://de.wikipedia.org/wiki/MOESI
Wie AMD und Intel das konkret implementiert haben, weiß ich nicht, aber grundsätzlich ist Kohärenz zwischen den ganzen Cache-Stufen und Kernen ein nicht zu unterschätzendes Problem.
Leonidas
2021-07-17, 07:24:36
War Sandy Bridge nicht eigentlich nen neuer Core und quasi das "Zen3-full-redesign" Äquivalent zum P6 und den darauf basierenden CPUs?
Nö, Sandy war Nehalem well done. War aber das letzte Mal, das Intel mit einer Architektur-Verbesserung wirklich deutlich zulegte.
Das "Zen3-full-redesign" würde man im Maßstab dieser früheren CPUs aber auch nur als "Architektur-Verbesserung" bezeichnen. Sooo viele Änderungen sind da nicht vorhanden. Aber man erfindet ja auch bei einem funktionierenden Desigsn sowieso nicht das Rad neu, sondern versucht dieses eher noch runder zu machen.
BlackBirdSR
2021-07-17, 09:23:53
Wobei ich der Meinung bin, dass wir diese Aussagen gar nicht mehr treffen können, und die High Level design Bilder uns hier nicht viel Info geben.
Ist bei Autos inzwischen ja auch nicht anders
Nö, Sandy war Nehalem well done. War aber das letzte Mal, das Intel mit einer Architektur-Verbesserung wirklich deutlich zulegte.
Das "Zen3-full-redesign" würde man im Maßstab dieser früheren CPUs aber auch nur als "Architektur-Verbesserung" bezeichnen. Sooo viele Änderungen sind da nicht vorhanden. Aber man erfindet ja auch bei einem funktionierenden Desigsn sowieso nicht das Rad neu, sondern versucht dieses eher noch runder zu machen.
CrazyIvan
2021-07-17, 09:38:49
@BlackBirdSR
+1
Aus dem Bauch heraus würde ich schon sagen, dass Intel mit Sunny Cove eine neue Ära eingeläutet hat. Ob man damit die eigenen Erwartungen erfüllt hat, steht wieder auf einem anderen Blatt. Das lief beim vorletzten Versuch ja auch nicht so pralle (NetBurst).
https://www.techpowerup.com/284693/intel-core-i9-12900k-qualification-samples-black-marketed-for-roughly-usd-1100
Na da können wir uns ja über vorab-China-Benchmarks freuen :D.
nagus
2021-07-19, 18:24:37
Fehlt nur noch das passende Mainboard und RAM :)
BlacKi
2021-07-19, 19:11:26
um dann halbgare performance zu erhalten.
BlacKi
2021-07-20, 19:38:39
klingt so, als müsste ich meinen letzten post revidieren:biggrin:
oder vl auch nicht:wink:
https://videocardz.com/newz/intel-core-i9-12900ks-qs-allegedly-outperforms-ryzen-9-5950x-in-cinebench-r20-test
robbitop
2021-07-20, 19:59:10
Ui 30% mehr ST Bums als Zen 3 im Cinebench. Das ist schon eine Hausnummer. Ggf. hat man die Golden Cove Kerne aufgrund der bisherigen Coves doch unterschätzt?
Gut für AMD, dass sie den V-Cache in der Schublade haben.
Screemer
2021-07-20, 20:03:01
225W :eek:
y33H@
2021-07-20, 20:14:13
PL2, nicht sustained ...
Daredevil
2021-07-20, 20:21:19
Lecker. :D
"Der Intel Verbraucht doppelt soviel Strom" zieht am Ende nur, wenn man den 5950x auch so schnell zum laufen bekommt. q:
Thunder99
2021-07-20, 20:23:33
Fail, bei extrem hohen Verbrauch
Aber dann
24T vs. 32T und Intel gewinnt?
Komisch
Screemer
2021-07-20, 20:45:48
PL2, nicht sustained ...
Schon klar. Da wundern die Werte aus CB aber nicht wirklich, oder?
BlacKi
2021-07-20, 21:31:32
Schon klar. Da wundern die Werte aus CB aber nicht wirklich, oder?
der 11900k@5.3 braucht die 228w ebenfalls schon für cinebench r20. so oder so, man hat hier die performance bei gleichem verbrauch verdoppelt.
https://youtu.be/5Fjjt3cgj8w?t=40
Der_Korken
2021-07-20, 22:39:13
Ich rechne mal ein bisschen rum:
11600/810 = 14,32
Wenn man mal 5,3Ghz für die 810 ST-Punkte ansetzt, bräuchte man für 11600 in Summe 75,9Ghz. SMT bringt bei meinem 5900X ca. +43%. Das heißt, 8 Kerne mit 5,3Ghz und SMT würden nur auf effektive 60,6Ghz kommen, was ca. 9260 Punkten entspricht. Es fehlen also noch 15,3Ghz.
Die kleinen Kerne takten mit maximal 3,9Ghz, allerdings würde ich mal unterstellen, dass diese maximal Sunny-Cove-IPC haben bzw. dass Golden Cove ca. 30% mehr IPC hat als GoldGracemont. Somit entspricht ein mit 3,9Ghz taktender GoldGracemont-Kern effektiv ca. einem 3Ghz-Golden-Cove-Kern. Diese haben kein SMT und es gibt 8 Stück, d.h. sie bringen maximal 24Ghz auf die Waage.
Zusammen mit 60,6Ghz von vorher wären das 84,6Ghz, also ca. 11,4% mehr nötig für den MT-Score. Das wiederum heißt, dass die CPU im MT-Run durchschnittlich ca. 90% des maximalen Boosts auf allen Kernen erreicht haben muss, also ca. 4,8Ghz für die großen und 3,5Ghz für die kleinen Kerne.
Das ist schon extrem viel. Was verbraucht Rocket Lake so, wenn man ihn mit (ohne manuelles OC) mit 4,8Ghz Allcore laufen lassen will?
DeadMeat
2021-07-21, 01:43:49
PL2, nicht sustained ...
Fast jedes bessere Z Intel Board ignoriert das Limit doch schon im Default Modus, die chancen sind gut das es auch dort wieder so ist.
TheAntitheist
2021-07-21, 02:18:07
So oder so scheint Alder Lake wohl die erste gute CPU Arch (von Intel) seit Skylake zu werden. Gut für alle
fondness
2021-07-21, 08:25:19
Ui 30% mehr ST Bums als Zen 3 im Cinebench. Das ist schon eine Hausnummer. Ggf. hat man die Golden Cove Kerne aufgrund der bisherigen Coves doch unterschätzt?
Gut für AMD, dass sie den V-Cache in der Schublade haben.
Hätte mich auch schwer gewundert, wenn Intel seit Skylake nicht mehr aufzubieten hat als das was man bis dato gesehen hat. Wenn sich die Resultate so bestätigen und nicht nur auf irgendeine Cinebench Besonderheit zurückzuführen sind, wäre das natürlich eine Ansage, da reicht dann auch der 3D-Cache nicht. Dann müssen sie nur noch die Perf/Watt in den Griff bekommen.
Thunder99
2021-07-21, 08:43:34
Wäre auf jeden Fall eine gute Entwicklung. Aber erstmal abwarten was wirklich dabei raus kommt.
dildo4u
2021-07-21, 08:50:55
CB20 läuft viel zu kurz ziehmlich nuzloser Wert, diese Klasse CPU sollte ihn innerhalb der 56 sekunden PL2 erledigen.
30 Sekunden und fertig.
https://youtu.be/LU-LLCg7Fk8?t=34
Daredevil
2021-07-21, 08:52:57
Der SC Wert ist nie nutzlos, da dauerhaft anliegend und sehr relevant für die Flupdiziät.
Und außerdem gilt die „kurze Dauer“ auch für alle anderen CPUs, auch Ryzens werden warm, wenn man Allcore Dampf gibt bzw, eher limitieren die Chiplets, als das man über 200w gehen kann.
Viele würden gerne, enden dann aber in der 100 Grad Hölle.
dildo4u
2021-07-21, 08:56:52
Du hast recht alle sprengen ihre Limits aber Intel letzter Versuch ging ins komplett Absurde daher abwarten.
„Adapative Boost“ erweist sich im Alltag als eine Brechstange, wie sie im Buche steht: 5,1 statt 4,8 GHz All-Core-Turbo (+6 Prozent) haben im Cinebench R20 einen Leistungszuwachs von 5 Prozent zur Folge, während die Leistungsaufnahme der CPU um 50 Prozent von 205 auf über 310 Watt und die CPU-Temperatur von maximal 71 auf 96 °C ansteigt.
https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/#abschnitt_ein_neuer_turbo_50_intel_adaptive_boost
Daredevil
2021-07-21, 09:00:38
Die ersten 80% bekommt man mit 20% Aufwand.
Die letzten 20% bekommt man mit 80% Aufwand.
Nothing New, auch beim Ryzen kämpft man im OC mit jedem sinnlosen Watt mehr im Allcore.
Ne 3090 läuft bei 1800mhz bei 250-300 Watt, die mit 1900 läuft mit 400w.
Das Intel das ganze Stock anbietet ist natürlich lächerlich, aber wenn am Ende dabei Leistung rumkommt, ist das legitim. Am Ende kann ja jeder selber entscheiden, was er will.
Dass manche auf den stromsparenden Ryzen pfeifen hier sieht man ja auch daran, dass alle ihn übertakten und tunen, anscheinend ist der auch nicht schnell genug.
Also muss was schnelleres her. :)
Neurosphere
2021-07-21, 09:35:29
Naja, was Intel da mit den Verbrauchsgeschichten macht geht doch eher Richtung Augenwischerei. Die Prozessoren stehen in Anwendungen wesentlich besser da als sie es bei der realen Nutzung zb. beim rendern und CAD/CAM, FEM etc wären da dort die CPU ab und an ein paar Stunden am Stück ackern muss. So wird dem Kunden aber vermittelt er hätte die Leistung ohne Höhe Leistungsaufnahme. Die 56 Sekunden sind also eher auf Benchmarks zugeschnitten, eben wie CB.
WedgeAntilles
2021-07-21, 10:14:10
Blöde Frage, aber wie aussagekräftig / relevant ist CineBench denn so erfahrungsgemäß?
Lässt sich das grob auf andere Programme übertragen? (Nach dem Motto: Guter CB Wert bedeutet auch meistens gute Leistung bei anderen Programmen.)
Fürs Gaming hat es vermutlich wenig bis keine Aussagekraft, oder?
Für Anwendungen kann man denke ich schon eine gewisse Tendenz ausmachen, allerdings muss man klar längere Tests innerhalb des TDP-Rahmens fahren um für Anwendungen wirklich ne Aussage treffen zu können. Fürs Gaming siehts aber auch ganz gut aus wegen der erheblich gewachsenen Caches. Ob das gegen 96MB L3$ reicht wird sich nächstes Jahr dann zeigen.
Tralalak
2021-07-21, 10:42:04
It looks like even eight "atoms core" will look in the rearview mirror and see 16 Zen cores with 32 threads.
Who would have said that a few years ago... The rise of small cores (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=607246)
Der_Korken
2021-07-21, 10:52:33
It looks like even eight "atoms core" will look in the rearview mirror and see 16 Zen cores with 32 threads.
Who would have said that a few years ago... The rise of small cores (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=607246)
As already pointed out, the MT score seems to be done with high power consumption, because the big cores must have clocked relatively high to reach such a high MT to ST ratio. I believe a 5950X with 200W would be on par in MT workloads. But yes, without the small cores, this would probably not have been possible. As for ST it seems like Intel will have the lead here until Zen 4 arrives (and maybe further, depending on how much ST improvement Zen 4 actually offers).
w0mbat
2021-07-21, 11:04:36
Intel muss Golden Cove echt gezuckert haben, wenn der so abgeht. Sunny Cove und Willow Cove waren jetzt ja beide nicht so der Hammer. Vielleicht sehen wir hier eine ähnliche Entwicklung wie bei Zen -> Zen+ -> Zen2, d.h. Golden Cove ist der große Sprung.
Wäre für Intel auf jeden Fall sehr wichtig, Zen3 IPC zu schlagen. ADL kommt ja auch ein Jahr nach Zen3 und Zen3D steht vor der Tür.
Vor allem bin ich auch von dem Tempo, das Intel vorlegt, überrascht. Mai 2020: CML, März 2021 RKL und jetzt wohl Q4 2021 noch ADL. Und sowohl CML als auch ADL mit neuem Sockel und RKL und ADL mit neuem PCIe und ADL dann noch mit DDR5 oben drauf.
AMD hat in der Zeit nur Zen3 gebracht und Zen4 ist wohl noch über ein Jahr weg. Klar, Zen3D ist in Arbeit, aber da geht es wohl deutlich gemächlicher zu. Intel ist wirklich hart am Arbeiten, die sind echt aufgewacht.
WedgeAntilles
2021-07-21, 11:14:31
Vor allem bin ich auch von dem Tempo, das Intel vorlegt, überrascht. Mai 2020: CML, März 2021 RKL und jetzt wohl Q4 2021 noch ADL. Und sowohl CML als auch ADL mit neuem Sockel und RKL und ADL mit neuem PCIe und ADL dann noch mit DDR5 oben drauf.
AMD hat in der Zeit nur Zen3 gebracht und Zen4 ist wohl noch über ein Jahr weg. Klar, Zen3D ist in Arbeit, aber da geht es wohl deutlich gemächlicher zu. Intel ist wirklich hart am Arbeiten, die sind echt aufgewacht.
Ich würde tippen, dass RKL ein paar Monate später kam als ursprünglich geplant.
Aber der Release von ADL wird ja wohl eher nicht von RKL beeinflusst, sprich eine 3-6 Monatige Verzögerung von RKL wird keine Auswirkungen auf ADL haben. Als Laie würde ich einfach mal tippen, dass das zwei ziemlich getrennte Baustellen sind.
Daher liegen beide dann ziemlich nahe zusammen.
Ich bin auf die Performance von Alder Lake gespannt. Was man jetzt als Gerücht liest klingt gut, aber schlussendlich ist da ja noch absolut gar nichts sicher.
Allerdings könnte es eventuell tatsächlich so sein, dass diverse Experten hier im Forum, für die es ja 100% sicher war, dass Alder Lake eine totale Fehlentwicklung wird, doch falsch lagen. Also Intel vielleicht doch etwas mehr Ahnung von der Materie hat als unsere Experten. Jaja, ich weiß, ein unvorstellbarer Gedanke... :biggrin:
Linmoum
2021-07-21, 11:14:38
Da ist nix aufgewacht. RKL sollte deutlich früher launchen, wahrscheinlich hätte es CML dann nie gegeben für die paar Monate. CML wiederum konnte man nicht bis ADL laufen lassen, da RKL trotz Backport immer noch die ST-Performance, zumindest in Apps, ein gutes Stück angehoben hat.
VooDoo7mx
2021-07-21, 11:23:59
Mich würde mal interessieren wie sparsam die little Kerne sind bzw ob diese mit dem Apple M1 mithalten können. Dieser benötigt im Idle nur 0,01W Strom.
Dann könnte man auch Windows Notebooks mit 20h+ Laufzeit bauen wie das M1 Macbook Pro. Da muss natürlich auch Windows entsprechend stromsparend sein.
Und wenn die ALder Lake Performance wirklich so gut sein wird, kann man sich auch sicher sein, dass Intel wieder ordentlich am Preis drehen wird. i9 für $999 anyone?
Der_Korken
2021-07-21, 11:35:51
Allerdings könnte es eventuell tatsächlich so sein, dass diverse Experten hier im Forum, für die es ja 100% sicher war, dass Alder Lake eine totale Fehlentwicklung wird, doch falsch lagen. Also Intel vielleicht doch etwas mehr Ahnung von der Materie hat als unsere Experten. Jaja, ich weiß, ein unvorstellbarer Gedanke... :biggrin:
Die Häme gegenüber Alder Lake konnte ich auch nie nachvollziehen. Seit Zen 2 drehen viele AMD-Fans völlig frei. Alles was Intel macht ist absoluter Schrott und das wird natürlich für alle Ewigkeiten so bleiben. Also in etwa so wie Zen 1 damals schlecht geredet wurde, weil AMD keinen übermächtigen Ringbus verbaut hat so wie Intel, sondern komische 4er Cluster namens CCX und eine IF-Fehlkonstruktion mit eingebauter Spiele-Schwäche. Und auch bei den GPUs ist es nicht besser. Zu Vega-Zeiten war AMD der Versager und seit RDNA2 sind alle Nvidia-GPUs ineffizienter Müll. Ich erkenne da ein Muster ...
big.LITTLE war von Anfang an ein interessanter Ansatz, weil er einfach berücksichtigt, dass die Workloads von CPUs heutzutage sehr heterogen sind. Daran ändern auch die Hochgeschwindigkeits-Gamer, die "16 echte Kerne statt 8 echte und 8 Krüppel-Kerne" wollen, nichts dran.
RKL sollte deutlich früher launchen, wahrscheinlich hätte es CML dann nie gegeben für die paar Monate. CML wiederum konnte man nicht bis ADL laufen lassen, da RKL trotz Backport immer noch die ST-Performance, zumindest in Apps, ein gutes Stück angehoben hat.
So wird es wohl gewesen sein. Ohne CML wäre das ganze LineUp viel konsistenter gewesen, denn den alten 8C-Coffee Lake hätte RKL sehr alt aussehen lassen. Dennoch ist es auffällig, wie viel Fortschritt Intel plötzlich aus der Architektur rausholt. Selbes gilt für AMD, wenn Zen 4 wirklich nochmal 20%+ IPC schafft. Man sollte ja eigentlich meinen, dass es wesentlich einfacher gewesen wäre aus Skylake oder Zen 1 solche krassen IPC-Sprünge zu kitzeln als aus den bereits deutlich aufgebohrteren Willow Cove und Zen 3.
Freestaler
2021-07-21, 11:45:00
Hoffentlich nicht wieder eine 4790k Hoffnung, wo ja auch jeder 5ghz einfach erreichen sollte.. Werte QS sind mit Wasserkühler. Was für einer nicht ausgeführt. Ich pers. hoffe ja auuf starke Bigcores. Der nutzen der Little sehe ich im Desktop nicht.
w0mbat
2021-07-21, 11:47:08
Die Häme gegenüber Alder Lake konnte ich auch nie nachvollziehen.
Naja, seit 2017 hat sich Intel halt nicht wirklich mit Ruhm bekleckert. 10nm wurde immer weiter verschoben, Skylake wurde zigfach neu aufgelegt, Kernanzahl und Takt wurden mit der Brechstange hoch gedreht. Ohne Rücksicht auf Verbrauch oder Hitzeentwicklung.
Mit RKL gab es endlich die neue .cove Architektur und wir wissen ja alle, was die "20% mehr IPC" wirklich gebracht haben.
Dass man da bei ADL skeptisch ist, der ja weiterhin auf .cove basiert und dann auch noch zum ersten mal 10nm im Desktop und der big.LITTLE Ansatz. Da muss man schon sehr viel Vertrauen haben, und genau das hat sich Intel in den letzten Jahren ja eher nicht verdient.
Sollte Golden Cove wirklich so viel schneller als Sunny (Cypress) und Willow sein und dann Gracemont auch noch an Skylake rankommen, wäre das echt enorm. 800+ 1T R20 sind eine Ansage, vor allem wenn man bedenkt, dass nen 10900K ca. 550 schafft und Zen3 gerade erst auf 650 erhöht hat, was ein krasser Sprung war.
Aber ausgehend von RKL, welcher auch ca. 650 schafft (nur eben mit mehr Takt als Zen3), sind die 800+ gar nicht mal so weit weg, das wären knapp 25% mehr IPC. Kann man nur hoffen, dass sich die IPC, anders als bei RKL, nicht nur in CB zeigt ;)
BlacKi
2021-07-21, 12:02:41
Mich würde mal interessieren wie sparsam die little Kerne sind bzw ob diese mit dem Apple M1 mithalten können. Dieser benötigt im Idle nur 0,01W Strom.
Dann könnte man auch Windows Notebooks mit 20h+ Laufzeit bauen wie das M1 Macbook Pro. Da muss natürlich auch Windows entsprechend stromsparend sein.
Und wenn die ALder Lake Performance wirklich so gut sein wird, kann man sich auch sicher sein, dass Intel wieder ordentlich am Preis drehen wird. i9 für $999 anyone?
intel hat schon lange keine echten probleme mit idle verbrauch. es ist auch immer die frage, was du mit verbrauch meinst. denn bei amd sind die cores selbst schon sehr sehr sparsam, was hier den verbrauch erzeugt ist das IO Die. das braucht im idle alleine beim epyc schon 50-100w. dann hast du noch das mainboard das saugt. https://youtu.be/CRWTuo1l4sw?t=173
mini pcs versuchen das zu optimieren, aber idle liegt man da immernoch bei 9-10w. vl ist der soc der beim steam deck verbaut ist nochmals optimierter, und kommt dann so auf 1-3w idle. die restlichen differenzen liegen dann woanders begraben, vl ist es einfach die benötigte x86(64) kompatibilität die arm schlichtweg nicht benötigt. deshalb ist es eigentlich quatsch das m1 mit normalen cpus zu vergleichen. bin gespannt, was nv mit arm vorhat, vl kaufen wir bald keine grafikkarten mehr, sondern arm+nvidia konsolen mit linux drauf.
Der_Korken
2021-07-21, 12:12:21
Naja, seit 2017 hat sich Intel halt nicht wirklich mit Ruhm bekleckert. 10nm wurde immer weiter verschoben, Skylake wurde zigfach neu aufgelegt, Kernanzahl und Takt wurden mit der Brechstange hoch gedreht. Ohne Rücksicht auf Verbrauch oder Hitzeentwicklung.
Mit RKL gab es endlich die neue .cove Architektur und wir wissen ja alle, was die "20% mehr IPC" wirklich gebracht haben.
Da stimme ich absolut zu. Intel hat jahrelang davon gezehrt, dass sie mit Skylake einen großen Vorsprung auf AMD hatten, der jedes Jahr weiter geschmolzen ist und dass Skylake ausgereift und etabliert war.
Was ich aber meinte ist, dass viele einen Trend weiter in die Zukunft interpolieren mit der Begründung: "Wenn Firma X die letzten 3 Jahre immer nur kleine Sprünge rausgebracht hat (oder immer krasse Sprünge geschafft oder Effizienzprobleme hatte, etc.), werden sie das auch die nächsten 3 Jahre garantiert tun". Dabei ist es viel eher so, dass es nach großen Verbesserungen erstmal gemächlich weitergeht, weil die tiefen Früchte erstmal abgegriffen sind bzw. die Chips erstmal wieder ein Stück wachsen müssen, damit sich neues Optimierungspotenzial ergibt (man kann ja z.B. schlecht den selben Chip jedes Jahr nochmal 20% effizienter machen, irgendwann ist er einfach ausoptimiert). Und andersrum kann auf eine Negativserie ein großer Sprung folgen, weil man z.B. eine neue Architektur im Hintergrund hochgezogen hat, die all die Probleme der alten Architektur nicht mehr hat.
mboeller
2021-07-21, 12:18:53
Ui 30% mehr ST Bums als Zen 3 im Cinebench. Das ist schon eine Hausnummer. Ggf. hat man die Golden Cove Kerne aufgrund der bisherigen Coves doch unterschätzt?
Gut für AMD, dass sie den V-Cache in der Schublade haben.
könnte also im Endeffekt auf Gleichstand hinauslaufen bei FP-Last.
Anandtech hat ja den Milan getestet und die Spec-Resultate zeigen (für mich sehr deutlich) wie stark FP auf Cache reagiert.
WedgeAntilles
2021-07-21, 12:25:06
Dass man da bei ADL skeptisch ist, der ja weiterhin auf .cove basiert und dann auch noch zum ersten mal 10nm im Desktop und der big.LITTLE Ansatz. Da muss man schon sehr viel Vertrauen haben, und genau das hat sich Intel in den letzten Jahren ja eher nicht verdient.
Skepsis ist gut - und noch hat Alder Lake auch nicht bewiesen, dass es funktioniert.
Es ist aber ein Unterschied ob man skeptisch ist oder ob man sich hinstellt und sagt: Alder Lake kann unmöglich funktionieren.
Damit sagt man dann nämlich gleichzeitig, dass Intel generell absolut keine Ahnung von CPU Entwicklung hat (Intel sieht ja schließlich eine Chance für Big/Little, sonst würden sie es nicht tun) und man sich selber ja viel besser auskennen würde.
Und da wird es lächerlich.
Ist es sicher, dass Alder Lake gut wird und Big/Little funktionieren wird? Nein.
Aber zu leugnen, dass es eine realistische Chance gibt dass es klappt ist halt unsinnig.
Und eine Firma "dauerhaft" abzuschreiben, die einen 2-stelligen Millardenbetrag verdient und zig Milliarden in Forschung steckt ist ebenso unsinnig.
Zweifellos hat Intel die letzten 6,7 Jahre "nichts" gemacht und bei ihren CPUs wenig Fortschritte erzielt.
Hier wurde viel Geld versenkt, hier wurde viel Zeit versenkt und der Vorsprung wurde komplett verspielt.
Keine Diskussion.
Genauso ist Geld keine Garantie für Ergebnisse (siehe die letzten Jahre) - aber die Wahrscheinlichkeit, dass man mit Geld dauerhaft keinerlei Erfolge hat ist halt eher gering.
Das sieht man im Fußball auch - England hatte jahrelang viel Geld, aber international wenig Erfolg. Aber auf Dauer hat sich das Geld doch durchgesetzt und Erfolge gebracht und inzwischen sind die englischen Vereine auch international ganz vorne mit dabei.
Noch mal, es ist selbstverständlich nicht garantiert, dass Intel die nächsten 5 Jahre große Fortschritte hat und tolle CPUs herausbringt.
Aber es ist eine realistische Chance, dass es passieren wird.
Neurosphere
2021-07-21, 12:37:58
Ich bezweifel das bigLITTLE darauf gewachsen ist das Intel das Konzept schon immer geplant hatte. Hier dürften andere Beweggründe eine Rolle gespielt haben.
Wie dem auch sein, für den Kunden, also uns, ist es das Beste AMD und Intel sind auf Augenhöhe. Das sorgt für gute Preise und mehr Entwicklung.
robbitop
2021-07-21, 13:47:11
Woher kommt eigentlich die Gewissheit, dass Golden Cove sehr stark verwandt mit Willow Cove und Sunny Cove ist? Der Name „Cove“? Die Monts und die Lakes waren auch nicht unbedingt alle verwandt. An sich ist es doch so, dass es eine neue uArch gibt (sc), dann einen Shrink (wc) und dann die nächste uArch.
Blediator16
2021-07-21, 13:55:09
Es ist aber ein Unterschied ob man skeptisch ist oder ob man sich hinstellt und sagt: Alder Lake kann unmöglich funktionieren.
Bevor Nvidia den Prozessshrink bei ihren GPUs hatte, hast du "seitenlang" davon gefaselt, dass AMD sowieso zerstört wird und es gar nicht sein kann, dass Nvidia es verkacken wird bzw. AMD es schaffen kann, an Nvidia dran zu kommen. Was daraus geworden ist sehen wir ja.
Deine Tendenzen sind unverkennbar.
Deine Posts haben ständig den selben flow.
Distroia
2021-07-21, 14:53:00
Wer ist eigentlich dieser OneRaichu und wie vertrauenswürdig ist sein Leak?
arcanum
2021-07-21, 15:12:25
Wer ist eigentlich dieser OneRaichu und wie vertrauenswürdig ist sein Leak?
er hat etliche rdna2 specs geleakt und hat scheinbar frühzeitig zugriff auf firmwares. ich meine dass er neben dem 3dc in mehreren (deutschen) foren mit einem pikachu avatar unterwegs ist. hab seine daten vergessen seit er nach dem rdna2 release ruhiger wurde. ich hoffe ich verwechsle ihn nicht, da ich nur seinen avatar als verknüpfendes glied im kopf habe und er unterschiedliche aliase benützt.
Blediator16
2021-07-21, 15:21:13
er hat etliche rdna2 specs geleakt und hat scheinbar frühzeitig zugriff auf firmwares. ich meine dass er neben dem 3dc in mehreren (deutschen) foren mit einem pikachu avatar unterwegs ist. hab seine daten vergessen seit er nach dem rdna2 release ruhiger wurde. ich hoffe ich verwechsle ihn nicht, da ich nur seinen avatar als verknüpfendes glied im kopf habe und er unterschiedliche aliase benützt.
Ich glaube du verwechselst ihn mit diesem Patrick Schur?
https://mobile.twitter.com/patrickschur_
Linmoum
2021-07-21, 15:21:32
Das mit dem Pikachu ist Patrick Schur, der hat nix mit diesem OneRaichu zu tun. Bei den ganzen Pokemon-Avataren kann man aber auch durcheinander kommen. :D
arcanum
2021-07-21, 15:27:44
ah danke :hammer: genau an patrick schur hatte ich gedacht. hatte angenommen das wäre sein twitter account weil beide ähnliche infos zu rdna2 hatten.
auf reddit hat sich jemand die mühe einer statistik von bekannten leakern gemacht und raichu hat eine sehr hohe trefferquote:
https://www.reddit.com/r/AMD_Stock/comments/nsjd5c/hardware_leak_tracker_the_whos_who_of_leaks/
Distroia
2021-07-21, 15:36:35
Hab auch erst wegen dem Avatar an Patrick Schur gedacht. Von ihm könnte man den Leak wirklich fast für bare Münze nehmen, aber solange mir niemand einen Grund zeigt, warum der Leaker diesmal vertrauenswürdig sein soll, bleibe ich sehr skeptisch. Hab jetzt ehrlichgesagt auch keine Lust, Twitter oder sonstwas zu durchforsten.
Edit:
auf reddit hat sich jemand die mühe einer statistik von bekannten leakern gemacht und raichu hat eine sehr hohe trefferquote:
https://www.reddit.com/r/AMD_Stock/comments/nsjd5c/hardware_leak_tracker_the_whos_who_of_leaks/
90% Trefferquote. Nicht schlecht.
Der_Korken
2021-07-21, 15:45:25
auf reddit hat sich jemand die mühe einer statistik von bekannten leakern gemacht und raichu hat eine sehr hohe trefferquote:
https://www.reddit.com/r/AMD_Stock/comments/nsjd5c/hardware_leak_tracker_the_whos_who_of_leaks/
WTF, warum steht das 3DC da drin? :D
Hat jemand einfach Leos Spekulationen genommen und gezählt wie oft die richtig waren? Gut, immerhin bessere Quote als AdoredTVs "Quellen" ;D.
Unicous
2021-07-21, 15:50:12
Diese Liste ist übrigens kompletter bullshit, da der Typ auch reine Spekulationen und Gedankenspiele als leak bezeichnet hat. Wie man im Thread lesen kann hat z.B. Patrick Schnur das schon kritisiert.
Daredevil
2021-07-21, 15:50:18
Leo hat bei Twitter aber auch schon drölf mal geschrieben, das 3DC nur ne News Seite ist und Twitter Sachen repostet, aber sicher kein Leaker ist. ^^
aufkrawall
2021-07-21, 15:50:22
Zeigt halt nicht nur, wie fertig Adored ist, sondern auch, wie unsinnig es ist, ständig ohne irgendeine Grundlage Spekulationen anzustellen.
WedgeAntilles
2021-07-21, 15:52:51
Was daraus geworden ist sehen wir ja.
Ja, nen steigenden Marktanteil von nvidia ;D
Aber ja, die Leistung von RDNA2 hat mich sehr positiv überrascht.
Im November bin ich dann noch davon ausgegangen, dass das preislich für die Konsumenten positiv wird.
Also lag ich gleich zweimal falsch.
Bei Zen3 lag ich auch nur teilweise richtig - ich ging davon aus, dass wir da sehr attraktive CPUs bekommen werden.
Technisch stimmte das auch, die Apothekenpreise hatte ich nicht erwartet.
Also lag ich mit meiner positiven Euophrie für Zen 3 ebenfalls falsch.
Von daher hast du recht, meine Prognosen waren unterm Strich ziemlich schlecht.
w0mbat
2021-07-21, 17:01:01
Woher kommt eigentlich die Gewissheit, dass Golden Cove sehr stark verwandt mit Willow Cove und Sunny Cove ist? Der Name „Cove“? Die Monts und die Lakes waren auch nicht unbidingt alle verwandt. An sich ist es doch so, dass es eine neue uArch gibt (sc), dann einen Shrink (wc) und dann die nächste uArch.
Gute Frage. Nur von Namen denke ich mal.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.