Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 8. November 2024
Leonidas
2024-11-09, 06:28:10
Link zur News:
https://www.3dcenter.org/news/news-des-8-november-2024
Freestaler
2024-11-09, 07:42:53
Wohl ein Zahlentippser: .. dass AMDs Zen 6 auch weiterhin den Sockel AM6 benutzen .. sollte wohl AM5 sein.
Leonidas
2024-11-09, 07:52:33
Böser Fehler, würde den Sinninhalt verändern. Gefixt zu AM5.
Gastzimmer
2024-11-09, 08:14:17
Aus meiner Sicht hat die Mindfactory nicht nur die Liefermenge vom 8.11. verkauft. Meine Bestellung ging 15:19 durch und auf Nachfrage hin erhielt ich am Freitag folgende Antwort:
Die Bestellung ist bei uns eingegangen, leider war die CPU bereits ausverkauft, sodass wir auf die nächste Lieferung warten müssen. Diese soll voraussichtlich nächsten Freitag bei uns eintreffen.
Da die Antwort vom Support vom Freitag ist gehe würde ich soweit gehen, dass die Mindfactory mindestens alle Lieferungen bis Ende nächster Woche am Ersttag verkauft hat. Mein Status ist auf weiter Offen.
Aroas
2024-11-09, 09:07:38
Und was bringt diese "Big APU" von NVidia/Mediatek, wenn sie ARM basiert ist?
ARM und x86 sind doch zwei verschiedene Paar Schuhe.
Windows on ARM zieht noch immer nicht. Also selbst wenn NVidia da was leistungsstarkes auf die Beine stellt, haben sie noch immer das Problem der fehlenden, gescheiten Softwareunterstützung.
Notebooks mit Snapdragon X sind doch bisher auch mehr Fail als alles andere.
Leonidas
2024-11-09, 09:18:16
Da die Antwort vom Support vom Freitag ist gehe würde ich soweit gehen, dass die Mindfactory mindestens alle Lieferungen bis Ende nächster Woche am Ersttag verkauft hat.
Durchaus denkbar! Kann man nachprüfen, wenn die Produkt-Webseite wieder online ist und dort eine neue Verkaufszahl notiert wird.
Man muss sich einfach nur die die Anordnung der Cores im Compute Die anschauen, Intel hat wegen der niedrigeren Latenz auf dem Ringbus die Anordnung verändert. Davon mögen Spiele nicht unbedingt profitieren oder aber es fehlt an der Optimierung und selbige Probleme hat AMD genauso.
Auch Aussagen die P Cores könnten kein AVX512 ist falsch, AVX wurde auf den P Cores deaktviert weil die Fertigung der E Cores das Problem ist.
Aber über Intel wird stellenweise so ein FUD berichtet und AMD fast zu glorifiziert, egal was die verbocken. Kein Launch von denen lief in der letzten Zeit reibungslos und die 9000 Serie, wie viele Anläufe haben die genommen, das es nun halbwegs passt?
Das AI Die in den Arrow Lakes ist das Modernste dass man derzeit kaufen kann, gleiches gilt auch für den Xe Anteil in der iGPU. Aber AMD wird es schon richten, eine Firma die immer Jahre hinter anderen hinterherhinkt. Ich lesen selten so einen Blödsinn wie hier ständig berichtet wird. Wenn Intel hätte die RibbonFET so in Szene setzen können wie es geplant war, würde über AMD niemand mehr nachdenken, aber es kommt manchmal anders, es gibt unvorhersehbare Rückschläge wie in jeder Entwicklung vor allem bei Einführung neuer Architekturen und von dieser eigenen Schwäche profitieren dann andere. Das bedeutet gleichfalls nicht das sie besser sind. Ich mag mir diesen ganzen spekualtiven Mist nicht mehr durchlesen, von selbsternannten Hardwareexperten die keine sind und das dümmliche Geschwafel bestimmter Leute einfach nur zusammenfassen.
Platos
2024-11-09, 10:43:43
Das mit der AM5 Kompatibilität ist hald immer so eine Sache. Solange es keine Pflicht gibt, dass jedes AM5 Mainboard mit Zen6 klar kommt, nenne ich es nicht kompatibel. Ein paar ausgelesene sind vlt. Kompatibel, aber das ist keine richtige Kompatibilität und auch keine Sicherheit beim Kauf einer AM5 Plattform zu frühen Zeiten. Man weiss nie, welche Chipsätze/Mainboards nun 100% kompatibel sind mit allen Zen6 Consumer Desktop-CPUs.
Ätznatron
2024-11-09, 11:41:21
Man muss sich einfach nur die die Anordnung der Cores im Compute Die anschauen, Intel hat wegen der niedrigeren Latenz auf dem Ringbus die Anordnung verändert. Davon mögen Spiele nicht unbedingt profitieren oder aber es fehlt an der Optimierung und selbige Probleme hat AMD genauso.
Auch Aussagen die P Cores könnten kein AVX512 ist falsch, AVX wurde auf den P Cores deaktviert weil die Fertigung der E Cores das Problem ist.
Aber über Intel wird stellenweise so ein FUD berichtet und AMD fast zu glorifiziert, egal was die verbocken. Kein Launch von denen lief in der letzten Zeit reibungslos und die 9000 Serie, wie viele Anläufe haben die genommen, das es nun halbwegs passt?
Das AI Die in den Arrow Lakes ist das Modernste dass man derzeit kaufen kann, gleiches gilt auch für den Xe Anteil in der iGPU. Aber AMD wird es schon richten, eine Firma die immer Jahre hinter anderen hinterherhinkt. Ich lesen selten so einen Blödsinn wie hier ständig berichtet wird. Wenn Intel hätte die RibbonFET so in Szene setzen können wie es geplant war, würde über AMD niemand mehr nachdenken, aber es kommt manchmal anders, es gibt unvorhersehbare Rückschläge wie in jeder Entwicklung vor allem bei Einführung neuer Architekturen und von dieser eigenen Schwäche profitieren dann andere. Das bedeutet gleichfalls nicht das sie besser sind. Ich mag mir diesen ganzen spekualtiven Mist nicht mehr durchlesen, von selbsternannten Hardwareexperten die keine sind und das dümmliche Geschwafel bestimmter Leute einfach nur zusammenfassen.
Intel ist am Arsch. Da hast Du völlig recht.
aceCrasher
2024-11-09, 11:45:25
Man muss sich einfach nur die die Anordnung der Cores im Compute Die anschauen, Intel hat wegen der niedrigeren Latenz auf dem Ringbus die Anordnung verändert.
AFAIK hat Intel die Anordnung der Kerne verändert um die Hitze der P-Cores besser zu verteilen.
Tigerfox
2024-11-09, 12:03:20
Aber über Intel wird stellenweise so ein FUD berichtet und AMD fast zu glorifiziert, egal was die verbocken. Kein Launch von denen lief in der letzten Zeit reibungslos und die 9000 Serie, wie viele Anläufe haben die genommen, das es nun halbwegs passt?
[...] Aber AMD wird es schon richten, eine Firma die immer Jahre hinter anderen hinterherhinkt. Ich lesen selten so einen Blödsinn wie hier ständig berichtet wird. Wenn Intel hätte die RibbonFET so in Szene setzen können wie es geplant war, würde über AMD niemand mehr nachdenken, aber es kommt manchmal anders, es gibt unvorhersehbare Rückschläge wie in jeder Entwicklung vor allem bei Einführung neuer Architekturen und von dieser eigenen Schwäche profitieren dann andere. Das bedeutet gleichfalls nicht das sie besser sind. Ich mag mir diesen ganzen spekualtiven Mist nicht mehr durchlesen, von selbsternannten Hardwareexperten die keine sind und das dümmliche Geschwafel bestimmter Leute einfach nur zusammenfassen.
Und ich mag solchen fanatischen Bullshit nicht mehr durchlesen. Der Matkstart der Ryzen 9000 wurde, zurecht, umfassend kritisiert, auch hier. Für mich ergab dieser aber von Anfang an einen Sinn und meine Vermutung hat sich nun bestätigt. Konnte auch jeder halbwegs Informierte durch Parallelen zu Ryzen 7000 erkennen.
AMD wollte von vorherein Arrow Lake mit den 9000X3D kontern. Von den Ryzen 7000X3D wusste man aber, dass dann die regulären CPUs, von denen einige schon grundsätzlich einen schwierigen Stand haben, noch unattraktiver werden. Für Spieler sind eigentlich 9700X, 9900X und 9950X völlig uninteressant, wenn es 9800X3D und 9950X3D gibt.
Das hat man bei Ryzen 7000 schon gesehen und musste bei diesen CPUs massiv den Preis senken. Daher hat man die regulären CPUs einige Monate früher gelauncht, damit diese wenigens eine Weile noch halbwegs attraktiv sind. Gleichzeitig hat man den 5800X3D auslaufen lassen und den Preis des 7800X3D ansteigen lassen.
Dass die Mainboards und die BIOSe noch nicht so weit waren, ist natürlich diletantisch. Wirklich gut angekommen sind die 9000er bisher dann auch nicht.
Arrow Lake-S ist einfach nicht gut für die Zielgruppe. Punkt. Es ist ein Zwischenprodukt wie Ice Lake, Tiger Lake und Rocket Lake. Man muss Änderungen und Umstellungen vornehmen, die nicht sofort Vorteile verschaffen, aber langfristig nötig sind, um von der alten Architektur wegzukommen und wieder ordentlich an der IPC schrauben und vor allem die Effizienz steigern zu können. Letzteres ist mir Arrow Lake ja schon gelungen, aber das ist einfach keine Branche, wo man ein Nachfolgerprodukt, dass effizienter, aber sogar langsamer als der Vorgänger ist, besonders attraktiv findet. Weder für Besitzer eines S1700-Boards, noch für AM5-Besitzer gibt es irgendeinen Grund, die neue Plattform zu kaufen.
Wir haben das schon zu Genüge bei vielen Core-Generationen und auch bei AMD gesehen, dass sich neuere Generationen durch neue Befehlssätze oder andere Architektur-Optimierungen erst viel später deutlich mehr von ihren Vorgängern absetzen, wenn sie schon gar nicht mehr käuflich erhältlich sind (z.B. Haswell ggü. Sandy Bridge/ Iby Bridge, aber auch Broadwell-S mit eDRAM L4-Cache).
Ein riesen Problem ist imho aber, dass es so aussieht, als wäre Arrow Lake-S die einzige Generation für den neuen S1851. Das ist fatal, ein quasi schon bei erscheinen totes Pferd.
Das mit der AM5 Kompatibilität ist hald immer so eine Sache. Solange es keine Pflicht gibt, dass jedes AM5 Mainboard mit Zen6 klar kommt, nenne ich es nicht kompatibel. Ein paar ausgelesene sind vlt. Kompatibel, aber das ist keine richtige Kompatibilität und auch keine Sicherheit beim Kauf einer AM5 Plattform zu frühen Zeiten. Man weiss nie, welche Chipsätze/Mainboards nun 100% kompatibel sind mit allen Zen6 Consumer Desktop-CPUs.
Man kann es sich auch schlecht reden. AM4 war in dieser Hinsicht bei weitem besser als alles, was es je von Intel gab und vieles, was wir vorher von AMD kannten und es spricht vieles dafür, dass es bei AM5 genauso wird.
Ich habe zwar keine komplette Übersicht, aber es dürfte Dir schwer fallen, mir AM4-Boards der ersten Generation (X370/B350/A320) zu nennen, die nicht noch nachträglich Unterstützung für Ryzen 3000/5000 gekriegt haben, wenn auch durch Streichung des Supports für Carrizo und Bristol Ridge, und ebenso auch für solche Boards der zweiten Generation (X470/B450), für eine MAX-Version mit größerem BIOS-ROM erschienen ist.
Intel fährt dagegen weiterhin eisern seine Zwei-Generationen-pro-Sockel-Strategie, die nun zum zweiten Mal zu scheitern scheint. Zum ersten Mal bei S.1150, wo Broadwell nur mit zwei unbeliebten CPUs erschienen ist und auch nur auf Z97/H97-Boards lief. Danach hat diese Strategie schon sehr merkwürdige Blüten getrieben, um Kunden zum Neukauf zu bewegen: S.1151-v2 und S.1200 waren komplett unnötig, Coffe Lake läuft mit BIOS-Mods auch gut auf S.1151 und Comet Lake war auch nur Coffe Lake-R mit mehr Kernen und hat die Neuerungen von S.1200 gar nicht genutzt, während Rocket Lake schon so ähnlich zu Alder Lake war, dass man gleich S.1700 hätte einführen können.
Nach Arrow Lake kommt offenbar für S.1851 nichts.
Aroas
2024-11-09, 12:05:32
Auch Aussagen die P Cores könnten kein AVX512 ist falsch, AVX wurde auf den P Cores deaktviert weil die Fertigung der E Cores das Problem ist.
Also können die P Cores in den Arrow Lake CPUs faktisch kein AVX512.
All zu viel Hoffnung auf einen großen Performance-Boost sollte man sich aber nicht machen, dafür fehlen im Gegensatz zum Fall "Zen 5" die sofort sichtbaren Performance-Bremsen.
Also aktuell gibt es wohl wesentlich mehr „sichtbare“ oder besser gesagt erwartbare Performancebremsen bei Intel.
Leonidas
2024-11-09, 12:55:48
Naja, bei Zen5 waren wir 15T nach Launch vom Erklärungsansatz her schon wesentlich weiter, hatten schon längst erste neue Benchmarks.
Tigerfox
2024-11-09, 13:34:42
Also aktuell gibt es wohl wesentlich mehr „sichtbare“ oder besser gesagt erwartbare Performancebremsen bei Intel.
Bei CB liegt der 9800X3D 38% vor dem 285K in Games. Das ist nicht mal ansatzweise durch Optimierungen aufholbar. Vielleicht kann man Arrow Lake ggü. Raptor Lake und den normalen Ryzen 9000 etwas besser dastehen lassen (in Anwendungen ist die Leistung ja ok), aber auch nicht so deutlich, dass sich für Besitzer einer S1700- oder AM5-Plattform Kaufanreize ergäben.
Bei CB liegt der 9800X3D 38% vor dem 285K in Games. Das ist nicht mal ansatzweise durch Optimierungen aufholbar.
Dagegen hilft nur eine Version mit Ramo-Cache oder mit L4-Cache im Base-Tile.
Vielleicht kann man Arrow Lake ggü. Raptor Lake und den normalen Ryzen 9000 etwas besser dastehen lassen (in Anwendungen ist die Leistung ja ok), aber...
Das wäre doch schon ausreichend, dass man endlich die Raptor Lake Generation hinter sich lassen kann. Aktuell kann man ja nicht mal für Intel Fanboys Arrow-Lake empfehlen, weil langsamer als Raptor Lake.
Das ist nicht mal ansatzweise durch optimierungen aufholbar.
Behauptet auch keiner.
Vielleicht kann man Arrow Lake ggü. Raptor Lake und den normalen Ryzen 9000 etwas besser dastehen lassen (in Anwendungen ist die Leistung ja ok),
Ich denke, das ist eine realistische Erwartung der Endperformance nach Beseitigung der Kinderkrankheiten, in etwa auf dem Niveau von Zen5 ohne extra Cache.
Klar wird man niemals in Software die stark vom großen Cache profitiert mithalten können wenn man diesen nicht hat, das kann gar nicht gehen.
Ich würde viel mehr erwarten, dass Intel selbst bereits an Produkten mit zusätzlichem Cache arbeitet, in welcher Form auch immer.
Aroas
2024-11-09, 15:51:38
... aber auch nicht so deutlich, dass sich für Besitzer einer S1700- oder AM5-Plattform Kaufanreize ergäben.
Es gibt so oder so nie wirklich große Kaufanreize für Besitzer der direkten Vorgängergeneration.
Ja, ein paar Enthusiasten wollen immer das neueste vom Neuen haben. Aber die große Masse kauft in viel größeren Abständen eine neue CPU.
Einzig für jene, die ihre Systeme produktiv einsetzen und somit von jedem Prozent Mehrleistung entsprechend finanziell profitieren können, lohnt sich der zeitnahe Umstieg auf die neuesten Produkte tatsächlich.
Scruffy
2024-11-09, 15:55:46
Also wurden nach der MF-Angabe gleich viele 285k wie 9800X3D verkauft ;)
Kein Inhalt, aber ich fand es lustig das so direkt hintereinander in der News zu lesen :D
ChaosTM
2024-11-09, 15:58:40
soviel rauschen.. ich hör fast nix
Die einzig relevante Neuigkeit ist, das Nvidia eine ARM based CPU bringen könnte.
X86/X64 ist der Dinosaurier, der nach dem Meteoriten Einschlag zwar immer noch herumläuft, aber keine Ahnung hat, dass er bald tot ist
soviel rauschen.. ich hör fast nix
Die einzig relevante Neuigkeit ist, das Nvidia eine ARM based CPU bringen könnte.
X86/X64 ist der Dinosaurier, der nach dem Meteoriten Einschlag zwar immer noch herumläuft, aber keine Ahnung hat, dass er bald tot ist
und mit arm basis werden die scheitern, windows on arm nutzt niemand weil es eben nicht x86 ist.
sollte nv sich lieber bei via einschleimen und denen so viel auf den tisch werfen wie sie brauchen um aus ihrer x86 lizenz was zu machen. hätte sicherlich größere chance auf erfolg.
allerdings geht die entwicklung bei via trotz kohle nicht so schnell wie bei mediatek, die nur bisherige ip neu verpacken müssen.
und lederjacke muss nächstes jahr wenigstens ankündigungen parat haben + via kennt ja seit 15 jahren niemand mehr mehr, der nicht selbst pc's geschraubt hat
Tigerfox
2024-11-09, 16:36:34
Dagegen hilft nur eine Version mit Ramo-Cache oder mit L4-Cache im Base-Tile.
Was ist Ramo-Cache?
Es gibt so oder so nie wirklich große Kaufanreize für Besitzer der direkten Vorgängergeneration.
Ja, ein paar Enthusiasten wollen immer das neueste vom Neuen haben. Aber die große Masse kauft in viel größeren Abständen eine neue CPU.
Ich hatte an diejenigen gedacht, die vielleicht nur eine kleine Alder Lake CPU gekauft haben. Ich habe auch in Eigenbau-affinen Foren oft den Eindruck, dass lieber gleich Board, CPU und RAM gleichzeitig getauscht werden, als nur die CPU aufzurüsten, gerade wenn es etwas neueres als die maximal aufrüstbare CPU gibt.
Also z.B. S.1200 mit i6-10600K oder B550 mit 3600 gekauft, aber statt auf 11900K bzw. 5800X3D aufzurüsten und den RAM auszutauschen, lieber gleich neues Board, neuer RAM und 12700K/900K bzw. Ryzen 7700X/7800X3D.
Halte ich nicht für logisch, ist aber mein Eindruck, vor allem, wenn am Board nicht viel hängt und es neben CPU und RAM nur 1-2 SSD und eine Graka aufnehmen können muss.
Wer jetzt aber ein Z690-Board hat, sollte lieber einen 14900K kaufen als einen 285K mit neuem Board.
Wobei man sagen muss, dass die Plattform noch das Beste an Arrow Lake ist. die zusätzlichen 4xPCIe5.0 und 2xTB4 in der CPU und komplett PCIe4.0 im PCH machen unheimlich was aus. AMD kann da praktisch nicht mithalten, vor allem wenn 4xPCIe5.0 von der CPU sinnlos für USB4 draufgehen.
bbott
2024-11-09, 16:47:02
X86/X64 ist der Dinosaurier, der nach dem Meteoriten Einschlag zwar immer noch herumläuft, aber keine Ahnung hat, dass er bald tot ist
Dann muss aber ARM zuerst sterben, ist nämlich älter und noch mehr Dinosaurier. Dazu bei weitem nicht so Abwärtskompatibel wie x86 :freak:
Also können die P Cores in den Arrow Lake CPUs faktisch kein AVX512.
Nein, die E-Cores können kein AVX. Man hat es deshalb deaktiviert. Ob Intel noch eine Möglichkeit sieht und es später doch freigibt, muss man abwarten. Ausgschlossen ist es nicht. Insgesamt ging es um Corelinearität im Computer Dice. Trotzdem könnte Intel diese Entscheidung mit einem Agesa aufheben.
Die Geschichte der Latenz auf dem Ringbus war nötig und jeder weiß das Ringbus für Games bisher immer besser war. Ich vermute das wegen fehlender Optimierung dadurch Leistung verloren geht. Da es keine Treiber im BS für CPU Leistung und Auswahl der Cores unter Spielen gibt, muss es M$ optimieren. Intel kann da gar nichts machen, genauso wie AMD da nichts machen konnte. Man muss also Intel auch die Zeit einräumen oder gewähren, die man wohlwollend anderen eingeräumt hat. Alles andere ist einfach Doppelmoral.
Von 3dcenter als Informationsquelle erwartet man mehr als stupides Geprolle.
Der 9800x3d kaschiert dieses Latenz Core Problem neuer Gens unter Windows nur, da er nur 8 Cores hat und AMD kommt jetzt mit dem Abschalten ganzer Corecomplexe bei CPUs die mehr haben. Daran sieht man einfach wie Microsoft agiert. Interessiert den Praktikanten beim zweit oder dritt wertvollsten Unternehmen der Welt nicht. Das hat schon was. Wahrscheinlich wurden die Mails von AMD und Intel längst gelöscht. Natürlich ohne sie zu lesen.:freak:
Aroas
2024-11-09, 17:54:55
Ich hatte an diejenigen gedacht, die vielleicht nur eine kleine Alder Lake CPU gekauft haben. Ich habe auch in Eigenbau-affinen Foren oft den Eindruck, dass lieber gleich Board, CPU und RAM gleichzeitig getauscht werden, als nur die CPU aufzurüsten, gerade wenn es etwas neueres als die maximal aufrüstbare CPU gibt.
Also z.B. S.1200 mit i6-10600K oder B550 mit 3600 gekauft, aber statt auf 11900K bzw. 5800X3D aufzurüsten und den RAM auszutauschen, lieber gleich neues Board, neuer RAM und 12700K/900K bzw. Ryzen 7700X/7800X3D.
Du sprachst eingangs von Upgrades von Sockel 1700 und AM5, nicht von 1200 und AM4.
Tigerfox
2024-11-09, 18:03:33
Du sprachst eingangs von Upgrades von Sockel 1700 und AM5, nicht von 1200 und AM4.
Die meinte ich auch, das Upgrade direkt von S1200/AM4 auf S1700/AM5 habe ich zum Vergleich herangezogen.
Ich habe den Eindruck, das Käufer, die bei einem neuen Sockel sofort zu Anfang zugeschlagen haben, in jedem Fall aber noch eine Generation als Upgrade für diesen Sockel haben, dieses Upgrade oft nicht nutzen sondern direkt beim nächsten Sockel komplett neu zuschlagen.
Dass also jemand mit Z790 und 14600K/700K/900K auf S1851 umsteigt, gäbe auch bei passablem Leistungssprung ohnehin nur bei absoluten Intel-Enthusiasten. Dass aber jemand mit Z690 und 12600K/700K/900K nicht erst auf 14900K upgraded, sondern direkt auf S1851, wäre meinem Eindruck nach durchaus üblich, in diesem Fall aber mal keine gute Idee, wenn man nicht explizit die Vorteile der Plattform nutzt.
Ich hatte an diejenigen gedacht, die vielleicht nur eine kleine Alder Lake CPU gekauft haben. Ich habe auch in Eigenbau-affinen Foren oft den Eindruck, dass lieber gleich Board, CPU und RAM gleichzeitig getauscht werden, als nur die CPU aufzurüsten, gerade wenn es etwas neueres als die maximal aufrüstbare CPU gibt.
Kommt drauf an. Ich habe mein B450 erst von einem 2600 auf einen 5700X aufgerüstet (incl. Ram Upgrade von 16GB 3000er auf 64GB 3600er). AM5 war mir zu teuer.
Wobei man sagen muss, dass die Plattform noch das Beste an Arrow Lake ist. die zusätzlichen 4xPCIe5.0 und 2xTB4 in der CPU und komplett PCIe4.0 im PCH machen unheimlich was aus. AMD kann da praktisch nicht mithalten, vor allem wenn 4xPCIe5.0 von der CPU sinnlos für USB4 draufgehen.
AMD hat aber auch 24 PCIe5 Lanes in der CPU, Intel bietet da nur 20. Selbst wenn 4 bei AMD wegfallen, haben sie immer noch so viele als Intel. Wobei TB4 für Intel durchaus ein Vorteil sein kann (vor allem in ein paar Jahren, wenn externe Geräte mit TB4 billig und verbreitet sind).
iamthebear
2024-11-09, 22:16:15
Der 265K ist relativ gut lieferbar und das ist auch das Modell das was P/L angeht am meisten Sinn macht (für non Gaming Rechner). ur der 285K is abwesend.
Das deutet für mich eher darauf hin, dass Intek den einfach nicht in den Mengen gebinnt bekommt.
3nm Kapazität sollte genug da sein. So groß ist der Highend Gaming Markt bzw. die Nachfrage nicht. Im Laptopmarkt hat man auch bloß Lunar Lake. Die große Menge dürfte dann eher Arrow Lake Laptop sein.
Was ist Ramo-Cache?
Rambo-Cache ist ein zusätzlicher Cache-Tile auf dem "Base-Die"
https://www.computerbase.de/2021-03/ponte-vecchio-intel-demonstriert-xpu-fuer-ai-und-exascale/
crnkoj
2024-11-10, 07:55:39
Ich frage mich auch warum Intel nicht einen 290k mit Rambo Cache oder adamntin fürs gaming ausgebracht hat. Die Technik haben sie wohl, so viel teurer wurde es auch nicht sein und die Latenzen wären dadurch so wie beim 3dvcache deutlich cachiert. Insbesondere wenn es der 512mb adamntin wäre...
Leonidas
2024-11-10, 09:04:06
Gedankliche Unbeweglichkeit in der Führungsetage? Vertrauen auf die eigenen Benchmark-Werte? Abschreiben des DIY-Geschäfts und Konzentration darauf, wo das große Geld liegt (OEM)?
Abschreiben des DIY-Geschäfts und Konzentration darauf, wo das große Geld liegt (OEM)?
Vielleicht wollte Intel im DIY-Geschäft noch ein Jahr lang Raptor Lakes an Gamer verkaufen. Zusätzlicher L4-Cache ist vielleicht für ein Arrow Lake Refresh im Jahr 2025 eingeplant?
Hätte ja auch ein Jahr lang funktionieren können, wenn Raptor Lake nicht diesen Bug gehabt hätte, aber das war zur Planungszeit noch nicht absehbar. Ohne den Bug von Raptor Lake, hätte man getrost noch ein Jahr Raptor Lake im DYI parallel zu Arrow Lake anbieten können, den der ist im Gaming nach wie vor Konkurrenzfähig zu Zen 5. Klar, gegen den X3D hätte man nichts, aber es gibt ja auch einen Markt für CPUs unter 500 Euro. Jetzt mit dem Totalausfall von Raptor Lake hat man weder bei 500 noch bei 300 Euro irgend etwas für Gamer anzubieten. Den Raptor Lake hat man zwar per Bios gefixt, aber dem Fix vertraut auch kaum jemand, nach dem Intel vorher so lange rumgetruckst hat.
Badesalz
2024-11-10, 09:52:45
Ich frage mich auch warum Intel nicht einen 290k mit Rambo Cache oder adamntin fürs gaming ausgebracht hat. Die Technik haben sie wohlHaben sie? Angeblich testen sie das seitdem 5800X3D raus ist...
NV hat eigene ARM-CPUs seitdem es Tegra gibt. Und auch für ihre MI300A Pendants. Wo ist hier die Sensation?
Jetzt gibt es für sie das Problem mit der Unsicherheit um Intel rum. Was sie sonst nutzen. Und AMD möchten sie von alleine auf keinen Fall nehmen :rolleyes: Sowas kommt dann eher von Supermicro & Co., aber nicht von NV selbst.
Und da Intel grad so garnicht abliefert und auch nicht klar ist wohin die Reise geht, brauchen NV eine Option für die Main-CPU auf den eigenen Nodes.
Das sind keine Rechenmonster, sondern extreme Datenschieber. So in etwa wie Frontier keine von der Stange, sondern einen Custom-Epyc bekam. Richtig?
Das ist erstmal alles dazu. Eine Restwahrscheinlichkeit, daß sie mal auf die Idee kommen könnten die Architektur bisschen zu ändern und sich direkt groß gegen x86 zu stellen, existiert aber. NVs Mittel sind aktuell immens.
Man darf das nicht nur aus der SoHo-Seite betrachten. Das große Geld liefern aktuell die Hyperscaler und die haben alle 3 ihre eigenen Arm-Architekturen am laufen (!)
Das ist für x86 keine gute Entwicklung und solange es Intel noch halbwegs gut ging konnte man an der Stelle auch nichts erreichen. Es gab entweder garkeine Sprechstunden im Olymp oder die Anliegen wurden bestenfalls großväterlich behandelt...
Nun geht es Intel aber glücklicherwiese endlich so schlecht, daß die x86 advisory group endlich möglich wurde.
Die x86-ISA wird jetzt enger abgesprochen und die größten Player auf der Softwareseite (also eben auch die Betriebssysteme) enger angebunden.
Es tauchen immer wieder einzelne Beispiele von realer Software auf die zeigen wieviel Perf/Watt Power in den moderneren x86-Ausführungen eigentlich steckt (nein, nicht nur ASM-Optimierungen für AVX).
Aktuell wird damit nur sorglos mit dürftigen Code gewuchert. An der ersten Stelle von Mickeysoft. Das soll sich nun nach und nach ändern.
Apple Silicon ist was es ist, weil da alles in einer Hand ist. Das ist, aus dieser Sicht betrachtet, perfekt. Prinzipbedingt beim x86 aber nicht möglich. Mit der advisory group versucht man nun sowas in der Art :wink:
(will das nicht raubkopieren also ein Link direkt nach istock)
https://www.istockphoto.com/de/foto/ihr-kreis-sollte-sein-was-sie-motiviert-gm883034398-245648996
In 5 bis 10 Jahren werden wir sagen können, ob es was gebracht hat. Falls die Welt die aktuellen Lagen überhaupt irgendwie übersteht.
Haben sie? Angeblich testen sie das seitdem 5800X3D raus ist...
Ja, haben sie. Siehe Ponte Vecchio. Arrow Lake ist aber die erste Generation für den Desktop, die nicht auf dem monolithischen Design aufbaut. Vor Arrow Lake hätte Intel das also im Desktop gar nicht bringen können, auch wenn Intel das schon seit Ponte Vecchio bei nicht monolithischen CPUs kann.
Badesalz
2024-11-10, 10:30:25
Vielleicht haben sie sich erstmal noch nicht getraut, weil sie sich Gedanken machten, ob das beim Arrow Lake nicht genauso erfolgreich sein wird wie beim Ponte Vecchio?
Vielleicht ist da aber wirklich schon für recht nah was in der Pipeline. 1851 wurde ja mit seiner Einführung auch gleichzeitig wieder für ausgelaufen erklärt.
MD_Enigma
2024-11-10, 10:50:07
und mit arm basis werden die scheitern, windows on arm nutzt niemand weil es eben nicht x86 ist.
Die Frage ist, was man als "scheitern" bezeichnet. Den Investoren wurden doch der Floh in den Kopf gesetzt, dass man mit ARM-Architektur x86-64 emulieren kann OHNE Performance-Verlust. Jetzt sind sie erstmal gleich schnell, sind aber weit weg von nativen Applikationen.
Scheitern wäre hier: ARM kann kein x86-64 so schnell wie ein Intel/AMD-Prozessor.
Ich sehe aber ARM schon am Ziel und kann gar nicht mehr schweitern. Schau dir den M1/M4 von Apple mal an. Ich werd mir fürs Büro mal so einen MacMini holen und vergleichen.
Badesalz
2024-11-10, 10:59:22
@MD_Enigma
Ja das wäre cool, wenn endlich jemand 7-zip oder blackmagic diskspeed test usw. auf beiden laufen lässt.
Das gibt es halt noch SEHR selten (auch u.a. was P/L angeht)
https://winfuture.de/news,143267.html
Tigerfox
2024-11-10, 14:18:32
Kommt drauf an. Ich habe mein B450 erst von einem 2600 auf einen 5700X aufgerüstet (incl. Ram Upgrade von 16GB 3000er auf 64GB 3600er). AM5 war mir zu teuer.
Hättest gleich mal auf den 5800X3D umsatteln sollen, auch wenn es vom 2600 zum 5700X auch ein ordentlicher Sprung gewesen sein wird,
AMD hat aber auch 24 PCIe5 Lanes in der CPU, Intel bietet da nur 20. Selbst wenn 4 bei AMD wegfallen, haben sie immer noch so viele als Intel. Wobei TB4 für Intel durchaus ein Vorteil sein kann (vor allem in ein paar Jahren, wenn externe Geräte mit TB4 billig und verbreitet sind).
CPU-seitig steht AMD auch immer noch wenigstens gleichwertig da, aber eben nicht mehr so überlegen wie ggü. S.1700. Aber Chipsatzseitig war Intel schon vorher besser und jetzt noch viel mehr.
Vorher konnte AMD theoretisch bei Verzicht auf eine Grafikkarte bis zu sechs Gen5-SSD anbinden, oder noch vier, wenn man eine Grafikkarte mit x8 angebunden hat, oder zwei bei voller Graka-Anbindung.
Intel konnte nur eine Gen4-SSD an die CPU anbinden, ohne die Graka einzuschränken und bei Anbindung der Graka mit x8 trotzdem nur ein Gen5-SSD, weil der PCIe-Controller der CPU so unflexibel ist und nur zwei Clients ansteuern kann.
Dummerweise wurde das bei AMD so gut wie nie umgesetzt, es gab nur ganz wenige Boards, die 2xM.2 Gen5 von der CPU unabhängig von der Graka umgesetzt haben, meistens war einer davon nur Gen4. Noch seltener gab es einen x8 oder x4-Slot, so dass man eine Graka und 2xM.2 per Adapter hätte betreiben können. Ich finde nur drei Boards, in denen man wirklich Grafikkarte und 4xM.2 Gen5 umsetzen kann: Das Asus X670 ProArt und ROG Hero und das MSI MPG X670E Carbon. Auf dem X870E ProArt und ROG Hero gehr das schon nicht mehr.
M.2 Gen4 kann bei AMD dagegen eigentlich nur einer sinnvoll über den PCH angebunden werden, weil die ja alle über den Flaschenhals mit Gen4x4 an die CPU angebunden sind. Beim X670E und X870E kann man natürlich einen zweiten M.2 an den zweiten Promotory21 anbinden, mit viel Lane-Sharing vielleicht sogar einen dritten, aber das ist reichlich sinnlos.
Wenn man sich nun die Situation bei X870(E) ansieht, dann fehlen die 4 Lanes von der CPU echt. Es gibt stets nur einen unabhängigen M.2 von der CPU, aber viel häufiger 1-2 M.2, die sich die Lanes mit dem x16 teilen. X870-Boards haben meist nur noch einen weiteren PCIe-Slot und einen M.2, wenn sie nicht so einen Unsinn machen wie mechanische x16-Slots, die nur mit Gen4x1 oder x2 oder Gen3 angebunden sind.
Bei S.1851 ist es zwar immer noch doof, dass der x16-Slot nur in 2x8 aufgeteilt werden kann und nicht in x8/x4/x4, aber da es jetzt 4xGen5 zusätzlich gibt und 2xTB4 in die CPU integriert ist, steht man kaum schlechter da als AMD. Der einzige Unterschied ist nun, dass man an der CPU 1x Gen4x4 statt Gen5x4 hat und ohne Grafikkarte nur vier statt sechs SSD anbinden könnte, aber mit Grafikkarte auch bis zu drei.
Dafür ist der Z890 mit Gen4x8 angebunden und hat auch die PCIe-Lanes, um deutlich mehr Slots bereit zu stellen. Vor allem ist man jetzt Gen4-only.
Da die Meisten nur eine Graka und 1-2 M.2 verbauen und weder USB4 noch TB4 nutzen, ist das natürlich nicht kriegsentscheidend, aber für die nächste Mainboardgeneration muss AMD sich echt mal was einfallen lassen und auf jeden Fall USB4 endlich in die CPU integrieren, was ja bei Phoenix schon der Fall ist (was übrigens auch nur von genau einem Mainboard genutzt werden kann. Einfach eine dämliche Idee, so völlig unterschiedliche CPUs auf einen Sockel zu bringen).
Ich frage mich auch warum Intel nicht einen 290k mit Rambo Cache oder adamntin fürs gaming ausgebracht hat.
Entwicklung braucht Zeit, man kann nicht alles gleichzeitig fertigstellen, die 3D-Cache Varianten von AMD kamen auch immer deutlich später, Zen5 ist jetzt eher eine Ausnahme, aber man ist immerhin schon in der 3. Generation da dürfte die Entwicklung dann schon deutlich schneller gehen.
Lehdro
2024-11-10, 15:11:45
Ja, haben sie. Siehe Ponte Vecchio. Arrow Lake ist aber die erste Generation für den Desktop, die nicht auf dem monolithischen Design aufbaut. Vor Arrow Lake hätte Intel das also im Desktop gar nicht bringen können, auch wenn Intel das schon seit Ponte Vecchio bei nicht monolithischen CPUs kann.
Du brauchst keinen nicht monolithischen Ansatz für 3D stacked Cache, das ist absoluter Blödsinn. Theoretisch hättest du schon bei Zen 1 Cache stapeln können, ebenso bei RPL-S (allerdings mit gewaltig geschrumpftem thermischen Fenster).
Die Technik (hybrid bonding) kannst du bei TSMC einfach dazubuchen und das Chiplayout (Wo liegt der Cache? Wo kommt das Cachetile hin?) und die dafür notwendigen TSVs liegen rein am Design des Chips, welches du selbst kontrollieren kannst, wenn du vorher an diese Option denkst.
Jetzt schauen wir mal wo Intel ARL-S produzieren lässt - TSMC. Aha. Daran liegt es also schon einmal nicht.
Ich würde mal simpel darauf wetten das Intel "3D" mit dem Interposer nur dazu nutzt um mehr Tiles auf "2D" Fläche unterzubringen. Cache baut aber sinnvoller weise 3D auf dem Cacheareal der Kerne auf, also eher keine Option das "nebendran" in 2D unterzubringen. Das 3D Sandwich von Interposer -> Tile -> Cachetile mag man wohl nicht bringen, da man dann zu viel weiteres Silizium braucht um den Höhenunterschied des Tiles auszugleichen -> Aufwand. Oder es würde viel mehr Bearbeitungsschritte vorraussetzen, denn auch das ist lösbar: AMD bringt auch zwei unterschiedliche große Chiplets unter dieselbe Haube, denn man schleift das Chiplet mit dem Cachechiplet einfach soweit ab, dass man mit allen Schichten wieder auf dem Niveau des non-3D V-Cache Chiplets landet (Beispiel: 7950X3D). Intel bringt das nicht weil man gepennt hat, die Kosten scheut und dachte wahrscheinlich dass man auch so mithalten kann. Halt einfach Arroganz, ist jetzt bei denen nichts neues. Kennt man seit dem allerersten Zen/EPYC. Intel wurde einfach überrascht (3D V-Cache ist "erst" über zwei Jahre alt) und hat das bei ADL/RPL schulterzuckend abgetan als "eh", "wir sind auch ohne schnell genug". Und jetzt malt der Stift in der Buchse...
Dummerweise wurde das bei AMD so gut wie nie umgesetzt, es gab nur ganz wenige Boards, die 2xM.2 Gen5 von der CPU unabhängig von der Graka umgesetzt haben, meistens war einer davon nur Gen4.
Gen5 PCIe ist aktuell auch ziemlich sinnlos, Gen4 ist mehr als ausreichend.
Es kommen gerade erstmal SSDs mit einem Controller mit dem man Gen5 überhaupt vernünftig verwenden kann.
Das einzige wofür Gen5 Sinnvoll wäre, wäre mehr SSDs mit weniger Lanes anzubinden und immer noch gleich schnell zu sein, macht leider nur niemand.
Du brauchst keinen nicht monolithischen Ansatz für 3D stacked Cache, das ist absoluter Blödsinn.
3D stacked Cache IST ein nicht monolithischer Ansatz.
Badesalz
2024-11-11, 06:43:48
3D stacked Cache IST ein nicht monolithischer Ansatz.Wahrscheinlich meitne er, der ganze Rest kann dafür auch monolithisch sein :up:
Wahrscheinlich meitne er, der ganze Rest kann dafür auch monolithisch sein :up:
So ein bisschen schwanger.
Entweder ist ein Design monolithisch oder es ist nicht monolithisch.
Man kann auch viel Cache monolithisch fertigen, die Stacked Fertigung ist „nur“ eine Kostenoptimierungsmaßnahme, keine Notwendigkeit.
Lehdro
2024-11-11, 15:04:30
3D stacked Cache IST ein nicht monolithischer Ansatz.
Aber die Basis muss nicht monolithisch sein und genau darum ging es. Die Aussage war: "Vor Arrow Lake hätte Intel das also im Desktop gar nicht bringen können".
Wahrscheinlich meitne er, der ganze Rest kann dafür auch monolithisch sein :up:
Korrekt.
So ein bisschen schwanger.
Entweder ist ein Design monolithisch oder es ist nicht monolithisch.
Wenn ich den monolithischen Chip auch ohne das Cache Teil oben drauf verkaufen könnte, ist er eben monolithisch. Mit extra Cache eben nicht mehr. Deswegen redete ich vom Ansatz, nicht vom Endprodukt. Also ja, ein bisschen Schwanger.
Vielleicht kommt noch der 280K unterhalb des 285K, so wie beim 10850K unterhalb des 10900K weil es vielleicht doch schwieriger als gedacht ist, genügend Dies mit entsprechendem Takt/Spannungsverhalten selektieren zu können.
Gerade das Argument der gestiegenen Effizienz bzw. niedriger(er) Verbrauch war ja wichtig für Arrow Lake, ansonsten wurde ja nicht viel gelobt.
Für den Launch reichten ja ein paar "Golden Samples" aus, später kann man ja dann das einfacher zu selektierende Modell veröffentlichen, das "der Markt so gefordert hat", die es beim 10850K hieß...
Badesalz
2024-11-14, 11:14:58
@NOFX
Meinst du die Existenz eines 280k bei gleichbleibender Verfügbarkeit von 285k würde für Intel etwas positives bedeuten, wenn die Leute umgehend anfangen darüber zu reden, daß auch jetzt wo TSMC mithilft Intel die eigenen Prozesse offensichtlich nicht im Griff hat und nun kaputte 280k rausbringt?
Ich weiß nicht...
@NOFX
Meinst du die Existenz eines 280k bei gleichbleibender Verfügbarkeit von 285k würde für Intel etwas positives bedeuten, wenn die Leute umgehend anfangen darüber zu reden, daß auch jetzt wo TSMC mithilft Intel die eigenen Prozesse offensichtlich nicht im Griff hat und nun kaputte 280k rausbringt?
Ich weiß nicht...Beim 10850K hat es ja auch nicht gestört.
Und wenn es der Verfügbarkeit hilft, auf die letzten 100-200 MHz zu verzichten und zusätzlich dabei ein paar Euro zu sparen, würde es wohl eher positiv aufgenommen.
Es stammt doch eh nichts wichtiges mehr aus Silizium aus eigenem Hause beim Arrow Lake.
Badesalz
2024-11-14, 11:46:15
Beim 10850K hat es ja auch nicht gestört.Da waren die höheren Modelle trotzdem nicht SO knapp und ich meine, da hat Intel auch noch halbwegs geliefert.
Die Grundeinstellungen des Consumers war also noch anders. Richtig?
edit:
Ich bin jetzt seit Wochen in den Themen unterwegs und für mich bist du der erste der vom 280k spricht :) Ich weiß nicht wie die Forderung des Marktes so ist... Alle außer Zocker und paar Einzellfälle haben mit den vorherigen xx700er Leistung satt. Ichw eiß nicht, ob die nun scharf drauf sind Kohle nur für die Effizienz auszugeben, dabei aber automatisch auf tote Bretter zu setzen.
Das erscheint mir alles finanziell nicht besonders attraktiv.
Da waren die höheren Modelle trotzdem nicht SO knapp und ich meine, da hat Intel auch noch halbwegs geliefert.
Die Grundeinstellungen des Consumers war also noch anders. Richtig?
edit:
Ich bin jetzt seit Wochen in den Themen unterwegs und für mich bist du der erste der vom 280k spricht :) Ich weiß nicht wie die Forderung des Marktes so ist... Alle außer Zocker und paar Einzellfälle haben mit den vorherigen xx700er Leistung satt. Ichw eiß nicht, ob die nun scharf drauf sind Kohle nur für die Effizienz auszugeben, dabei aber automatisch auf tote Bretter zu setzen.
Das erscheint mir alles finanziell nicht besonders attraktiv.Der 10900K war auch sehr schlecht verfügbar in der Zeit nach dem Launch aber zumindest an diesem ganz gut verfügbar, wenn ich mich recht entsinne.
Der 280K ist auch nur meinem Hirn entsprungen und ist nichts, wo ich auch nur irgendwo etwas drüber gelesen habe. Wäre auch nur eine Möglichkeit dem Problem zu begegnen, grundsätzlich mangelt es ja offenbar nicht an Dies, nur an passenden für den 285K, wie man am 245K und 265K sieht. Das kann an defekten Kernen liegen oder eben an nicht erreichten Taktraten liegen.
Badesalz
2024-11-14, 12:33:37
Das kann an defekten Kernen liegen oder eben an nicht erreichten Taktraten liegen.Ich glaub genau deswegen werden sie das nicht machen. Wäre nur ein Beweis, daß sie es immernoch nicht gebacken bekommen.
Ich glaub genau deswegen werden sie das nicht machen. Wäre nur ein Beweis, daß sie es immernoch nicht gebacken bekommen.
In dem Fall würde es TSMC nicht gebacken bekommen.
Leonidas
2024-11-15, 03:26:28
Allerdings kann man sagen, dass TSMC sich in solchen Situationen regelmäßig fängt. Sprich: In 1-3 Monaten wäre die Fertigung dann gut genug, dass es ausreichend 285K geben kann. Dafür lohnt dann ein hypothetischer 280K nicht.
Freestaler
2024-11-15, 06:53:35
Frage für mich auch, ob das Chipdesgin zum fertiger passt oder Intel hier schlicht mehr auf die eigene Erfahrung mit ihrer fertigung setzen musste als mit TSMC? Darum evtl mehr Ausschuss als andere, welche bereits länger bei TSMC fertigen?
Leonidas
2024-11-15, 09:00:34
Auch das ist eine gute Erklärung. TSCM hat bisher kaum für Intel gearbeitet, dabei selten für Compute-Dies und noch nie für Compute-Dies für den Desktop. Da fehlt wohl (noch) die Erfahrung, die letzten 100-200 MHz herauszuholen.
Frage für mich auch, ob das Chipdesgin zum fertiger passt oder Intel hier schlicht mehr auf die eigene Erfahrung mit ihrer fertigung setzen musste als mit TSMC?
Angeblich war eine der Lehren aus dem 10nm Desaster, dass man Designs eben nicht mehr an den Prozess anpasst.
Darum evtl mehr Ausschuss als andere, welche bereits länger bei TSMC fertigen?
Ich kenne außer Apple niemanden der mit TSMC 3nm ausreichend Erfahrung hätte.
Lehdro
2024-11-15, 11:37:35
In dem Fall würde es TSMC nicht gebacken bekommen.
Nö, das ist dann ein Binning Problem von Intel. Intel kauft wahrscheinlich einfach ganze Wafer von TSMC, was die dann daraus machen und welche Yield (nicht bezogen auf Funktionsfähigkeit, sondern erzielbare Taktraten für potenzielle 285K) sie selber erzielen, ist deren Bier. Man hätte den 285K auch einfach mit 100-200 MHz weniger als "280K" anbieten können und 3 Monate nach Release und MIT gefixtem Scheduling/Microcode/OS Updates einen leicht beschleunigten "285K" in den Markt drücken können. Aber Intel hat halt zu hoch gepokert und erreicht die Binningziele (noch) nicht in ausreichender Stückzahl. Analog dazu einfach mal schauen wie Intel das sonst mit den "KS" machte.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.