Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 14. Mai 2024
Leonidas
2024-05-15, 06:53:42
Link zur News:
https://www.3dcenter.org/news/news-des-14-mai-2024
Altehardware
2024-05-15, 09:40:04
wieso nutz nvidia nicht die chance und refreshed die rtx4070 super und gibt der sku 16gb vram
Und wieso nutzt nvidia nicht die chance den ad104 mit 42sm als rtx4060ti super zu launchen mit 12gb
Das würde deutlich den Markt verbessern oder den ad106 als rtx4060 super mit 30sm und 20gbps vram
auch die Möglichkeit den ad106 mit 36sm und 20gbps auszurüsten als rtx4060ti super das würde den Flaschenhals der kleinen sku deutlich lösen.
Alternativ die preise der rtx4060 auf 230€ rtx4060ti 8gb 290€ und rtx4060ti 16gb auf 350€
Und die rtx4070 super mit 16gb wäre quasi ideal bei 650€
nvidia wird noch lange volle Lager haben wenn man so zögerlich an den Hohen asp Festhält. was primär an dem miserablen Angebot bis 550€ liegt
Das schlimme ist das diese Sku für 1080p ideal ist und 1440p grenzwertig wegen des zu kleinen vrams
Der entry markt leider wahr das ne rtx4070 entry ist war mal bei 100€ 2008 inflation bereinigt wäre das heute 140€
Wird zeit für neues und leider sieht rtx5060 auch schlecht aus wenn das zutrifft was gemunkelt wird.
Da hat man genug vram aber nicht genug Leistung (rtx5060 28sm 12gb 336gb/s vermutl 450€)
Da ich die sku erst q2 2025 erwarte wenn zuvor nicht deutlich die preise fallen.
Wird zeit das die Medien klar machen das aktuell keine gpu unterhalb der rtx4070/rx7900gre für FHD ausreichend perf hat.
Apropos rtx4070 1080p entry nativ raster sowie dxr neue games 2024 zwischen 60-80fps bei 20tf
Dass ist das Problem aktuell
Leonidas
2024-05-15, 10:06:53
wieso nutz nvidia nicht die chance und refreshed die rtx4070 super und gibt der sku 16gb vram
Und wieso nutzt nvidia nicht die chance den ad104 mit 42sm als rtx4060ti super zu launchen mit 12gb
NV muß das nicht tun, man verkauft auch so gut.
nvidia wird noch lange volle Lager haben wenn man so zögerlich an den Hohen asp Festhält.
Wer sagt, das NV wirklich hohe Lagerware hat? Ich denke, die können das ganz gut kalkulieren. Und bei einer langlaufenden Serie reduziert man einfach die Chipfertigung, wenn man zu hohe Lagerbestände hat. Nach ein paar Monaten hat sich das ganz natürlich ausgeglichen.
Wird zeit für neues und leider sieht rtx5060 auch schlecht aus wenn das zutrifft was gemunkelt wird.
Da hat man genug vram aber nicht genug Leistung (rtx5060 28sm 12gb 336gb/s vermutl 450€)
Wer munkelt so etwas? Bei dieser SM-Größe ist die Basis GB206. Damit gibt es höchstwahrscheinlich ein 128-Bit-Interface und 8 GB VRAM.
All dieses Geschrei um Intel, dabei verliert man zwischen 0,5 und 6,9%, bei zugleich 11% schlechterer Effizienz....
Und die Effizienz wird ja disproprotional besser je niedriger man mit den Werten zu dem imaginären baseline Profil geht.
Legendenkiller
2024-05-15, 10:34:23
...
Wird zeit das die Medien klar machen das aktuell keine gpu unterhalb der rtx4070/rx7900gre für FHD ausreichend perf hat.
Apropos rtx4070 1080p entry nativ raster sowie dxr neue games 2024 zwischen 60-80fps bei 20tf
Dass ist das Problem aktuell
Das ist dein Problem aktuell, was du imo unzulässig, verallgemeinerst als wenn es für alle eine Problem wäre.
Nur um mal zu zeign auf wasso typisch gezockt wird.
Steam Grafikakten aprill 2024: die Top Grafikarten mit den typisch gezockt wird.
NVIDIA GeForce RTX 3060 5.55%
NVIDIA GeForce GTX 1650 4.20%
NVIDIA GeForce RTX 3060 Ti 3.59%
NVIDIA GeForce RTX 2060 3.50%
NVIDIA GeForce GTX 1060 3.39%
NVIDIA GeForce RTX 3070 3.38%
NVIDIA GeForce RTX 3060 Laptop GPU 3.35%
NVIDIA GeForce RTX 4060 Laptop GPU 2.77%
NVIDIA GeForce RTX 3050 2.67%
NVIDIA GeForce GTX 1050 Ti 2.40%
NVIDIA GeForce RTX 4060 2.33%
NVIDIA GeForce GTX 1660 SUPER 2.19%
NVIDIA GeForce RTX 4070 2.14%
NVIDIA GeForce RTX 3080 2.13%
Eine 1050ti liegt noch vor der 4070, nur um mal die Realität zu zeigen.
PS: ich spiele mit eine 4070 auf ein 4k Monitor was problemlos geht. Klar nicht mit max,max,ultra aber in durchweg hohen Settings oft auch mit 100FPS.
Altehardware
2024-05-15, 11:31:26
Es ging um die Spiel Anforderungen was sich verkauft ist primär den GPu kosten zuzuschreiben
Zu den Gerüchten nvidia ändert die sm Anzahl in den gpc von 12 auf 16
der gb207 hat 1tpc =2gpc a16smn =32sm vermutlich sf4x node zwischen 2,1-2,4ghz Takt ich rechne mit 2,25ghz und eine geänderte ipc da dual issue angewendet wird. folglich 2,5*88*2,25*28 =13,8tf bzw nvidia Sprech 32tf
real ist das etwa rtx3060ti perf mit 12gb gddr7 vram an 96bit =336gb/s vs der rtx4060ti 8gb sind das +3%
Die wird aber vs der rtx4060 verglichen was dann +36% ist
Diese sind die letzten Gerüchte und dürften zu 90% stimmen da diese idee ein mcm design begünstigt das dann mit rtx70 eingeführt wird in sf3x node bzw tsmc n2 node
da gehe ich von 64sm per gpu tile aus und bis zu 4 tiles verbunden werden.
Diese sitzen wie bei blackwell design zu sehen ist auf nen aktiven interposer in n6 node inkludiert sram und imc
Dafür ist zwingend backside pd notwendig weswegen erst mit n2 umgesetzt werden kann.
Demzufolge wird man blackwell auf n3 portieren bzw samsung sf3 node gaafet
Das werde die letzten Monolithen bei nvidia
Die anderen Ideen haben sich damit erledigt es wäre schön gewesen wenn blackwel, wie hopper auf min 192alu per sm gekommen wäre
So aber erhöht man lediglich die ipc per sm was nur marginal die perf steigert eventuell hat das gründe bei der Effizienz
MCM stand schon klar das es kommen wird das es so früh kommt hätte ich aber nicht gedacht womit dann 2027 die ersten nvidia Consumer high end mcm gpu sehen werden
Eventuell geht man sogar den Takt Weg konsequenter und wäre mit mcm bei 4,3ghz in n2 node aber das würde neue tbp Regionen bedeuten kein gpu unterhalb von 250w sind somit sicher und das maxed dürfte dann bei 500w sein.
bsp
gx202 256sm 4,3ghz 500w (titan profi) 4 tile 512bit
gx203 192sm 4,3ghz 375w (90 80 ) 3tile 384bit
gx205 128sm 4,3ghz 250w (70ti 70) 2tile 256bit
kein low end mehr und der refresh 2028 in n2x mit doppelten tiles
...Sehr guter Inhalt aber extrem schwierig zu lesen. Hier mal in aufgehübscht:
Die Verkaufszahlen von Spielen sind in erster Linie auf die Kosten der GPUs zurückzuführen.
Gerüchte über Nvidias GPU-Änderungen
Aktuell kursieren Gerüchte, dass Nvidia die Anzahl der Streaming-Multiprozessoren (SM) in den Graphics Processing Clusters (GPC) von 12 auf 16 erhöhen wird. Der GB207-Chip soll ein neues Design aufweisen, bei dem ein Texture Processing Cluster (TPC) zwei GPCs enthält, was zu insgesamt 32 SMs führt. Vermutlich wird dieser Chip auf einem SF4X-Knoten laufen, mit einer Taktrate zwischen 2,1 und 2,4 GHz. Ich rechne mit einer Taktrate von 2,25 GHz und einer verbesserten IPC (Instructions Per Cycle) durch die Anwendung von Dual Issue. Folglich ergibt sich eine Rechenleistung von 2,5 * 88 * 2,25 * 28 = 13,8 TFLOPS, was Nvidia-intern als 32 TFLOPS vermarktet wird.
Leistung im Vergleich
Diese Konfiguration würde in etwa der Leistung einer RTX 3060 Ti mit 12 GB GDDR7 VRAM bei einer Bandbreite von 336 GB/s (96-bit) entsprechen, was im Vergleich zur RTX 4060 Ti mit 8 GB VRAM einen Leistungszuwachs von etwa 3% bedeutet. Verglichen mit der RTX 4060 ergibt sich sogar ein Leistungszuwachs von etwa 36%.
Zukünftige Entwicklungen und Designänderungen
Diese Gerüchte haben eine hohe Wahrscheinlichkeit von 90%, da sie ein Multi-Chip-Module (MCM)-Design begünstigen, welches mit der RTX 70-Serie auf einem SF3X-Knoten oder TSMC N2-Knoten eingeführt werden könnte. Es wird angenommen, dass pro GPU-Tile 64 SMs vorhanden sein werden und bis zu vier Tiles miteinander verbunden werden können. Diese Tiles werden, wie im Blackwell-Design zu sehen, auf einem aktiven Interposer in einem N6-Knoten mit integriertem SRAM und IMC platziert. Dafür ist eine Backside-PD notwendig, weshalb dies erst mit dem N2-Knoten realisiert werden kann.
Übergang zu MCM-Designs
Daher wird erwartet, dass Nvidia Blackwell auf den N3-Knoten oder Samsungs SF3-Knoten portieren wird. Dies werden die letzten monolithischen Designs von Nvidia sein.
Effizienz und Leistung
Obwohl es wünschenswert gewesen wäre, dass Blackwell, ähnlich wie Hopper, mindestens 192 ALUs pro SM erreicht, steigert Nvidia lediglich die IPC pro SM, was die Leistung nur marginal erhöht. Möglicherweise liegt dies an Effizienzgründen. Die Einführung von MCM war abzusehen, jedoch nicht so früh. Es wird erwartet, dass die ersten Nvidia-Consumer-High-End-MCM-GPUs 2027 erscheinen werden. Nvidia könnte zudem den Takt weiter erhöhen und mit MCM auf dem N2-Knoten bis zu 4,3 GHz erreichen, was jedoch eine neue TBP-Region bedeutet und GPUs mit einer Leistungsaufnahme von mindestens 250 W bis zu 500 W zur Folge hätte.
Beispiele für zukünftige GPU-Modelle
GX202: 256 SMs, 4,3 GHz, 500 W (Titan Profi, 4 Tiles, 512-bit)
GX203: 192 SMs, 4,3 GHz, 375 W (90/80 Serie, 3 Tiles, 384-bit)
GX205: 128 SMs, 4,3 GHz, 250 W (70 Ti/70 Serie, 2 Tiles, 256-bit)
Low-End-Modelle werden voraussichtlich nicht mehr angeboten. Ein Refresh in 2028 könnte mit doppelter Anzahl an Tiles auf dem N2X-Knoten erfolgen.
Dieser Überblick zeigt die möglichen Entwicklungen und strategischen Entscheidungen von Nvidia für die kommenden Jahre im Bereich der GPU-Architektur und -Leistung.
Gastanjette
2024-05-15, 13:29:36
natürlich hat Nvidia noch jede Menge alte GPUs auf Halde.
Selbst hier in D muss man nur schauen welche GPU Modelle noch immer bei mehr als 3 Händlern lagernd sind und zu welchem Preis.
Die schaffen das nicht mal wie früher die eigentlichen EOL Reste einfach in China in den Markt abzusetzen. Die älteren GPUs sind mit aktuellen und bald kommenden iGPUs APUs hier in D aber nur noch an technische Noobs zu verkloppen.
Also an einen "TAM" von mehreren Millionen Leuten. ;)
MfG
Raff
Altehardware schreibt das es zur Realisierung Backsider Power Delivery benötigt.
Da wird nichts mit Backside Power Delivery; selbst Ende 2026 mit der Desktop RTX 6000 nicht.
Wohl erst Ende 2028 mit RTX 7000.
Oder schreibt Altehardware hier von der Fertigung bei Samsung Semiconductor Global?
https://www.tomshardware.com/tech-industry/tsmcs-2nm-nodes-get-nanoflex-n2p-loses-backside-power-delivery
N2 und nun auch 2te-Generation N2P ohne Backside Power Delivery.
Was auch weiterhin nicht oft genug erwähnt wird ist dies hier https://www.trendforce.com/news/2024/04/15/news-tsmc-reportedly-accelerates-2nm-progress-with-kaohsiung-plant-rumored-to-commence-first-tool-in-by-year-end
Selbst Apple ist die erste Generation N2 zu teuer, obwohl nur winzige Chips gefertigt werden.
Trendforce prognostiziert deutlich dass der monatliche Waferausschuss in 2027 nur 110 - 120k betragen wird. Das reicht vorne und hinten nicht um die ganze Industrie zu bedienen.
Apple Iphones 2026 = TSMC N3P (oder was auch immer).
Erst Apples Ende 2026 Iphone Erscheinung (also der Verkauf und Konkurrenz mit dem Rest der Smartphone Industrie in 2027) = tsmc N2.
Zen 6, RTX 6000 alles weiterhin bei tsmc N3P/X.
Wahrscheinlich auch noch Zen 7 in Q4 2027/Q1 2028.
Oder wechseln nun viele Firmen zu Samsung Semiconductor Global?
Platos
2024-05-15, 13:59:42
Ich finde das schon Interessant, dass das bei den Intel CPUs dann doch so viel Perfomance ausmacht. Bisher haben doch eig. eher immer alle Tests dafür gesprochen, dass man kaum Perfomance verliert, wenn man die Powerlimits entsprechend runter setzt.
Früher (Alderlake z.B) gabs doch viele Tests, die z.B kaum noch einen Perfomanceanstieg zwischen z.B 120W und alles darüber gezeigt haben beim Flagschiff.
Wobei man bei Cinebench sowieso aufpassen muss. Der dauert ja nur kurz, also testet man da gegebenfalls ein Grossteil des Benches mit PL2. Gilt eig. für alle kurzen Benches.
OpenVMSwartoll
2024-05-15, 14:13:58
Hängt sehr vom jeweiligen Workload ab, wie groß die Differenz ist.
Leonidas
2024-05-15, 14:47:49
Gerüchte über Nvidias GPU-Änderungen
Alles schön und gut. Nur bewegt es sich meilenweit von vorhandenen und vergleichsweise soliden Leaks entfernt. Der Text sieht zudem wie von einer KI (oder einem Kind) geschrieben aus.
natürlich hat Nvidia noch jede Menge alte GPUs auf Halde.
Und Du bist Dir sicher, dass seit vielen Quartalen niemand bei nVidia die eMail-Adresse von TSMC findet, womit man diese zu viel hergestellten Chips abbestellen kann?
Sorry, aber das ist doch schwer unwahrscheinlich. Viel eher wahrscheinlich ist, dass NV jene Chip weiterhin produziert hat, weil es noch Nachfrage gab bzw. weil das eigene Produkt-Portfolio jene weiterhin benötigt. Es ist völlig normal, das am unteren Ende die Chips Ewigkeiten mitgeschleppt werden. Mit Fehlplanung hat das nix zu tun.
Platos
2024-05-15, 17:18:04
Hängt sehr vom jeweiligen Workload ab, wie groß die Differenz ist.
Mag sein, aber mich hätte jetzt noch die Taktrate interessiert. Wenn ein höheres PL zu mehr Perfomance führt, müsste ja eig. der Takt niedriger sein bzw. nicht gehalten werden können.
Edit: Ja, Igor misst beim Cinebench auch die Taktrate. Und siehe da, die Taktrate ist natürlich auch deutlich höher.
Die Effizienz beim Rendern ist aber erwartungsgemäss sehr schlecht bei den höheren Profilen. Man kriegt ein bisschen mehr Perfomance, muss dafür aber extrem viel Strom aufwenden. Gerade in solchen Szenarien ist Zeit meistens weniger wichtig wie Stromverbrauch (zumindest, wenn man wirtschaftlich denkt).
Von daher: Solche "Über-Profile" würde ich sowieso nicht fahren wollen. UV + Overclocking und nicht so extreme Limits und dann hat man ne effiziente CPU.
MiamiNice
2024-05-15, 17:40:34
Diese "Über-Profile", wie Du sie nennst, sind nicht zum arbeiten gedacht. An sich ist die ganze Z Plattform nicht zum arbeiten gedacht. Deren Zweck ist ausschließlich OC im Endkunden Umfeld. Effizienz ist auch so ein Wort, welches nicht zu dieser Plattform gehört.
Bisher haben doch eig. eher immer alle Tests dafür gesprochen, dass man kaum Perfomance verliert, wenn man die Powerlimits entsprechend runter setzt.
Früher (Alderlake z.B) gabs doch viele Tests, die z.B kaum noch einen Perfomanceanstieg zwischen z.B 120W und alles darüber gezeigt haben beim Flagschiff.
Also bei Computerbase war beim Test des 12900k der Unterschied in Blender zwischen 241W und 125W ca. 15% längere Laufzeit (kann man aus dem Diagramm nicht exakt ablesen). Das entspricht schon grob dem von Igor gemessenen. Eigentlich sind die 15% Unterschied ja auch ein Witz, bei fast halbiertem Verbrauch.
Beim 13900k Test geht es dann auch im Multicore-Test von 253W = 100% auf 142W = 87% und 125W = 83% runter. Daher finde ich Igor's Werte jetzt nicht überraschend.
Platos
2024-05-15, 18:24:37
Die Plattform bietet mehr als nur OC-Eigenschaften. Also nein, es ist nicht nur für OC gedacht.
Abgesehen davon kann man damit auch Undervolting machen. Und von daher passt effizienz sehr gut da rein.
Alles schön und gut. Nur bewegt es sich meilenweit von vorhandenen und vergleichsweise soliden Leaks entfernt. Der Text sieht zudem wie von einer KI (oder einem Kind) geschrieben aus.Jupp, war der Text von Altehardware per KI in lesbarer verwandelt, da ich den Inhalt interessant fand aber einfach nicht durchgestiegen bin. Am Inhalt habe ich nichts geändert...
Normalerweise müsste man so ein System oder so eine CPU seitbes Intel zurückgeben können, wenn die versprochene Leistung fehlt. Immerhin hatte Intel PL1 und PL2 max auf den gleichen Wert festgelegt, dort dürfte nun mit geringerer Leistungsaufnahme und oder nicht haltbaren Taktraten bei zu schnell steigender Alterung die Leistung fehlen. Das ist doch klar Betrug wenn man davon ausgeht das Hardware zumindest über einen Zeitraum von 5 Jahren oder dem der Garantie gleichbleibende Leistung abliefern sollte.
Sollte sich das bei dergleichen Tests herauskristallisieren hat Intel ein Problem. Vor allem bei konfigurierbaren Fertig PC deren Leistungsvermögen und Leistungsvetsprechen ja Teil Absatzgeschäfts ist siehe Caseking usw. Wo diese Dinger dann auch noch zu Mondpreisen verkauft werden.
Da bin ich echt gespannt, wie man das dann regulieren will. Auf einmal hat man dann nicht mehr die mit Aufpreis teuer bezahlte enthusiaste Gamingrig, sondern ist langsamer als ein OEM. Haleluia Intel...das dürfte in dieser Szene massiv an Ansehen kosten.
Leonidas
2024-05-16, 10:38:35
Jupp, war der Text von Altehardware per KI in lesbarer verwandelt, da ich den Inhalt interessant fand aber einfach nicht durchgestiegen bin. Am Inhalt habe ich nichts geändert...
Okay, das erklärt einiges. Aber KI versteht eben nix und kann daher bei solchen Fragen unter Umständen alles noch schlimmer machen. Oder war bereits das Original durcheinander?
Doch KI versteht eben doch, sonst wäre sowas wie ChatGPT gar nicht möglich, geschweige denn GPT4o. Wer die Demo noch nicht gesehen hat, sollte es mal tun.
The whole fucking point von LLMs ist doch, dass sie dich eben verstehen.
Leonidas
2024-05-16, 13:51:41
Nö. Die technische Grundlage davon ist, die wahrscheinlichst passende Antwort zu liefern. Simple Rechenaufgabe. Je mehr Parameter man hat (sprich je genauer man die Fragestellungen unterscheiden kann), desto genau die Antwort - sofern es dafür Trainingsmaterial gab. Am Ende ist es doch so: Jede Frage, die ein Mensch stellen kann, ist für den Computer nur eine Nummer. Richtige Nummer erkennen, vorher erlernte Antwort ausgeben. Für einen Mensch sind 150 Billionen mögliche Fragen unvorstellbar, für einen Computer nur eine Frage von Speicherplatz. Aber Verständnis ist etwas anderes.
Verständnis prüft man damit nach, wenn man eine unbekannte Frage stellt, für die es kein Trainings-Material gibt, wo ein Mensch aber aus Logik sehr wohl eine Antwort findet. Das Language Model wird scheitern. Deswegen heisst es ja "Language Modell" und ist "AI" nur ein Werbebegriff dafür. Intelligent sind nur die Menschen, die es programmieren.
vinacis_vivids
2024-05-16, 14:00:50
KI weißt gar nichts. Das Sprachmodell für Deutsch-KI muss erst entwickelt werden.
vinacis_vivids
2024-05-16, 14:49:51
Du solltest dich vllt. auf die Stelle bewerben, wenn du meinst, dass ich es meine. Und dann erzählst du mir mal was über KI im Deutschen Modell.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.