Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Troyan
2023-05-21, 14:47:53
Der Timespy Score der 4070FE ist 33% höher. Die 16GB Version der 4060TI ist nichts anderes als eine Verarsche - getrieben durch bekannte Youtuber, die Leute einreden, dass VRAM das einzige Kaufargument darstellt.
dildo4u
2023-05-21, 15:03:24
Computerbase hat grad erst neue Benches erstellt 3070=6800 in 1440p mit RT weil die NV Karte nicht genug Vram hat.
Das hat nicht nur Hardware Unboxed festgestellt für 400€ Plus(Nur für die GPU) sollte man zumindest Konsolen Details nutzen können ansonsten kannste die Gen abschreiben.
Troyan
2023-05-21, 15:10:16
Computerbase hat die Qualität in fast allen Spielen reduziert. Das tun sie komischerweise nicht mit den Texturen. Naja, Logik wirft man für AMD dann doch abundzu über Board.
BTW: 12GB haben selbst für TLoU zum Launch für 1440p und Ultra-Preset gereicht. 16GB einer 4060TI bringen nichts und man hat 1/3 weniger Leistung.
basix
2023-05-21, 15:31:29
Naja aber so langsam haben sie doch wieder die Mittel ganz vorn mit dabei zu sein. Ich finde sie könnten bei GPUs endlich mal Gas geben. RDNA2 war in der Hinsicht bereits absolut erfrischend. Mit RDNA3 hätte man genauso nachlegen müssen. Und auch die uArch mal wieder auf den neusten Stand bringen. Viel mehr Leistung in Raytracing, deutlich mehr Perf/W, auch Initiativen was modernere Upsamplingmethoden angeht (seit fsr 2.2 ist da ja Stillstand leider).
Ja, langsam. So eine GPU-Entwicklung dauert aber so seine Zeit. RDNA3 ist leider nicht dort gelandet, wo man es hätte erhoffen können. Sehen wir bei RDNA4 nochmal, spätestens dort würde ich hoffen, dass erhöhtes R&D Budget sich auch im Produkt niederschlägt.
Nur zu folgen und keine eigenen Akzente zu setzen hat auch Nachteile. Raytracing wird jetzt vorwiegend auf Nvidia-Grafikkarten entwickelt. Selbst mit geringerem Forschungsbudget könnten sie etwas bewegen. Ich sehe aber keine Initiativen.
Ist eine Frage der Priorität und was man als Innovation bezeichnet. Für AMD ist Zen deutlich wichtiger als RDNA. RDNA2 & RDNA3 sind durchaus innovativ (Infinity Cache, Chiplets), nur hat Nvidia ebenso gute Produkte released und vor allem Innovationen im SW-Bereich gebracht (DLSS2, DLSS3, Pathtracing-Papers). AMDs Innovationen "verblassen" also etwas gegenüber dem was die Konkurrenz bietet. Nvidias RT-Cores waren ein "Moonshot" Projekt innerhalb von Nvidia (laut William Dally, Chefingenieur bei Nvidia). Dazu fehlte AMD schlichtweg die R&D Manpower und das Budget. Man entwickelt das nicht einfach so in 1-2 Jahren. Nvidia war zu dieser Zeit so überlegen (Maxwell bis Turing), dass sie sich die RT-Core Entwicklung schlichtweg leisten konnten.
Ich würde es auch bevorzugen, wenn AMD eine größere Konkurrenz zu Nvidia darstellen würde. Allerdings scheint sich AMD im Gegensatz zum Konsolenmarkt kaum für PC-Spieler zu interessieren und daher verdienen sie es aus meiner Sicht aktuell nicht.
AMDs Treiber ist mMn von der Usability deutlich Nvidias Treiber überlegen. Viele coole Features, direkt in einem GUI integriert. FSR2.0 bringt dem durchschnittlichen Gamer auch mehr als DLSS3 es je tun wird. Mangelndes Interesse würde ich AMD da nicht attestieren. Ist wie oben gesagt: Eine Frage der Priorität. Nvidia hat nur GPUs und auch bei HPC und Datacenter sind hauptsächlich GPUs die Umsatzträger. Ist klar, dass Nvidia also deutlich mehr auf GPUs und entsprechende Technologien fokussiert.
BlacKi
2023-05-21, 15:37:23
16GB einer 4060TI bringen nichts und man hat 1/3 weniger Leistung.
ich hab irgendwo gelesen, das die extra 8gb 5w mehr verbrauchen. wie kommt man auf 1/3 weniger leistung?
Troyan
2023-05-21, 15:49:47
Timespy:
17.700 bs. 13.300. Okay, sind 25% oder 1/5 4 weniger Leistung.
robbitop
2023-05-21, 20:04:20
Wobei man fairerweise sagen muss, AMD respektive ATi waren früher sehr wohl hier und da innovativ. Aber der Markt hat es nicht angenommen. Und irgendwannmal haben sie es halt gelassen innovativ zu sein. Kostet ja bloß Geld und bringt ihnen nichts.
Absolut. 6x SGMSAA schon 2002 in R300 oder dieses Surround Monitorfeature in der 5870.
Damals hatten sie noch wesentlich höhere Marktanteile als heute. Da fehlt eindeutig Druck auf dem Kessel.
TheGood
2023-05-21, 20:19:43
Ich würde es auch bevorzugen, wenn AMD eine größere Konkurrenz zu Nvidia darstellen würde. Allerdings scheint sich AMD im Gegensatz zum Konsolenmarkt kaum für PC-Spieler zu interessieren und daher verdienen sie es aus meiner Sicht aktuell nicht.
also werden alle Konsolenspiele auf Nvidia Raytracing hin entwickelt. Danke gut zu wissen... Gibt meine Realität aber nicht wieder :)
BlacKi
2023-05-21, 20:30:42
Timespy:
17.700 bs. 13.300. Okay, sind 25% oder 1/5 4 weniger Leistung.und warum will ich eine 4070 mit einer 4060ti vergleichen?
ich finde die 100$ aufpreis für 8gb vs 8gb version schon maximal frech. aber warum will ich die 500$ karte mit einer 600% karte vergleichen?
ich finds auch krass das sie so aktiv ihre eigenen produkte schlechtreden und auch einpreisen, damit die kunden weiter 8gb karten kaufen.
Thunder99
2023-05-21, 22:23:35
Profit Gier, hilft umso mehr AMD.
Der Aufpreis ist heftig der 16GB Version, ist dennoch zu bevorzugen. Wer billig kauft, zahlt am Ende oftmals mehr.
DrFreaK666
2023-05-21, 22:25:57
... Wer billig kauft, zahlt am Ende oftmals mehr.
"The more you buy, the more you save"
Troyan
2023-05-21, 22:52:14
und warum will ich eine 4070 mit einer 4060ti vergleichen?
ich finde die 100$ aufpreis für 8gb vs 8gb version schon maximal frech. aber warum will ich die 500$ karte mit einer 600% karte vergleichen?
ich finds auch krass das sie so aktiv ihre eigenen produkte schlechtreden und auch einpreisen, damit die kunden weiter 8gb karten kaufen.
33% mehr Leistung, 20% Aufpreis. Macht null Sinn, die 16GB 4060TI zu kaufen. Die ist heute schon zu lahm für 1440p+. Wenn also irgendwann mal 12GB nicht ausreichen, reden wir über FPS-Bereiche, in der man sowieso nicht spielt.
DrFreaK666
2023-05-21, 22:58:39
Du vergisst, dass Texturen und RT auch VRAM beanspruchen.
Verstehe das Schlechtreden von angeblichem zu vielem VRAM nicht
https://abload.de/img/screenshot_20230521_2hmc0g.jpg (https://abload.de/image.php?img=screenshot_20230521_2hmc0g.jpg)
Troyan
2023-05-21, 23:13:36
Was willst du mit Software-Schrott? Dachte wir haben anhand von TLoU gelernt, dass zu erst Software kommt und dann Hardware.
Resident Evil 4 ist auch so ein lineares Spiel, was aus welchen Gründen Unmengen von Speicher benötigt.
/edit: F1 23 Beta benötigt in 1080p mit allen Effekten und RT auf Maximum rund 6GB auf einer 8GB Karte: https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/f1-23-beta-test-gpu-cpu
Du vergisst, dass Texturen und RT auch VRAM beanspruchen.
Verstehe das Schlechtreden von angeblichem zu vielem VRAM nicht
https://abload.de/img/screenshot_20230521_2hmc0g.jpg (https://abload.de/image.php?img=screenshot_20230521_2hmc0g.jpg)
Besteht das Absturzproblem echt immer noch? :eek:
Davon ab sind die Benchmarks offenbar hart CPU-limitiert.
MfG
Raff
bbott
2023-05-21, 23:58:38
Besteht das Absturzproblem echt immer noch? :eek:
Davon ab sind die Benchmarks offenbar hart CPU-limitiert.
MfG
Raff
Nicht alkes ist per Patch behebbar. Mehr RAM kann man auch nicht auf die Karte Patchen :-)
Einfachste Lösung GK mit zu wenig RAM Textur Option einschränken.
Abstürze zeugen aber tatsächlich von schlechter Programmierung. Der VRAM ist in der Speicher-Hierarchie zwar der "Last Level Cache", wenn es um ordentliche Geschwindigkeit geht, abstürzen sollte bei einer Überfüllung aber nichts - man kann schließlich in den Hauptspeicher auslagern, damit die Action weitergeht. Und falls auch das knapp wird, kann man - zumindest theoretisch - auf den Datenträger auslagern ... aber das ist keine gute Idee. :ulol:
MfG
Raff
DrFreaK666
2023-05-22, 00:28:05
Besteht das Absturzproblem echt immer noch? :eek:
Davon ab sind die Benchmarks offenbar hart CPU-limitiert.
MfG
Raff
Weiß nicht ob das Problem immer noch besteht. Könnt ihr nicht sowas testen? ;)
Was willst du mit Software-Schrott? Dachte wir haben anhand von TLoU gelernt, dass zu erst Software kommt und dann Hardware...
Was wir gelernt haben ist, dass 8GB einfach nicht mehr ausreichend sind und eine 4060 16GB in Zukunft womöglich besser dasteht als eine 4070Ti 12GB
aufkrawall
2023-05-22, 01:54:21
Das Ding ist viel zu lahm, um es > 2 Jahre zu behalten. Bei Raster vermutlich maximal 20% schneller als eine 6700 XT, für die es nun immer wieder mal <360€-Angebote gibt. Bei AAA-Spielen mit Lumen dürfte der Ofen mit hohen Details dann völlig aus sein.
Thunder99
2023-05-22, 12:31:16
4060Ti sind 8GB zu knapp bemessen, 16GB zwar Overkill aber Zwischenstufen gibt es nicht mit 10/12/14GB. Daher sind 16GB VRAM den 8GB vorzuziehen meiner Meinung nach.
Es ist viel schlimmer wenn eine GPU an sich schnell genug wäre aber der VRAM limitiert als umgekehrt ;)
Nvidia wird sich Gedanken gemacht haben und den Preis offiziell so angesetzt haben, damit es noch einen Grund gibt die 8GB Variante zu kaufen.
The_Invisible
2023-05-22, 12:54:24
Irgendwas limitiert immer und wenn man es nüchtern betrachtet limitiert bei 8GB Karten die Leistung sicher öfter als der Speicher.
Die "8GB sind tot" Geschichten höre ich schon seit meiner damaligen 2070 und plötzlich sind gerade mal 16Gb gut genug. Selbst Posts das 24GB zu wenig wären habe ich hier schon gesehen.
Da wird keine "Speichersau" mehr durchs Dorf getrieben sondern eine ganze Herde :D
8GB sind nicht tot, sondern low-end.
basix
2023-05-22, 13:43:45
8GB sind nicht tot, sondern low-end.
+1
8 GByte ist immer noch brauchbar. Nur halt je nach Auflösung und Spiel nicht mit maximalen Settings.
prinz_valium_2
2023-05-22, 15:02:21
8GB passen sehr gut zu einer 1080. Das stimmt schon.
Hatstick
2023-05-22, 15:52:04
Es gab jetzt den Sprung von den 8GB weg, wenn wir 4K ausklammern.
Wenn man sich die Zeit bis Ende 2021 anschaut, war das zu 95% immer noch völlig ausreichend. Halte wenig von dieser VRAM Hysterie.
Wie lange sind jetzt die aktuellen Konsolen auf dem Markt mit den Anfängen der Diskussion kurz danach und dann ist der Cut eingetreten, das 8GB oder auch 10GB etwas dünn sind?
Also ehe wir an der 12GB oder gar 16GB reicht nicht mehr Schnittstelle ankommen, wird wieder Zeit ins Land gehen und dann muss man noch fein auseinanderhalten, ob der VRAM Bedarf wirklich zu rechtfertigen ist oder was davon noch schlampig programmiert ist.
bbott
2023-05-22, 16:44:10
Irgendwas limitiert immer und wenn man es nüchtern betrachtet limitiert bei 8GB Karten die Leistung sicher öfter als der Speicher.
Die "8GB sind tot" Geschichten höre ich schon seit meiner damaligen 2070 und plötzlich sind gerade mal 16Gb gut genug. Selbst Posts das 24GB zu wenig wären habe ich hier schon gesehen.
Da wird keine "Speichersau" mehr durchs Dorf getrieben sondern eine ganze Herde :D
Oder aber man nimmt die ganze Zeit schon Rücksicht auf den beschränken Speicher und wir könnten bessere Texturen etc. bereits haben :wink:
dildo4u
2023-05-22, 18:28:26
DF Review zur 4060 TI wird erstaunlich kritisch das erste Mal für eine Nvidia GPU.
Sie riechen hier reines Upselling bei jedem Preispunkt.
JGAituEOFao
Fragman
2023-05-22, 20:00:48
Dem kann ich mich anschließen.
Zumindest Preis Leistung trifft aber auf die gesamte Gen zu.
Das Upselling kommt bei 4060 aber besonders gut raus. :D
Lurtz
2023-05-22, 21:02:51
DF Review
Das ist kein Review, sondern eine mündliche Einschätzung. Richard meint am Ende ja sogar, da die Härtefälle der letzten Monate mittlerweile gut für 8 GB optimiert wurden, werden die Launch-Benchmarks sogar trügerisch gut aussehen.
DrFreaK666
2023-05-22, 21:11:12
Vergleich der RTX-Karten was Preis-Leistung angeht
ZF2TtoT93eM
Platos
2023-05-22, 21:25:09
Da er sich im Grunde auf Leonidas' Launchanalyse bezieht, ist das eig. das Selbe, wie die Launchanalyse zu lesen.
Ist natürlich gut, sich nvidias Bullshit-preise immer vor Augen zu führen :D
Das ist kein Review, sondern eine mündliche Einschätzung. Richard meint am Ende ja sogar, da die Härtefälle der letzten Monate mittlerweile gut für 8 GB optimiert wurden, werden die Launch-Benchmarks sogar trügerisch gut aussehen.
"Wird" bedeutet, dass der/die/das Review noch kommt. ;) Wenn das Embargo fällt. Passend dazu:
Ft8MkfCm6pw
MfG
Raff
iamthebear
2023-05-23, 01:40:35
DF hat einen sehr interessanten Punkt ins Spiel gebracht:
Launch Reviews verwenden im Benchmarkparkour meistens Spiele, die schon ein paar Monate am Markt sind und durch Patches schon akzeptabel auf 8GB laufen. Hier word eine 4060 Ti 8GB nicht wirklich schlechter abschneiden als die 16GB Version.
Aber wenn jemand ein 8GB Besitzer sich oft Spiele vorbestellt und am 1. Tag mit dem Launchpatch spielt, dann wird er ein deutlich schlechteres Erlebnis haben als der 16GB Besitzer.
Thunder99
2023-05-23, 09:54:14
Wahrscheinlich ist, eine 8GB Karte wird 2023+ weniger gut altern als eine > 8GB Karte. Nvidia schaufelt sich mit der Neuordnung der Karten so richtig Kritik ein
Ein AD107 ist von der Nummerierung ein Low end Chip. Wird aber als Mittelklasse angeboten. Ganz toll Nvidia und schlecht für den Kunden.
basix
2023-05-23, 10:33:17
Schlecht optimierte Spiele werden mit weniger VRAM sicher deutlich schlechter laufen. Egal ob neu released oder nicht.
Wie gesagt: Für Gelegenheitsspieler ohne höchste Qualitätsansprüche reichen auch 8 GByte. Der Preis der Karte sollte aber dann auch diesem Qualitätsanspruch entsprechen. Für alle die höhere Anspruche haben, sollten es schon eher 12 GByte sein. Und genau hier ist die 4060 Ti 8GB schlecht balanciert und zu teuer. 16 GByte sind Overkill.
Ich frage mich schon, wieso AMD und Nvidia nicht schon lange bei den Speicherherstellern angeklopft haben und nach 24 Gbit Speicherchips gefragt haben. Das Problem ist eigentlich schon lange bekannt. Eine 3060 mit 9 GByte und 3070 mit 12 GByte wäre deutlich ausgewogener gewesen. Ada ist von der Aufstellung her eigentlich nicht schlecht: 24 GByte Top Tier, 16 GByte High End, 12 GByte unteres High End. Ausser dass die Preise zu hoch sind passt das ganz gut. Untenrum eine 4060 Ti mit 12 GByte und 4060 mit 9 GByte wären unter dem Strich die sinnvolleren Produkte, beides mit 24 Gbit Chips.
Bei der nächsten GPU-Generation wird sich das Problem noch verschärfen. 8GByte sollten dann wirklich vom Markt verschwinden, ausser es ist Lowend. 9/12/16/20/24 GByte wäre dann als Staffelung optimal. Als Titan noch eine mit 36 GByte (24 Gbit Chips). Alternative: 9/12/15/18/24/30/36 GByte mit alles 24 Gbit Chips bei 96...384bit.
- 96bit = 9 GByte --> 5050
- 128 bit = 12 GByte --> 5060
- 160bit = 15 GByte --> 5060 Ti
- 192bit = 18 GByte --> 5070
- 224bit = 21 GByte --> 5070 Ti
- 256bit = 24 GByte --> 5080
- 320bit = 30 GByte --> 5080 Ti
- 384bit = 36 GByte --> 5090
Blackwell? :D
DrFreaK666
2023-05-23, 11:02:39
5070 mit 18GB...
Etwas zu optimistisch, findest du nicht? ;)
Troyan
2023-05-23, 12:47:13
Schlecht optimierte Spiele werden mit weniger VRAM sicher deutlich schlechter laufen. Egal ob neu released oder nicht.
Wie gesagt: Für Gelegenheitsspieler ohne höchste Qualitätsansprüche reichen auch 8 GByte. Der Preis der Karte sollte aber dann auch diesem Qualitätsanspruch entsprechen. Für alle die höhere Anspruche haben, sollten es schon eher 12 GByte sein. Und genau hier ist die 4060 Ti 8GB schlecht balanciert und zu teuer. 16 GByte sind Overkill.
Ich frage mich schon, wieso AMD und Nvidia nicht schon lange bei den Speicherherstellern angeklopft haben und nach 24 Gbit Speicherchips gefragt haben. Das Problem ist eigentlich schon lange bekannt. Eine 3060 mit 9 GByte und 3070 mit 12 GByte wäre deutlich ausgewogener gewesen. Ada ist von der Aufstellung her eigentlich nicht schlecht: 24 GByte Top Tier, 16 GByte High End, 12 GByte unteres High End. Ausser dass die Preise zu hoch sind passt das ganz gut. Untenrum eine 4060 Ti mit 12 GByte und 4060 mit 9 GByte wären unter dem Strich die sinnvolleren Produkte, beides mit 24 Gbit Chips.
Bei der nächsten GPU-Generation wird sich das Problem noch verschärfen. 8GByte sollten dann wirklich vom Markt verschwinden, ausser es ist Lowend. 9/12/16/20/24 GByte wäre dann als Staffelung optimal. Als Titan noch eine mit 36 GByte (24 Gbit Chips). Alternative: 9/12/15/18/24/30/36 GByte mit alles 24 Gbit Chips bei 96...384bit.
- 96bit = 9 GByte --> 5050
- 128 bit = 12 GByte --> 5060
- 160bit = 15 GByte --> 5060 Ti
- 192bit = 18 GByte --> 5070
- 224bit = 21 GByte --> 5070 Ti
- 256bit = 24 GByte --> 5080
- 320bit = 30 GByte --> 5080 Ti
- 384bit = 36 GByte --> 5090
Blackwell? :D
96bit hätten auch 12GB ermöglicht. Das wäre für die 4060 sogar noch in Ordnung gewesen.
... mit 24 GT/s schnellem GDDR6X. 96 Bit mit 24 GT/s wären tatsächlich 288 GByte/s, die Transferrate der RTX 4060 Ti. :D
MfG
Raff
00-Schneider
2023-05-23, 13:00:01
Bei der 5000er Serie werden wieder nur die 80er und 90er "logische" VRAM-Bestückungen haben. Mark my words.
Troyan
2023-05-23, 13:01:46
Mit 96bit hätte die 4060 200GB/s und durch den L2 Cache nVidia-effektiv 400GB/s. Im Grunde also 1:1 zur 3060 und so wie die 4070TI zur 3090TI.
Mit 96bit hätte die 4060 200GB/s und durch den L2 Cache nVidia-effektiv 400GB/s. Im Grunde also 1:1 zur 3060 und so wie die 4070TI zur 3090TI.
Gerade bei einer Grafikkarte, die genug Speicher hat, kannst du dich nicht nur auf den Cache verlassen. Zu viel Verkehr auf einem schnarchlahmen Interface (96 Bit mit 18 GT/s ist genau das) killt dir den Skalierungseffekt, den du durch den Speicher eigentlich haben wolltest. Das ist zwar immer noch besser, als über acht 4.0-Lanes in den RAM auszulagern, aber lieber 20+ GT/s für eine zeitgemäße VRAM-Transferrate.
MfG
Raff
Hatstick
2023-05-23, 13:11:41
Schönes Video von Raff!
Fehlen leider noch die Angebote, vor allem seitens nVidia, damit das Ding auch für die meisten bezahlbar bleibt.
Hoffentlich irgendwie mit der 5000er Reihe.
Langlay
2023-05-23, 13:25:42
Hoffentlich irgendwie mit der 5000er Reihe.
https://abload.de/img/giphyu4cnh.gif
Die Aktionäre wollen auch nächstes Jahr noch wat verdienen.
Lehdro
2023-05-23, 13:53:33
"Wird" bedeutet, dass der/die/das Review noch kommt. ;) Wenn das Embargo fällt. Passend dazu:
https://youtu.be/Ft8MkfCm6pw
Hast du eigentlich vor noch einmal die ergraute HBCC Technik durch die Benchmarks zu schleusen? So rein aus technischer Neugierde...
Hatstick
2023-05-23, 20:20:17
Habe schon die Hoffnung, das die 5000er Reihe zumindest ein Stück runter geht. Die 80er wird immer noch dicke über Tausend Euro kosten aber es geht hoffentlich in die richtige Richtung.
Würde jederzeit eine nVidia gegenüber AMD vorziehen aber zum Zeitpunkt der 6800XT gab es nur die 10GB Krüppel für 700€ und ich muss sagen, auch mit der AMD lässt sich gut zocken und alles hat irgendwann eine Grenze.
Ich denke viele werden sich (wie ich) eh dran gewöhnen müssen, LastGen im Abverkauf mitzunehmen und da zu 99% AMD, weil es bei nVidia quasi nix für einen wirklich "ok" Preis gibt und kaum jemand 1000€ und mehr für eine Grafikkarte investiert.
Ist aber für mich absolut in Ordnung, gehobenes Gaming geht auch mit einer AMD, wobei ich sie gar nicht in Schutz nehmen möchte.
Diese Gen ist das natürlich auch ein Witz aber klar schenkt AMD kein Geld her, wenn nVidia gleich mal Mondpreise ansetzt.
basix
2023-05-23, 20:26:44
5070 mit 18GB...
Etwas zu optimistisch, findest du nicht? ;)
Niemals :D
Dafür zahle ich dann auch 650 Euro, wenn sie gleichzeitig auch >1.5x schneller ist alls die heutige 4070 ;)
96bit hätten auch 12GB ermöglicht. Das wäre für die 4060 sogar noch in Ordnung gewesen.
12GB = Mainstream der Zukunft ;)
Hatstick
2023-05-23, 20:29:57
Wäre ja schon ein feuchter Traum, wenn die 5070 = 4080 Speed hat.
Wahrscheinlich noch nicht mal das. :biggrin:
Troyan
2023-05-23, 20:55:06
12GB = Mainstream der Zukunft ;)
Mehr als 12GB wären nur sinnvoll, wenn man konsequent Upscaling betreibt. Aber dafür ist nur DLSS (und ggfs. XeSS) in 4K mit Performance geeignet.
Edgecrusher86
2023-05-24, 10:31:35
Wenn man sich so das Ada Lovelace Lineup betrachtet und nur AD102 weiterhin das SI von GA102 erbte und man vermutlich dieses über eine jeweilige Generation weiterhin shrinken möchte, könnte man ja auch zu folgender Spekulation kommen.
Ausgehend davon, dass GB kaum etwas an der Anzahl der CC verändern soll und der größte Zuwachs wohl über die Optimierung der SMs plus Mehrtakt kommt, vermutlich deutlich mehr Cache und GDDR7 entsteht.
RTX TITAN Blackwell - GB102 - 24576CC [128SM a 12 GPC x 16SM] - 192MB L2 Cache - 384-bit SI - 48GB GDDR7 - 3999 USD MSRP
RTX 5090 - GB103 - 16384CC [128SM a 8 GPC x 16SM] - 128MB L2 Cache - 256-bit SI - 32GB GDDR7 - 1999 USD MSRP
RTX 5080 - GB104 - 10240CC [128SM a 5 GPC x 16SM] - 96MB L2 Cache - 192-bit SI - 24GB GDDR7 - 1499 USD MSRP
RTX 5070 Ti - GB106 - 6144CC [128SM a 3 GPC x 16SM] - 64MB L2 Cache - 128-bit 16GB GDDR7 - 899 USD MSRP
RTX 5060 Ti - GB107 - 4608CC [128SM a 3 GPC x 12SM] - 48MB L2 Cache - 96-bit 12GB GDDR7 - 499 USD MSRP
RTX 5050 - GB108 - 3072CC [128SM a 2 GPC x 12SM] - 32MB L2 Cache - 64-bit 8GB GDDR7 - 299 USD MSRP
TITAN und RTX 5080 dann zum Launch. RTX 5090 als Midlife-Kicker. Maximum Profit! :D
Leonidas
2023-05-24, 10:41:04
... mit 24 GT/s schnellem GDDR6X. 96 Bit mit 24 GT/s wären tatsächlich 288 GByte/s, die Transferrate der RTX 4060 Ti. :D
Wie kannst Du nur! Der Chippreis ist derselbe, auch wenn Du das Interface beschneidest. Aber teuren GDDR6X zu verwenden bei diesem niedrigen Preis - da rollen sich die Fingernägel bei den Pfennigfuchsern in NV's Buchhaltung!
RTX TITAN Blackwell - 384-bit -3999 USD MSRP
RTX 5090 - 256-bit - 1999 USD MSRP
RTX 5080 - 192-bit - 1499 USD MSRP
RTX 5070 Ti - 128-bit - 899 USD MSRP
RTX 5060 Ti - 96-bit - 499 USD MSRP
RTX 5050 - 64-bit - 299 USD MSRP
Gut als Magenumdreher zu gebrauchen :up:
Wie kannst Du nur! Der Chippreis ist derselbe, auch wenn Du das Interface beschneidest. Aber teuren GDDR6X zu verwenden bei diesem niedrigen Preis - da rollen sich die Fingernägel bei den Pfennigfuchsern in NV's Buchhaltung!
Hrhr. Wenn du oder jemand anderes belastbare Preise zu diversen GDDR-Chips findet, wäre ich übrigens sehr interessiert daran. :)
MfG
Raff
basix
2023-05-24, 13:23:39
Kenne nur das: https://www.dramexchange.com/
dildo4u
2023-05-25, 09:27:10
Neuausrichtung läuft KI Boomt.
https://www.computerbase.de/2023-05/nvidia-quartalszahlen-geforce-war-gestern-profi-chips-bringen-umsatzexplosion/
Dazu passend selbst der Geforce Treiber bekommt ML Optimierung.
https://www.tomshardware.com/news/nvidia-geforce-driver-promises-doubled-stable-diffusion-performance
Pfuscher
2023-05-25, 09:53:50
https://abload.de/img/giphyu4cnh.gif
Die Aktionäre wollen auch nächstes Jahr noch wat verdienen.
Check mal die Daten von heute :biggrin:
Wenn man zu einem beliebigen Zeitpunkt innerhalb der letzten 10 Jahre ein paar Aktien von Nvidia gekauft hat, hat man seitdem die Grafikkarten kostenlos bekommen.
Eigentlich ein fairer Deal.
Ja oder das Forum jammert über jeweils 500 Seiten pro Generation über den Preis.
Fragman
2023-05-25, 10:38:05
Neuausrichtung läuft KI Boomt.
https://www.computerbase.de/2023-05/nvidia-quartalszahlen-geforce-war-gestern-profi-chips-bringen-umsatzexplosion/
Deshalb wird es nv auch egal sein wenn sie weniger Spiele GPU's verkaufen.
Das kommt denen sogar entgegen und bei der 5-tausender Serie werden die Kapazitäten dann einfach verschoben.
Spiele GPU's werden wegen der Knappheit noch teurer und nv macht mehr Umsatz dank höherer Produktion bei den Profichips.
Die Nachricht kann aber auch positiv sein.
Intel sieht jetzt deutlich das Wachstumspotential in dem Bereich was deren Engagement im GPU Sektor hoffentlich stärken wird.
ChaosTM
2023-05-25, 11:25:57
Mehr als 12GB wären nur sinnvoll, wenn man konsequent Upscaling betreibt. Aber dafür ist nur DLSS (und ggfs. XeSS) in 4K mit Performance geeignet.
Mehr Speicher ist immer Sinnvoll!
Du kannst NVs Midrange nicht schönreden. Ist einfach eine überteuerte, mit geplanter Obsoleszenz verseuchte Shitshow.
Damit will man die User offensichtlich zu den Top Modellen mit noch besserer Marge treiben.
Die Gaming Sparte wird für NV nebenbei immer "unwichtiger". Mit AI und Automotive sind die Margen nochmals besser.
amdfanuwe
2023-05-25, 12:02:40
Zudem muss man beachten, dass bei Nvidia zukünftig die kleinen GPUs, die bisher noch Massenhaft in Notebooks eingesetzt wurden, wegfallen da die APUs von AMD und Intel mit iGPU den Markt übernehmen. Wenn dann noch Intel und AMD ihre GPUs mit CPUs bündeln, könnte es für Nvidia ziemlich eng werden im Client OEM Geschäft.
Exxtreme
2023-05-25, 12:04:58
Zudem muss man beachten, dass bei Nvidia zukünftig die kleinen GPUs, die bisher noch Massenhaft in Notebooks eingesetzt wurden, wegfallen da die APUs von AMD und Intel mit iGPU den Markt übernehmen. Wenn dann noch Intel und AMD ihre GPUs mit CPUs bündeln, könnte es für Nvidia ziemlich eng werden im Client OEM Geschäft.
Die Grafikchips in den CPUs sind viel zu schwach für Spiele. Die schaffen die Desktop-Darstellung gerade mal so. Und schon beim Betrieb mit drei Monitoren wird es sehr eng. An Spiele sollte man da lieber nicht denken.
Linmoum
2023-05-25, 12:23:10
Deswegen ja auch APUs. ;) Ich würde das Steam Deck oder ROG Ally sicher nicht als zu schwach für Spiele bezeichnen. Klar, damit ist natürlich kein FHD mit max. Details drin, aber das ist auch sicherlich nicht das Ziel solcher Lösungen. Und für Dauerbrenner wie LoL, CS:GO und Co. ist schon das völlig ausreichend.
BlacKi
2023-05-25, 12:43:10
Mehr als 12GB wären nur sinnvoll, wenn man konsequent Upscaling betreibt. Aber dafür ist nur DLSS (und ggfs. XeSS) in 4K mit Performance geeignet.der faktor auflösung ist was die speicherbelegung angeht nur noch minimal problematisch. ca. 1,5gb 1440p vs 4k. also nur selten ein problemlöser.
Troyan
2023-05-25, 12:55:45
der faktor auflösung ist was die speicherbelegung angeht nur noch minimal problematisch. ca. 1,5gb 1440p vs 4k. also nur selten ein problemlöser.
Du hast bei vernünftigen Upscaling einen realen Nutzen aus dem Speicherverbrauch, da die Abtastraste bei 1080p -> 2160p 4x höher ist.
Dagegen sind 10GB wie in TLoU in 1080p absolut nutzlos, weil du die Texturdetails und Geometrie überhaupt nicht rekonstrurieren kannst.
amdfanuwe
2023-05-25, 13:57:49
Klar, damit ist natürlich kein FHD mit max. Details drin, aber das ist auch sicherlich nicht das Ziel solcher Lösungen.
Noch nicht. Sind ja gerüchteweise schon stärkere APUs geplant.
Also untenrum bricht Nvidia die nächsten Jahre der Markt weg, die xx30 und bald die xx50.
TheAntitheist
2023-05-26, 16:49:36
gab doch genug patches für TLOU, da reichen doch jetzt sogar schon 8GB für hohe texturen... gab ein DF Video dazu. Speichermanagement ist also gefixed, andere Probleme noch nicht.
reaperrr
2023-05-26, 17:26:41
Ausgehend davon, dass GB kaum etwas an der Anzahl der CC verändern soll und der größte Zuwachs wohl über die Optimierung der SMs plus Mehrtakt kommt, vermutlich deutlich mehr Cache und GDDR7 entsteht.
RTX TITAN Blackwell - GB102 - 24576CC [128SM a 12 GPC x 16SM] - 192MB L2 Cache - 384-bit SI - 48GB GDDR7 - 3999 USD MSRP
RTX 5090 - GB103 - 16384CC [128SM a 8 GPC x 16SM] - 128MB L2 Cache - 256-bit SI - 32GB GDDR7 - 1999 USD MSRP
RTX 5080 - GB104 - 10240CC [128SM a 5 GPC x 16SM] - 96MB L2 Cache - 192-bit SI - 24GB GDDR7 - 1499 USD MSRP
RTX 5070 Ti - GB106 - 6144CC [128SM a 3 GPC x 16SM] - 64MB L2 Cache - 128-bit 16GB GDDR7 - 899 USD MSRP
RTX 5060 Ti - GB107 - 4608CC [128SM a 3 GPC x 12SM] - 48MB L2 Cache - 96-bit 12GB GDDR7 - 499 USD MSRP
RTX 5050 - GB108 - 3072CC [128SM a 2 GPC x 12SM] - 32MB L2 Cache - 64-bit 8GB GDDR7 - 299 USD MSRP
Das mit dem verdoppelten L2 kannst du mMn knicken.
SRAM skaliert nicht mehr, und GDDR7 wird die Speicherbandbreite zum VRAM gleich mal um schlechtestenfalls 33%, aber wahrscheinlich eher ~50% erhöhen.
Bevor NV den L2 je 64bit SI verdoppelt, gehen sie mMn eher bei GB103, GB104 und GB106 um je 64bit hoch (quasi wieder SIs auf Ampere-Niveau), und bei GB102 nutzen sie dann halt anders als bei der 4090 die vollen 96MB und takten den GDDR7 vielleicht etwas aggressiver, wie sie es mit dem GDDR6X diesmal nur bei der 4080 getan haben.
iamthebear
2023-05-26, 17:35:41
gab doch genug patches für TLOU, da reichen doch jetzt sogar schon 8GB für hohe texturen... gab ein DF Video dazu. Speichermanagement ist also gefixed, andere Probleme noch nicht.
Also bei mir funktioniert es noch nicht so ganz :freak:
https://i.imgur.com/D4xbs5p.png
just4FunTA
2023-05-26, 22:51:05
114GB VRam wow :D
dildo4u
2023-05-27, 06:00:09
Gaming Segmente gleichen sich langsam an.
rzjiEisFJug
Troyan
2023-05-27, 10:20:21
Alter, weißt du eigentlich, dass der Typ sich seine Geschichten erfindet? Wieviel von dem Dreck willst du noch posten?
Hier, fun fact für dich:
Gaming-Sparte mit RTX und Switch $2,2 Mrd. AMD Gaming-Sparte mit Konsolen und GPUs: $1,8 Mrd.
dildo4u
2023-05-27, 10:32:43
Sein Punkt ist das Nvidia in Gameing über 30% nachgegeben hat und AMD 9%.
AMD hat keine andere Chance bessere Gameing Produkte zu bringen da sie die Chips nicht wie Nvidia in Profi Karten loswerden können.
Beispiel AD104 mit 20GB als SSF Edition.
1600 statt 800€.
https://geizhals.de/pny-nvidia-rtx-4000-sff-ada-generation-vcnrtx4000adalp-sb-a2938732.html
Troyan
2023-05-27, 10:39:19
Hast du gerade vergessen, was in den letzten zwei Jahren mit Covid und Mining los war?
nVidia gibt also 30% nach? Ja, natürlich. Und AMD gibt weniger nach? Ja, weil Sony nun mehr PS5 verkaufen kann.
nVidia hat Q-Q 22% gewonnen, AMD hat Q-Q 7% geschafft. Offensichtlich ist eine Firma hier mit den neueren GPUs ein Verlierer - und das ist nicht nVidia.
Leonidas
2023-05-29, 05:13:02
https://old.reddit.com/r/pcmasterrace/comments/13o6n8i/even_if_they_prices_drop_to_match_the_previous/
https://pbs.twimg.com/media/FxOmGRSakAINHD2.jpg
DrFreaK666
2023-05-29, 08:51:55
"ASUS Shows Off Concept GeForce RTX 40 Graphics Card Without Power-Connectors, Uses Proprietary Slot"
https://wccftech.com/asus-shows-off-geforce-rtx-40-graphics-card-without-power-connectors-uses-proprietary-slot/
Das ist mal eine Idee und sollte Schule machen :up:
nix für Gaming aber noch ein Hopper:
Grace Hopper Superchips
https://www.computerbase.de/2023-05/nvidia-dgx-gh200-256-grace-hopper-superchips-liefern-1-exaflops-fp8-fuer-ki/
Hardcoregamer
2023-05-29, 09:08:59
"ASUS Shows Off Concept GeForce RTX 40 Graphics Card Without Power-Connectors, Uses Proprietary Slot"
https://wccftech.com/asus-shows-off-geforce-rtx-40-graphics-card-without-power-connectors-uses-proprietary-slot/
Das ist mal eine Idee und sollte Schule machen :up:
Klasse. Gefällt mir. Ich würde sowas kaufen. Macht echt Sinn.
Fragman
2023-05-29, 09:37:16
Würde das die Mainboards nicht noch teurer machen wenn ich soviel Strom bereitstellen muss?
Slipknot79
2023-05-29, 17:08:16
Würde das die Mainboards nicht noch teurer machen wenn ich soviel Strom bereitstellen muss?
3 Gründe, warum das System (Graka+Mobo) ca. 300EUR teurer sein wird als die Konkurrenz mit den Standard-Lösungen
- "Kleine" Stückzahlproduktion.
- Teurere techn. Lösung als die Standard-Verkabelung.
- Es steht ASUS drauf.
- 2-3 weitere Gründe, die ich übersehen habe.
- Allenfalls noies Gehäuse notwendig, scheint Stecker auf der Rückseite zu haben.
Muss jeder für sich entscheiden, ob er bereit ist 300EUR mehr zu bezahlen, um Kabelsalat zur Graka zu vermeiden.
Exxtreme
2023-05-29, 17:11:47
Würde das die Mainboards nicht noch teurer machen wenn ich soviel Strom bereitstellen muss?
Wenn es sinnvoll wäre dann wäre es schon längst im PCIe-Standard drin, dass man mehr Strom über zusätzliche Slots/Pins bereitstellt. Von daher, nein, ich glaube nicht, dass sich das durchsetzt.
Fragman
2023-05-29, 21:10:14
- Es steht ASUS drauf.
Das ist in der Tat ein Grund weshalb ich nach 3 Asus Boards hintereinander jetzt ein MSI nutze. :D
robbitop
2023-05-30, 11:13:51
https://old.reddit.com/r/pcmasterrace/comments/13o6n8i/even_if_they_prices_drop_to_match_the_previous/
https://pbs.twimg.com/media/FxOmGRSakAINHD2.jpg
Es sieht noch übler aus, wenn man es immer relativ zum Vollausbau des Topdog Chip macht. Die 4090 ist ja ziemlich stark beschnitten. IMO ist das eher eine 4080 ti.
Ich hatte so eine Übersicht schon gemacht und da sah man, dass mit Ada im Prinzip jede SKU umgelabelt ist. Eine 4080 ist eigentlich eine 70 SKU, eine 4070 ist eigentlich eine 60 SKU, eine 4060 ist eigentlich eine 50er SKU usw.
---------------
Bzgl Connectors: Ich kann nicht nachvollziehen, wo das Drama ist, Stromstecker in die GPU zu stecken. Macht man einmal pro GPU also alle 2-5 Jahre. Und wenn man kein Sinnlos Bling-Bling-Kiddie mit Fenster ist, hat es auch sonst keine Nachteile. Der Rest sollte ggf erwachsen werden.
davidzo
2023-05-30, 18:13:55
Wenn es sinnvoll wäre dann wäre es schon längst im PCIe-Standard drin, dass man mehr Strom über zusätzliche Slots/Pins bereitstellt. Von daher, nein, ich glaube nicht, dass sich das durchsetzt.
Wenn Standards nach technischer Sinnhaftigkeit kreiert würden, dann würde man nicht 1kg+ schwere 30+cm lange Karten an einer Schraube (oder zwei direkt nebeneinanderliegenden) ganz an einem Ende der Karte befestigen. Dann würde man Karten nicht senkrecht anordnen dass sich diese sich immer durchbiegen sondern hochkant dass da keine Last drauf ist.
Oder die Chips und Kühler würde man nicht unten ans PCB dranhängen sondern oben drauf legen, und die Karten vernünftig aussteifen. Man würke keine 75Watt an Strom über den PCIeslot verteilen und Zusatzstecker frei irgendwo auf der Karte platzieren sondern gleich sinnvolle TDPs übers board liefern.
Da ist vieles eher wie Kraut und Rüben gewachsen und nicht nach dem was technisch Sinn macht.
Stromverteilung im Baseboard macht absolut Sinn und ist auch technisch nicht so aufwändig. Apples Spezial-GPUs für den Mac Pro haben diese Power Rails schon länger und da gehen hunderte Ampere drüber. Das Problem ist eher dass es eben keine Initiative für einen neuen Standard gibt.
Natürlich macht es keinen Sinn dann hinten wieder einen normalen 12Pin PCIe Stecker rein zu stecken. Wenn dann muss auch die Kabelverbindung zwischen Mainboard und Netzteil durch einen direkten Steckverbinder ersetzt werden. Ist in der Industrie und in Racks ja Gang und gebe. High power server netzteile haben häufig hinten einfach eine PCB-leiste mit breiten Fingern und ISA-Style .1Zoll board to board verbindern und übertragen darüber tausende von Watt bei wesentlich kleinerer Bauform als ATXnetzteile und wesentlich weniger Widerstand als Molex Mini-Fit connectoren.
Ich könnte mir auch gut vorstellen dass man die Power rails bei noch höheren Wattagen als 600W mit Luftabstand isoliert vom mainboard als massive gestanzte kupferblech rails auslegt. Aber eben von Position und Form standardisiert so dass man alles direkt stecken kann. Das ist von Innenwiderstand, Leistungsverlusten und Kühlung viel besser als Kabel mit Crimpverbindern und sogar als Leiterbahnen.
KarlKastor
2023-05-30, 18:48:15
Es sieht noch übler aus, wenn man es immer relativ zum Vollausbau des Topdog Chip macht. Die 4090 ist ja ziemlich stark beschnitten. IMO ist das eher eine 4080 ti.
Das heißt Nvidia hätte einfach den AD102 viel kleiner machen müssen und alle wären rundum zufrieden...
Diese Grafik ist völlig unnütz.
Sinnvoller wäre es einen Vergleich zum Vorgänger zu machen.
Obenrum stimmt die Mehrperformance. Je weiter man nach unten geht, desto schlimmer wird's.
Thunder99
2023-05-30, 20:54:57
Das heißt Nvidia hätte einfach den AD102 viel kleiner machen müssen und alle wären rundum zufrieden...
Diese Grafik ist völlig unnütz.
Sinnvoller wäre es einen Vergleich zum Vorgänger zu machen.
Obenrum stimmt die Mehrperformance. Je weiter man nach unten geht, desto schlimmer wird's.
AD102 ist so wie er ist damit sie auf jeden Fall Nr. 1 bleiben.
Dass es dann "nur" eine 128er 4090 wurde liegt an AMDs erwartete Schwäche- Nvidia kann sehr gut gerade die optimale Karte bringen für ihre Bedürfnisse und haben genug Flexibilität.
Lehdro
2023-05-31, 14:28:32
Es sieht noch übler aus, wenn man es immer relativ zum Vollausbau des Topdog Chip macht. Die 4090 ist ja ziemlich stark beschnitten. IMO ist das eher eine 4080 ti.
OG Titan war auch kein Vollausbau. Das war die Titan Black und die 780 Ti.
Die Titan X (Pascal) war auch kein Vollausbau. Das war die Titan Xp.
Ebenso war die 3090 kein Vollausbau. Das war die 3090 Ti.
Ich hätte gerne ein Schaubild ohne Tendenzen, sondern mit harten Fakten. Also eins mit Abstand zur höchsten releasten Karte UND die 80er Ti Versionen sollte nicht unter den Tisch fallen.
w0mbat
2023-05-31, 14:56:22
GM200/980Ti = 91.7%
GP102/1080Ti = 93.3% (TITAN Xp = 100%)
TU102/2080Ti = 94.4% (TITAN RTX = 100%)
GA102/3090 = 97.6% (3090Ti = 100%)
AD102/4090 = 88.8%
https://old.reddit.com/r/pcmasterrace/comments/13o6n8i/even_if_they_prices_drop_to_match_the_previous/
https://pbs.twimg.com/media/FxOmGRSakAINHD2.jpg
Wobei die Grafik nicht korrekt ist. 3090 wie 4090 stellen keinen Vollausbau (wie bei den Titanen) dar. bei der 3090 wäre das wohl die 3090TI, und bei der 4090 fehlt er noch bzw. ist nur im kommerziellen Bereich als Nvidia RTX 6000 zu finden. Daher sind die errechneten %-Zahlen hier ab 3090 falsch.
Lehdro
2023-05-31, 15:27:20
GM200/980Ti = 91.7%
GP102/1080Ti = 93.3% (TITAN Xp = 100%)
TU102/2080Ti = 94.4% (TITAN RTX = 100%)
GA102/3090 = 97.6% (3090Ti = 100%)
AD102/4090 = 88.8%
GK110/780 Ti/Titan Black 100% = 93,3 % (Titan vanilla) :freak:
Troyan
2023-06-11, 14:03:28
RTX4060 soll früher kommen - Ende Juni schon: https://videocardz.com/newz/nvidia-geforce-rtx-4060-non-ti-graphics-cards-might-launch-sooner-end-of-june
Leonidas
2023-06-12, 09:01:11
Im genauen am 28. Juni die Reviews und am 29. Juni im Handel:
https://www.3dcenter.org/news/news-des-1011-juni-2023
DrFreaK666
2023-06-20, 22:14:33
Erste 4060 bei Galaxus für 339€ gelistet
https://www.galaxus.de/de/s1/product/palit-geforce-rtx-4060-dual-grafikkarte-36206196?utm_content=1-2m&utm_campaign=preisvergleich&utm_source=idealo&utm_medium=cpc&supplier=2705624
Zwischen So. 23.7. und Do. 3.8. geliefert??
Platos
2023-06-20, 22:26:36
Frage mich schon, wer die kauft. Der Vorgänger hatte mehr Speicher. Das geht einfach nicht xD
Leider hat der Euro nicht weiter zugelegt, seit die RTX 4060 vorgestellt wurde. 299 USD klingen viel netter als 329 Euro, auf die es hierzulande hinausläuft.
MfG
Raff
Thunder99
2023-06-21, 10:05:08
Frage mich schon, wer die kauft. Der Vorgänger hatte mehr Speicher. Das geht einfach nicht xD
Ja und nein, siehe den späten Release von der 3060 8GB ;D
dildo4u
2023-06-25, 13:37:17
4060 3D Mark Werte
https://videocardz.com/newz/nvidia-geforce-rtx-4060-is-on-average-23-faster-than-rtx-3060-12gb-in-3dmark-tests
Troyan
2023-06-25, 14:38:58
Timespy ist besser als erwartet. Gegenüber der 3060 schon ziemlich beeindruckend:
156mm^2 gegen 276mm^2, 32% weniger Strom, knapp 20% mehr Leistung.
Dumm nur, dass der Chip wahrscheinlich genauso teuer oder sogar teurer in der Fertigung ist.
BlacKi
2023-06-25, 14:47:29
teurer wäre es die 5nm kapazitäten nicht abzunehmen.
das ist ja ein bischen die hoffnung, das sich preislich noch was tut.
dildo4u
2023-06-25, 17:16:16
Die 3060 hat sich erst nach der 4060 Ankündigung bewegt und es muss Platz für 4050 sein.
Es gibt vermutlich keine Alternative mit 12 GB wenn alle alten Karten abverkauft wurden.
Leute mit 1060/2060 könnten schwach werden weil sie kein Rückschritt beim Vram machen.
KarlKastor
2023-06-25, 19:02:40
Gegenüber der 3060 schon ziemlich beeindruckend:
156mm^2 gegen 276mm^2, 32% weniger Strom, knapp 20% mehr Leistung.
Ich frage mich warum ständig die Die size herangezogenen wird. Welche Relevanz soll das haben? Die Transistordichte ist auch um ein Vielfaches gestiegen.
AD107 hat 40% mehr Transistoren als GA106. Mehr als GA104.
basix
2023-06-26, 09:55:10
Ich frage mich warum ständig die Die size herangezogenen wird. Welche Relevanz soll das haben? Die Transistordichte ist auch um ein Vielfaches gestiegen.
AD107 hat 40% mehr Transistoren als GA106. Mehr als GA104.
Die Anzahl Transistoren sind prinzipiell irrelevant. Es geht rein um PPA: Power - Performance - Area. Diese bestimmen die Herstellungskosten als auch die Endverkaufspreise.
Dumm nur, dass der Chip wahrscheinlich genauso teuer oder sogar teurer in der Fertigung ist.
Du verbreitest mal wieder FUD.
dildo4u
2023-06-26, 10:24:04
Jup das Board kann billiger sein(TDP) und sie hat weniger Ram vermutlich lässt sich die 4060 so billig wie die 3060 8GB Produzieren.
Bei den Mainstream Karten hauen die Restlichen Bauteile deutlich mehr rein als der Chip, daher will kein Hersteller mehr als 8GB bei 300€ verkaufen.
Kann gut sein das wenn 6700XT und A770 16 GB abverkauft sind das wir Minium 400€ für 12GB ausgeben müssen.(RX7700?)
reaperrr
2023-06-26, 11:07:19
Jup das Board kann billiger sein(TDP) und sie hat weniger Ram vermutlich lässt sich die 4060 so billig wie die 3060 8GB Produzieren.
Bei den Mainstream Karten hauen die Restlichen Bauteile deutlich mehr rein als der Chip, daher will kein Hersteller mehr als 8GB bei 300€ verkaufen.
Kann gut sein das wenn 6700XT und A770 16 GB abverkauft sind das wir Minium 400€ für 12GB ausgeben müssen.(RX7700?)
So sieht's aus.
Ich gehe davon aus, dass die niedrigste N32-SKU mit 12GB bald die günstigste Karte mit mehr als 8GB sein wird (wobei ich bezweifle, dass AMD sie viel günstiger als die 4060Ti machen wird, weil sie vmtl. klar schneller in Raster sein wird, außer AMD geht wirklich auf weniger als 48 CUs).
AffenJack
2023-06-26, 11:12:16
Die Anzahl Transistoren sind prinzipiell irrelevant. Es geht rein um PPA: Power - Performance - Area. Diese bestimmen die Herstellungskosten als auch die Endverkaufspreise.
Du verbreitest mal wieder FUD.
Dann nenn doch bitte Quellen dafür. Alle Quellen die man so liest sprechen von deutlich höheren waferpreisen bei 5nm vs 7nm. Zusätzlich soll Samsung noch billiger sein mit 8nm. Es ist sehr wahrscheinlich, dass der Ada Chip am Ende mehr kostet als Ampere.
Ausgeglichen wird das natürlich durch das drumherum, was deutlich billiger ist bei dem Vergleich. Beim reinen Chip hat er aber höchstwahrscheinlich recht.
basix
2023-06-26, 12:13:30
Ist nicht schwierig, nach ein paar Quellen zu suchen ;) Was die Samsung Wafer gekostet haben ist ein schwierigeres Thema, aber bei TSMC findet man schnell was (kurz: Preisschätzungen sind zu hoch)
Daniel Nenni von Semiwiki:
Fred, those number are not correct. The 5nm numbers are too high. FAKE NEWS:
From someone that knows:
16nm and 10nm prices are low
7nm price is about right
5nm price is very high
https://semiwiki.com/forum/index.php?threads/5nm-wafer-cost-very-high.13101/
Eigentlich jedes Mal, wenn man von Leuten hört die an den Chips arbeiten oder direkt irgendwo involviert sind (ergo die, die Ahnung haben) hört man: Waferpreis-Schätzungen sind zu hoch.
Die einzige einigermassen schlüssige Berechnung aktueller Waferpreise kommt von hier, wo man den Umsatz durch die Anzahl Wafer geteilt hat: 17k$ pro N5 Wafer
https://youtu.be/UUvhBE-37SI?t=833
Aber auch da: Ist der Umsatz nur der Wafer? Ist da noch Pagacking und anderes dabei? Die Antwort: 6.4B USD in Q4/22 mit N5 Produkten inkludiert alles! Packaging, Testing, sonstige Services, Designsupport, Masken usw. Die 17kUSD sind also keineswegs die Wafer-Preise, die liegen niedriger. Und Durchschnittspreise sind ebenfalls nur die halbe Wahrheit. Nicht für jedes Produkt zahlt man die selben Waferpreise (Economy of Scale).
Edit:
Ausserdem ist in diesen Waferpreis-Übersichten von Analysten typischerweise der heutige Preis vorhanden. Die Kosten, welche bei den Chips während der effektiven Herstellungsdauer vorhanden waren, waren typischerweise höher. Ergo ist der Abstand immer zu gross, was ein deutlich höhere Preissteigerung suggeriert als dass sie effektiv vorhanden wäre. Ein 16nm Chip kostete 2017 mehr als 2020. Das wird bei den ganzen Kostenvergleichen meistens "vergessen"
Und selbst wenn ich 17k$ für den Wafer annehme: Ich komme auf >300 yielded AD107 Chips pro 300mm Wafer. Also kostet ein AD107 im Worst Case 50$ (vermutlich eher 35...40$). Dazu 8GByte für ca. 20...25$, PCB für <10$ und dazu noch Kühler sowie etwas zusätzliche Elektronik. Herstellkosten von etwa 100...140$ für eine AD107 Karte. Jetzt wird die für >300$ verkauft. Nice ;)
Troyan
2023-06-26, 12:31:53
2020. Na dann.
Würde es nicht stimmen, wieso macht AMD MCD? Offensichtlich sind Kosten zwischen 5nm und 7nm so hoch, dass das Auslagern auf 7nm einen Vorteil hat.
Dazu kommt, dass Samsungs 8nm Prozess auf dem 10nm Prozess aufbaut, der selbst 2020 mit Ampere schon alt war (8nm war Anfang 2019 in Massenproduktion) wohingehend 4nm bzw. 5nm erst ein Jahr in Produktion war und zum damaligen Zeitpunkt alle Hersteller zu TSMC gewechselt sind.
basix
2023-06-26, 12:37:39
Dann bringe mal Daten & Zahlen. Ich lese immer nur Behauptungen von dir. Deswegen -> FUD
Zu 2020: Gab vor ein paar Wochen ein Interview mit Daniel Nenni bei MLID. Hat dort ebenso gesagt, dass die Zahlen zu hoch sind.
The_Invisible
2023-06-26, 12:41:08
Gibts eigentlich schon Infos/Gerüchte zu den Dickschiffen 4090Ti/Titan? Oder kommt da gar nix mehr Neues weil man das lieber im AI-Datacenter verbaut :D
reaperrr
2023-06-26, 14:52:30
Würde es nicht stimmen, wieso macht AMD MCD? Offensichtlich sind Kosten zwischen 5nm und 7nm so hoch, dass das Auslagern auf 7nm einen Vorteil hat.
Weil die MCDs fast nur aus SRAM und dem analogen SI bestehen, und das sind exakt die zwei Komponenten, die absolut mies mit neuen Prozessen skalieren (analoge Interfaces wie SIs schon länger, SRAM ab 5nm).
Wenn du die in N5 eh nur ~10-20% dichter packen kannst, reicht auch ein kleinerer N5-Preisaufschlag von "nur" ~40-50% schon aus, um das Auslagern zu rechtfertigen.
Ein monolithischer N31 wäre trotz kompletten 5nm nah an 500mm² gewesen, ein monolithischer N32 ~330mm², weil der IF$ und das SI kaum kleiner ausgefallen wären.
Gleichzeitig wäre die Yieldrate ein gutes Stück niedriger, weil zu viel defekter IF$ oder ein defektes SI den Chip direkt für den Vollausbau disqualifizieren würde, egal wie voll funktionsfähig und hochtaktend die CUs auf dem Chip gerade sind.
Was hier aber vor allem einige zu übersehen scheinen:
Bei AMD's Chiplet-Ansätzen geht es nur in zweiter Linie darum, Bauteile im Prozess mit dem besten Kosten-/Nutzenverhältnis herzustellen (durch das kompliziertere Packaging und die zusätzlichen IF-Links wird die Kostenersparnis teils aufgefressen, und IF$/SIs würden in N5 wahrscheinlich schon etwas schneller und energieeffizienter arbeiten).
In erster Linie geht es vor allem darum, Design- und Maskenkosten, sprich die Fixkosten, so weit wie möglich zu reduzieren. Die explodieren nämlich exponentiell mit jedem neuen Node. Ein Chip wie N33 würde sich für AMD in N5/4 kaum noch lohnen, weil die Fixkosten für die zu erwartende Marge und Verkaufszahlen zu hoch wären (liegt natürlich auch daran, dass sie in Sachen Nachfrage/Volumen nicht mit NV konkurrieren können).
Die Designkosten für den MCD dürften extrem niedrig gewesen sein, für N33 konnte man zudem wegen der N7-N6-Kompatibilität wahrscheinlich viel von N23/24 recyceln.
Die Designkosten für N31 waren diesmal sicher noch recht hoch, weil man das Zusammenspiel zwischen GCD und MCD sicher lange testen und optimieren musste, weil es eben die erste Chiplet-GPU war.
N32 könnte wiederum relativ günstig gewesen sein, da man hier immer nur die IP-Blöcke mit den Erkenntnissen aus der N31-Entwicklung aktualisieren musste. Das hat vielleicht zu Verzögerungen, aber nicht zwangsläufig höherem Designaufwand geführt.
Dass N32 so spät kommt, liegt mMn mehr daran, dass man entweder a) noch so viele N21 auf Halde hatte, oder b) vielleicht auch erstmal analysieren musste, was genau bei N31 und RDNA3 generell in Sachen Takt-/Spannungskurve und IPC falsch gelaufen ist, und ob man für N32 davon noch etwas beheben konnte (wahrscheinlich nicht, bzw. nicht in nennenswertem Maße, sonst bräuchte es die N31-7800XT nicht).
Für RDNA4 deutet einiges darauf hin, dass der nächste Schritt darin besteht, nur noch einen GCD/GCX entwickeln zu müssen, und dann die Performance über deren Anzahl skalieren zu können.
Nvidia braucht es mit Blackwell deshalb noch nicht, weil sie a) so viel höhere Volumen haben, dass die höheren Fixkosten für Entwicklung und Masken der monolithischen Chips nicht so stark ins Gewicht fallen, und b) weil sie mit den HPC-Chips inzwischen so viel Asche machen, dass sie die Entwicklung der Consumer-GPUs damit ein Stück weit subventionieren können.
AMD muss den Chiplet-Weg gehen, um auch bei geringen Marktanteilen noch konkurrenzfähig bei den Fixkosten je Chip zu sein, Nvidia hat dieses Problem so nicht.
KarlKastor
2023-06-26, 15:08:26
Die Anzahl Transistoren sind prinzipiell irrelevant. Es geht rein um PPA: Power - Performance - Area. Diese bestimmen die Herstellungskosten als auch die Endverkaufspreise.
Natürlich ist das relevant um ein Produkt technisch zu bewerten. Wir können es ja auf die Spitze treiben. Es ist einfach nicht beeindruckend wenn ein N3 Chip bei halber Fläche einen 16 nm Chip schlägt.
Dazu bestimmt nicht nur die Fläche sondern auch der Prozess selber den Preis.
Das ist völlig unabhängig davon, ob sich die GPU rentabel produzieren lässt. Das tut sie ganz sicher. Beeindruckend finde ich das aber nicht.
dildo4u
2023-06-26, 16:33:07
Interessant FG hilft der 4060 deutlich die Ti kaum besser.
AItLuqWGiMg
Geforce RTX 4060: Influencer dürfen ausgewählte Benchmarks vorab veröffentlichen (https://www.pcgameshardware.de/Geforce-RTX-4060-Grafikkarte-279649/News/Nvidia-Geforce-RTX-4060-Benchmarks-vorab-von-Influencern-1422965/)
Was für eine unnötige Prostitution. *seufz* Nun ja, jetzt kennen wir die handgepflückten, noch grünen Kirschen. Wie es wirklich aussieht, klärt sich dann in den echten Tests.
Interessant FG hilft der 4060 deutlich die Ti kaum besser.
https://youtu.be/AItLuqWGiMg
Beeindruckend. Da werden die Previewer ganz offensichtlich nur nach Rückgratlosigkeit ausgesucht - ansonsten wären solche Messfehler kaum durch die Abnahme (bei Werbe-Deals üblich) gegangen. :uup:
MfG
Raff
DrFreaK666
2023-06-27, 00:44:02
Schaue die Videos von Daniel Owen eigentlich gerne, da ich ihm sympathisch finde. Aber das Video musste ich negativ kommentieren
Lurtz
2023-06-27, 11:13:58
nVidia doing nVidia things.
Lurtz
2023-06-27, 11:40:52
Schaue die Videos von Daniel Owen eigentlich gerne, da ich ihm sympathisch finde. Aber das Video musste ich negativ kommentieren
Er sagt nVidia hat die Settings explizit so gewählt (1080p RT Ultra, DLSS Balanced), dass der VRAM nicht überläuft, weil die 3060 12 GB sonst davon ziehen würde :ugly: Zeigt mal wieder was für ein Clownfeature das bei solchen Karten ist...
Exxtreme
2023-06-27, 11:51:19
Ja. Deshalb sage ich ja immer: DLSS3 ist nur dann brauchbar wenn man massig überschüssige GPU-Leistung hat. Da DLSS3 ja selbst ziemlich viel Overhead hat. Hat man zu wenig GPU-Leistung dann schlägt dieser Overhead durch.
Matrix316
2023-06-27, 12:21:15
Ich wäre ja dafür, dass Nvidia die Ultra High End Karten wieder Titan nennt und nicht im Nummernschema der anderen Karten. Dann sieht es nämlich so aus als müsste man als Gamer die Karte unbedingt haben. Als die noch Titan hießen, konnte man die viel einfacher ignorieren. Heute wird ja jede Karte schlecht geredet, nur weil die 4090 alles in den Boden stampft. Als Titan würden alle Reviewer bestimmt sagen: Die ist zwar schnell, aber nicht direkt für Gamer und wir können sie ignorieren. :D
Troyan
2023-06-27, 12:41:29
Dann bringe mal Daten & Zahlen. Ich lese immer nur Behauptungen von dir. Deswegen -> FUD
Zu 2020: Gab vor ein paar Wochen ein Interview mit Daniel Nenni bei MLID. Hat dort ebenso gesagt, dass die Zahlen zu hoch sind.
Bitte, die Industrie hat längst gesprochen. Wieso man dauernd Leuten hier erklären muss, dass die Erde keine Scheibe wäre, ist mir unbegreiflich.
Weil die MCDs fast nur aus SRAM und dem analogen SI bestehen, und das sind exakt die zwei Komponenten, die absolut mies mit neuen Prozessen skalieren (analoge Interfaces wie SIs schon länger, SRAM ab 5nm).
Wenn du die in N5 eh nur ~10-20% dichter packen kannst, reicht auch ein kleinerer N5-Preisaufschlag von "nur" ~40-50% schon aus, um das Auslagern zu rechtfertigen.
Ein monolithischer N31 wäre trotz kompletten 5nm nah an 500mm² gewesen, ein monolithischer N32 ~330mm², weil der IF$ und das SI kaum kleiner ausgefallen wären.
Gleichzeitig wäre die Yieldrate ein gutes Stück niedriger, weil zu viel defekter IF$ oder ein defektes SI den Chip direkt für den Vollausbau disqualifizieren würde, egal wie voll funktionsfähig und hochtaktend die CUs auf dem Chip gerade sind.
Lovelace hat eine Packdichte von >120.5M / mm². Navi33 hat nur die Hälfte gegenüber AD106. Beide haben 128bit und 32mb+ Cache.
Navi31 wäre deutlich unter 500mm^2. Das Ausgliedern von schlechter skalieren Bestandteilen wird dann relevant, wenn die Kosten der Wafer deutlich auseinander gehen. Ansonsten hätte man nämlich ein negatives Ergebnis, da die Kosten der Fertigung des Package deutlich über den Mehrkosten der 5nm Fertigung liegen würde.
Platos
2023-06-27, 13:04:12
Arbeitet Reaperrr bei TSMC ?
amdfanuwe
2023-06-27, 14:44:49
Navi31 wäre deutlich unter 500mm^2. Das Ausgliedern von schlechter skalieren Bestandteilen wird dann relevant, wenn die Kosten der Wafer deutlich auseinander gehen. Ansonsten hätte man nämlich ein negatives Ergebnis, da die Kosten der Fertigung des Package deutlich über den Mehrkosten der 5nm Fertigung liegen würde.
Allein mit Wafer Preis ist es nicht getan.
Da muss man schon das Gesamtpaket betrachten:
-Yield
-Selektion
-Stückzahlen durch Verwendung von Chiplets in mehreren Produkten
-mehr Dies pro Wafer wegen kleinerer Chiplets
-unterschiedliche Produktgestaltung ( 5 MCD bei 7900XT, 6 bei 7900XTX )
...
y33H@
2023-06-27, 14:45:46
Heute wird ja jede Karte schlecht geredet, nur weil die 4090 alles in den Boden stampft. Als Titan würden alle Reviewer bestimmt sagen: Die ist zwar schnell, aber nicht direkt für Gamer und wir können sie ignorieren. :DDie RTX 4090 ist IMHO weit von einer Titan entfernt, viel zu viele SMs nicht freigeschaltet und vor allem beim L2 arg kastriert.
Die RTX 4090 ist IMHO weit von einer Titan entfernt, viel zu viele SMs nicht freigeschaltet und vor allem beim L2 arg kastriert.
Yep, das ist schon ziemlicher "Abfall" - begehrenswerter Abfall, aber irgendwie, rein psychologisch, wenig "Premium". :freak:
MfG
Raff
Matrix316
2023-06-27, 17:00:27
Ich bezahl bei einer Grafikkarte doch nicht für die Anzahl der Transistoren, sondern für die Leistung. ;) Von der Leistung ist das mehr als Premium.
Nightspider
2023-06-27, 17:08:56
Sind die Yields eigentlich so grottenschlecht oder warum hat Nvidia noch keine 4090 Titan mit vollem Chip angekündigt?
Gerade vom zusätzlichen L2 Cache würde ich mir noch paar Effekte versprechen, die man spürt.
Platos
2023-06-27, 17:11:19
Ich würde sagen: Die guten Chips gehen für AI Beschleuniger drauf und die "schlechten" dann in die 4090-er :freak:
Solange man also so ne fette Nachfrage hat im AI Bereich, könnte man auf sowas wie eine 4090Ti verzichten.
lilgefo~
2023-06-27, 17:34:36
Vor allem gibts ja keine Konkurrenz die das notwendig machen würde.
The_Invisible
2023-06-27, 17:35:39
Sind die Yields eigentlich so grottenschlecht oder warum hat Nvidia noch keine 4090 Titan mit vollem Chip angekündigt?
Gerade vom zusätzlichen L2 Cache würde ich mir noch paar Effekte versprechen, die man spürt.
Ist die Frage wie viel der L2 noch bringt ab einer gewissen Größe, die 4090 hat auch nur 8MB mehr gegenüber der 4080 aber der Perf-Abstand ist oft riesig.
Ansonsten wird das Ding wohl wieder Frühjahr 2024 kommen wenn überhaupt, zahlt sich irgendwie auch nicht aus wenn dann in einem halben Jahr schon die nächste Gen kommt
Vielleicht gibts, sobald GDDR6W verfügbar ist, einen 5k-Refresh bei Ada. Man muss ja jetzt doch recht lange Zeit überbrücken, das macht einen Refresh sehr wahrscheinlich. GDDR6W bringt 32Gbit Chips, also 4GB pro Modul.
Exxtreme
2023-06-27, 21:16:22
Ist die Frage wie viel der L2 noch bringt ab einer gewissen Größe, die 4090 hat auch nur 8MB mehr gegenüber der 4080 aber der Perf-Abstand ist oft riesig.
Ansonsten wird das Ding wohl wieder Frühjahr 2024 kommen wenn überhaupt, zahlt sich irgendwie auch nicht aus wenn dann in einem halben Jahr schon die nächste Gen kommt
Cache bringt bei GPUs nicht so viel. Denn GPUs brauchen in allererster Linie Bandbreite. Und Caching erhöht die Bandbreite nur sehr marginal bzw. nur in sehr speziellen Fällen geht die Bandbreite nach oben dank Caching.
Vor allem gibts ja keine Konkurrenz die das notwendig machen würde.
Das ist kein Argument, da man immer noch die Superreichen melken könnte. 1.999 USD (oder mehr) für eine Titan "obenrum" würde niemandem wehtun. Bereits die RTX 4090 ist in Sachen Preis und Leistung konkurrenzlos, aber die Skala ist prinzipiell oben offen.
MfG
Raff
Edgecrusher86
2023-06-28, 06:50:32
Aus dem Grund wird auch nächstes Jahr die 4090 Ti (bestimmt wieder 1999 USD MSRP) mit vermutlich grob 10% Mehrleistung im Mittel kommen - weil man es kann. Zwar bringt sie als RTX 6000 Ada deutlich mehr Marge, aber man kann die Enthusiasten vor der RTX 5090 nochmals beglücken und die Leistungskrone im Desktop ausbauen.
Nightspider
2023-06-28, 07:00:57
Cache bringt bei GPUs nicht so viel.
Erzähl das mal der RDNA2 Architektur.
Caching erhöht die Bandbreite nur sehr marginal
https://pics.computerbase.de/1/0/5/5/8/9-2991513a3a73eca5/17-1080.3e1c95fd.png
Edgecrusher86
2023-06-28, 08:19:58
Wobei man natürlich auch sagen muss, dass bei RDNA2 der IF oberhalb WQHD die fehlende Speicherbandbreite auch nicht mehr ohne weiteres egalisieren konnte. Hier hätte natürlich 20Gbps(+) und/oder ein breiteres SI geholfen. Mit 700+ GB/s etwa sieht es ja beim AD103-Cut ganz ordentlich aus diesbezüglich.
Exxtreme
2023-06-28, 08:54:47
Erzähl das mal der RDNA2 Architektur.
https://pics.computerbase.de/1/0/5/5/8/9-2991513a3a73eca5/17-1080.3e1c95fd.png
Das sind Marketingfolien und damit komplett wertlos. Denn 2,7x schneller ist RDNA3 ggü. RDNA2 nicht. In aller Regel sind das nur ein paar Prozent wenn man das entsprechend bereinigt um Takt und SMs.
Es ist so: es nicht die Aufgabe eines Caches die Bandbreite zu steigern. Die Aufgabe eines Caches ist es lange Zugriffszeiten auf den Hauptspeicher zu kaschieren. Das verhält sich exakt gleich wie HDD vs. SSD. PCs mit SSDs fühlen sich nicht wegen mehr Bandbreite schneller an sondern weil die Zugriffszeiten beträchtlich niedriger sind. Wenn die Datenmenge klein ist und die Daten zufälligerweise im Cache sind dann können die Daten auch mit einer höherer Bandbreite geladen werden ja. Die Wahrscheinlichkeit dafür ist bei Grafikkarten aber extrem gering. Denn Grafikkareten schaufeln hunderte MB pro Sekunde. Und das senkt die Wahrscheinlichkeit, dass Daten im Cache sind beträchtlich. Bei CPUs ist das wiederum anders.
dargo
2023-06-28, 08:58:35
Das sind Marketingfolien und damit komplett wertlos. Denn 2,7x schneller ist RDNA3 ggü. RDNA2 nicht. In aller Regel sind das nur ein paar Prozent wenn man das entsprechend bereinigt um Takt und SMs.
Du solltest vielleicht mal solche Folien auch verstehen. Dort steht nirgendwo RDNA3 wäre 2,7x schneller als RDNA2.
Exxtreme
2023-06-28, 09:08:54
Du solltest vielleicht mal solche Folien auch verstehen. Dort steht nirgendwo RDNA3 wäre 2,7x schneller als RDNA2.
Wenn der Cache die Bandbreite so immens steigern würde dann würde das in der Performance durchschlagen. Tut es aber nicht. Und zweitens, man würde sich auch die 384 Bit-Speicherinterfaces sparen. Denn solche Speicherinterfaces sind extrem teuer. Tut man aber nicht. Eben weil der Cache die Bandbreite eben nicht nennenswert erhöht und diese auch physisch vorhanden sein muss.
Klar spart man sich das dicke Speicherinterface, funktioniert doch so gut, dass NV das Prinzip doch jetzt bei Ada auch umgesetzt hat ;). Nur über den L2$.
robbitop
2023-06-28, 09:38:23
Natürlich bringt Cache bei GPUs eine Menge. Je höher die Hitrate, desto geringer die Zugriffe auf den externen RAM.
Der große Cache den es mit Crystalwell erstmals und dann später mit RDNA2 und zuletzt mit Ada gab ist mal eben eine Größenordnung größer als die bisherigen Cachegrößen. Das reduziert die Missrate (also immer dann wenn die GPU auf den VRAM zugreifen muss) um etwa den Faktor 3. (eine Verdoppelung von Cache reduziert die Hitrate ~ wurzel(2))
Entsprechend sinkt der Bandbreitenbedarf zum externen enorm, weil reuse deutlich steigt.
Gerade GPUs sind bandbreitenhungrig und entsprechend funktioniert das Prinzip des Caches extrem gut.
Aus Spaß verbauen nicht alle IHVs seit kurzem so viel Cache auf den GPUs - insbesondere berücksichtigt, dass SRAM viel schlechter mit modernen Fertigungsprozessen skaliert und entsprechend schmerzhaft zu implementieren ist.
Nightspider
2023-06-28, 09:55:53
Wenn der Cache die Bandbreite so immens steigern würde dann würde das in der Performance durchschlagen.
Warum?
War RDNA2 etwa im Bandbreitenlimit?
Das bei RDNA3 etwas ganz anderes kaputt ist (Taktverhalten) ist ein ganz anderes Thema.
The_Invisible
2023-06-28, 10:10:27
Erzähl das mal der RDNA2 Architektur.
https://pics.computerbase.de/1/0/5/5/8/9-2991513a3a73eca5/17-1080.3e1c95fd.png
Gibts bei Nvidia auch: https://www.nvidia.com/en-us/geforce/news/rtx-40-series-vram-video-memory-explained/
Laut Nvidia spart man so zwischen 2 und 32MB Cache die Hälfte Bandbreite
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/geforce-rtx-4060-4060ti/nvidia-geforce-ada-lovelace-memory-subsystem-performance-and-efficiency-improvements.png
dargo
2023-06-28, 11:32:08
Wenn der Cache die Bandbreite so immens steigern würde dann würde das in der Performance durchschlagen. Tut es aber nicht. Und zweitens, man würde sich auch die 384 Bit-Speicherinterfaces sparen.
Genau... weil die Bandbreite das einzige Kriterium für Performance ist. :crazy: Und wenn du eine SKU mit 24GB bringen willst führt auch kein Weg am 384Bit SI vorbei.
robbitop
2023-06-28, 11:36:37
N31 ist nicht zwangsweise bandbreitenlimitiert. Man hat auf jeden Fall eine Bandbreitensteigerung die größer ist als die Performancesteigerung. Allerdings hat man auch etwas weniger IF$.
basix
2023-06-28, 13:12:30
Laut Nvidia spart man so zwischen 2 und 32MB Cache die Hälfte Bandbreite
Ergänzung: Bei 1080p.
Bei höheren Auflösungen steigt der LLC-Bedarf in etwa linear an. Bei 4K benötigt man also 4x mehr LLC verglichen mit 1080p, um das selber Resultat zu erreichen. In Realität ist es etwas weniger (anhand der Infinity Cache Folien von AMD) aber als Faustformel ist es nicht schlecht:
32 MByte = 2x Bandwidth Amplification bei 1080p
LLC-Bedarf für die selbe Bandwidth Amplification steigt in etwa linear mit der Renderauflösung an (Anzahl gerenderte Pixel // wichtig: Render und nicht Output -> Durch DLSS/FSR und entsprechend niedrigerer Renderauflösung steigt die Effektivität des LLC)
In etwa sqrt(2) Skalierung der Bandwidth Amplification hinsichtlich ansteigender LLC Menge bei gleicher Auflösung. Ausgehend von 32 MByte und 1080p: 128 MByte führen zu 4x Bandwidth Amplification bei 1080p
Reaping_Ant
2023-06-28, 19:12:33
Wie viel der Cache bringt, hängt vermutlich auch stark vom Content ab. Wenn das ganze Spiel quasi nur aus einer einzigen riesigen Textur besteht, hilft der Cache natürlich eher wenig, da diese jeden Frame erneuert gelesen werden muss und nicht in den Cache passt. Zumal man auf die selben Texturdaten in aller Regel nur ein oder wenige Male pro Frame zugreift. Shadercode dagegen, der deutlich kleiner ist, und daher eher in den Cache passt, wird im selben Frame immer und immer wieder gebraucht. Da bringt es natürlich gigantische Vorteile sowohl bei der Latenz als auch bei der Bandbreite, wenn man aus dem Cache lesen kann. Und da die Größe und Anzahl der Shader immer weiter zunimmt, kann ein größerer Cache schon signifikant Bandbreite sparen, die dann wieder für andere Dinge, die nicht in den Cache passen, zur Verfügung steht.
Was dem Cache auch in die Hände spielt, ist, dass alle aktuellen Architekturen (seit Maxwell?) intern mit Tiles arbeiten, was den Reuse, selbst von Texturdaten, auch deutlich erhöht.
Ich reime mir das aber auch nur mit meiner Laienlogik zusammen...
robbitop
2023-06-28, 22:11:27
Den größten Bandbreitenbedarf und die größte Fragmentierung der Zugriffe hat eigentlich der Framebuffer. Da hilft der Cache ziemlich gut.
Texturen hatten eigentlich schon lange eine gute hitrate weil reuse ziemlich hoch ist
https://fileadmin.cs.lth.se/cs/Personal/Michael_Doggett/pubs/doggett12-tc.pdf
mksn7
2023-06-29, 09:21:27
Der reuse bei Texturen dürfte aber vor allem am filtering liegen, oder? Also dass ein Texel mehrfach verwendet wird, weil mehrere Pixel den brauchen. Der reuse ist aber aber kleine texture caches (mittlerweile einfach generische L1/L0 caches) die es schon lange gibt schon komplett abgefrühstückt. Ansonsten, wenn man natürlich eine winzig kleine Textur über eine Rießenfläche tiled, dann gibt es natürlich auch reuse... Das ist ja aber eigentlich schlechtes content design, und daher weniger wichtig. Ich denke Texturen profitieren am wenigsten von großen Caches.
Die shader executables sind in der Regel insignifikant klein, das sollte von den kleinen L2 caches schon lange vollständig abgedeckt sein, oder braucht kaum Bandbreite.
Ich denke auch dass der framebuffer oder andere read-after-write targets (z.B. shadow maps) am Meisten ausmachen. Dafür spricht auch, dass der RDNA2 I$ anscheinend eine replacement policy hat, die read-only data bevorzugt evicted. Ich hab einen benchmark dazu, aus dem man das schließen kann. Aber hier gehts um Ada Lovelace/Hopper und nicht RDNA2.
TheAntitheist
2023-07-03, 06:23:33
Der reuse bei Texturen dürfte aber vor allem am filtering liegen, oder? Also dass ein Texel mehrfach verwendet wird, weil mehrere Pixel den brauchen. Der reuse ist aber aber kleine texture caches (mittlerweile einfach generische L1/L0 caches) die es schon lange gibt schon komplett abgefrühstückt. Ansonsten, wenn man natürlich eine winzig kleine Textur über eine Rießenfläche tiled, dann gibt es natürlich auch reuse... Das ist ja aber eigentlich schlechtes content design, und daher weniger wichtig. Ich denke Texturen profitieren am wenigsten von großen Caches.
Die shader executables sind in der Regel insignifikant klein, das sollte von den kleinen L2 caches schon lange vollständig abgedeckt sein, oder braucht kaum Bandbreite.
Ich denke auch dass der framebuffer oder andere read-after-write targets (z.B. shadow maps) am Meisten ausmachen. Dafür spricht auch, dass der RDNA2 I$ anscheinend eine replacement policy hat, die read-only data bevorzugt evicted. Ich hab einen benchmark dazu, aus dem man das schließen kann. Aber hier gehts um Ada Lovelace/Hopper und nicht RDNA2.
"reuse" also die meisten texturen werden "getiled" also wiederholen sich immer wieder, nur hero objects bekommen einzigartige texturen.
Ohne tiling würde der VRAM verbrauch explodieren.
robbitop
2023-07-03, 06:34:41
Der reuse bei Texturen dürfte aber vor allem am filtering liegen, oder? Also dass ein Texel mehrfach verwendet wird, weil mehrere Pixel den brauchen. Der reuse ist aber aber kleine texture caches (mittlerweile einfach generische L1/L0 caches) die es schon lange gibt schon komplett abgefrühstückt..
Genau. Da Texturen eh gefiltert werden müssen damit es gut aussieht ergibt sich genau dieser reuse Mechanismus.
https://youtu.be/kkiafCleHb8
Lt. Igor kommt ein Refresh mit gefixtem 12VHPWR-Stecker, nennt sich jetzt 12V6x2 und ist idiotensicher.
Platos
2023-07-03, 12:08:14
Genau das sollte es ja auch sein bei Dingen, die potentiell Brände verursachen können und somit Leben kosten könnte.
Da muss es Idiotensicher sein.
Wobei ja jetzt genug oft gezeigt wurde, dass es nicht an Idioten liegt, die Stecker haben einfach auch im eingesteckten Zustand zu viel Spiel.
aceCrasher
2023-07-27, 11:58:46
https://videocardz.com/newz/nvidia-rtx-4090-ti-is-reportedly-no-longer-planned-next-gen-flagship-to-feature-512-bit-memory-bus
4090ti angeblich gestrichen.
basix
2023-07-27, 12:08:34
Wundert mich nicht. N5/N4 Kapazitäten wird Nvidia via Quadro und HPC los, wo sie noch höhere Margen kassieren. Und der Sprung zu Blackwell wird grösser aussehen :D
Edgecrusher86
2023-07-27, 14:04:11
Grob 10% Mehrleistung schafft ja eh nur für die Hand voll Bencher Anreize und Leuten mit Langeweile plus zuviel Geld. :freak:
Im Grunde dürften ja schon über 90% aller Enthusiasten, die es mit Jensen halten, bei der RTX 4090 gelandet sein - da würde sich eine Ti oben drauf 0,0 lohnen.
Das Ganze wäre jetzt mit 500-550W TGP eh nicht wirklich sinnig erkauft - angenommen, man würde die Karte dann mit 200-300 MHz höher takten lassen. :wink:
Auch wenn Herr Huang sicher mit "Word's first 100 TF/s (FP32) graphics card" gerne geworben hätte. :D
Exxtreme
2023-07-27, 14:12:18
Mich wundert das auch nicht. Die 4090 ist konkurrenzlos. Eine Ti braucht's nicht wirklich. Und die wäre eventuell 10% schneller. Also nichts was irgendwie entscheidend ist. Und womöglich sind die Verkaufszahlen der 4090 auch nicht der Hit. Eine noch teurere 4090Ti?
Wenn man eh einen echten Refresh machen würde bräuchte man keine zusätzlichen Produkte mehr bis zum Frühjahr oder so.
Ich hab ja den Verdacht, dass NV das (verkackte) Lineup umgestalten wird und so um einem echten Refresh nicht herum kommt.
basix
2023-07-27, 18:12:12
Auch wenn Herr Huang sicher mit "Word's first 100 TF/s (FP32) graphics card" gerne geworben hätte. :D
Habe ich schon im Rechner :D
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83728&d=1682630796
ChaosTM
2023-07-27, 19:38:54
https://twitter.com/kopite7kimi/status/1684490813567545344
4090ti wäre in der Tat eher sinnarm. Der Videocarz link bezieht sich wohl auf diesen tweet..
The_Invisible
2023-07-27, 19:47:34
Ja wie schon geschrieben, gibt ja keine Konkurrenz und so keinen Druck, die AD102s packt man da lieber auf die 10k teuren 6000er Workstation Karten. Yield würde mich trotzdem interessieren.
Eine 4080Ti sollte ja eigentlich auch schon draußen sein, da müsste man aber für die große Lücke zwischen 4080 und 4090 wieder den AD102 hernehmen und noch mehr abspecken, glaub das wird auch nix.
Wenn da von AMD nichts kommt wirds das wohl bis Ende 2024/Anfang 2025 gewesen sein...
Altehardware
2023-07-27, 23:43:43
Die wichtigere news ist das es supers geben wird mit ad103 und ad104 als rtx4070super 68sm und rtx4060super 42sm
ich nehme an das man 449$ und 949$ anpeilt
und nun das warum amd rx7700 +- 18,6tf ~429$
rx7800 23,3tf 549$
macht dann folgende Szenario
rx7700 Vorstellung zur gamescom (23-27.8.23) 489€ 12gb vram 432gb/s +inf cache =671gb/s
rx7800 599€ = 819gb/s
rtx4060super 19,9tf 499€ 432gb/s
rtx4070ti 29,5tf 504gb/s
rx7900xt 32,7tf 1343gb/s
rtx4070 super 32,2tf 949€ 671gb/s
rtx4060ti ~16,1tf 519€ 288gb/s
Und ja meine Formeln passen da ansonsten die gpu's nicht vergleichbar wären.
zwar spielen rop und bandbreite noch ne rolle aber nur in ausnahmen.
00-Schneider
2023-07-28, 12:08:48
Eine 4080Ti sollte ja eigentlich auch schon draußen sein, da müsste man aber für die große Lücke zwischen 4080 und 4090 wieder den AD102 hernehmen und noch mehr abspecken, glaub das wird auch nix.
Selbst die normale 4080 macht schon recht wenig Sinn für 4K. Wer Geld hat, sich eine 4080 zu kaufen, sollte lieber gleich zur 4090 greifen.
4080 macht nur Sinn, wenn man maximal in 1440p zockt und die 4070(Ti) in Einzelfällen(RT?) dort nicht ausreicht.
iamthebear
2023-07-29, 23:21:48
Der Vorteil der 4080 ist, dass sie in der Regel mit bestehenden Gehäusen/Netzteilen kompatibel ist. Bei der 4090 ist das in vielen Fällen nicht so. So werden aus 450 Euro schnell mal 800 Euro Preisdifferenz und da überlegt man es sich vielleicht doch noch einmal, ob es wirklich eine 4090 sein muss.
What? Jedes Netzteil mit dem eine 4080 geht packt auch ne 4090. Vielleicht halt nicht auf 600W aufreissen und evtl. mit Adapter... aber sonst?
y33H@
2023-07-30, 15:35:16
Bei der RTX 4090 ist mir der AD102 zu sehr beschnitten, vor allem der L2 =(
Thunder99
2023-07-30, 19:57:25
What? Jedes Netzteil mit dem eine 4080 geht packt auch ne 4090. Vielleicht halt nicht auf 600W aufreissen und evtl. mit Adapter... aber sonst?
Das wage ich zu bezweifeln...
Ein Netzteil was gerade so die 4080 schafft wird sicher nicht die 4090 schaffen ;)
Ich als Beispiel musste das Netzteil tauschen, nicht zwingend wegen der Watt Leistung sondern wegen den Anschlüssen.
y33H@
2023-07-30, 20:25:04
Weil du keine drei 8P für den Adapter hattest? weil mit 12VHPW ist's egal ob 4080 oder 4090 sofern genug Watt vorhanden sind ...
Thunder99
2023-07-30, 21:26:45
Weil du keine drei 8P für den Adapter hattest? weil mit 12VHPW ist's egal ob 4080 oder 4090 sofern genug Watt vorhanden sind ...
Ja, leider :(.
iamthebear
2023-07-30, 23:19:34
sofern genug Watt vorhanden sind ...
Und genau das ist der Punkt. Alle Vorgängerkarten in ähnlicher Preisklasse wie 1080 Ti, 2080 Ti, 3080, 6800 XT haben schon um die 250-300W gebraucht. Damit läuft auch eine 4080.
Aber 450W für die 4090 sind dann oft nicht mehr drin.
y33H@
2023-07-31, 09:09:43
Auf 300W begrenzen? verliert man halt etwas Performance ...
basix
2023-07-31, 09:23:05
Mit meinem 700W Netzteil läuft die 4090 auch bei >450W stabil. Hatte noch nie Probleme. Ich glaube viele hier haben ein Netzteil in dieser Grössenordnung. Mit einem 500-600W Netzteil muss man evtl. etwas schauen. Ich betreibe die 4090 bei <300W. Ich mache das wegen der Wärmeabgabe und weil ich meine Karten schon immer am Sweetspot betreibe aber jeder mit einem etwas schwächeren Netzteil könnte das im Notfall auch machen. Dann liegt man wieder bei den 300W der Vorgänger. Performance verliert man dadurch fast keine (in meinem Fall 2.55 GHz vs. ~2.7 GHz). Ich sehe eher Probleme bei den 450W an sich: Das heizt das Gehäuse wesentlich mehr auf. Je nach Lüfterausstattung etc. kann das zu relativ hohen Temperaturen führen. Ich habe eine AIO für die CPU im Gehäusedeckel. Die wird bereits mit 300W auf der Karte ziemlich warm (zu warm nach meinem Geschmack).
Wenn man nur 2x 8p PCIe am Netzteil hat, ja dann hat man Pech gehabt. Gab in der Vergangenheit aber auch einige Customs, die 3x PCIe 8p benötigten.
Wenn die Karte wegen der Grösse nicht ins Gehäuse passt: Auch Pech gehabt. Nur denke ich, dass viele Tower mit 35cm Länge der Karte zurecht kommen. Mein Fractal Design R5 ist jetzt nicht übermässig gross, die 4090 hat aber ohne Probleme Platz. Ich benutze sogar den Festplattenkäfig.
Die 4090 ist ausserdem keine Ampere mit super hohen Lastspitzen, welche dir das Netzteil killen. Das hat Nvidia bei Lovelace angepasst. Gab erst letztens Messungen von CB dazu: https://www.computerbase.de/2023-07/grafikkarten-leistungsaufnahme-spiele-2023/
Mein Fazit:
Es kann Situationen geben, wo die 4090 nicht passt und die 4080 das Maximum darstellt. Logisch. Bei den meisten sollte die 4090 aber schon passen.
Bei der RTX 4090 ist mir der AD102 zu sehr beschnitten, vor allem der L2 =(
Reine Kopfsache ;) Solange die Performance hinten rauskommt ist es eigentlich egal, ob der Chip beschnitten ist. Es sind 10-15% Mehrpotential im Chip drin. Das ist alles. Sogar der liebe Raff ist über seinen Vollausbau-Schatten gesprungen.
Auf 300W begrenzen? verliert man halt etwas Performance ...
Joa, Power Limit Reduktion würde ich sowieso jedem empfehlen.
Mit nem 350W Netzteil ist man heutzutage natürlich arg knapp drann.
Alles >450W bringt mit der 4090 mehr Performance als mit der 4080 - weil man in effizientere Betriebsbereiche kommt. Musst halt die TDP limitieren.
00-Schneider
2023-07-31, 10:17:29
Reine Kopfsache ;) Solange die Performance hinten rauskommt ist es eigentlich egal, ob der Chip beschnitten ist. Es sind 10-15% Mehrpotential im Chip drin. Das ist alles. Sogar der liebe Raff ist über seinen Vollausbau-Schatten gesprungen.
Zumal vor 2025 eh nicht schnelleres kommt.
Deswegen keine 4090 kaufen ist auch irgendwie whack. :confused:
Zumal theoretische Mehrperformance von 15% den wenigen "Problemgames" auch nicht hilft, da bräuchte es schon mindesten 50%.
Fragman
2023-07-31, 10:35:01
Also ist 2025 jetzt wirklich gesetzt?
Man wechselt also tatsächlich auf den 3 Jahres Rhythmus?
Exxtreme
2023-07-31, 10:39:40
Also ist 2025 jetzt wirklich gesetzt?
Man wechselt also tatsächlich auf den 3 Jahres Rhythmus?
Naja, AMD könnte was Schnelleres bringen wenn sie wollen. Es ist aber so, großartig Muße was Schnelleres zu bringen hat Nvidia nicht so wirklich. Man hat sich sehr weit vor die Konkurrenz gesetzt und etwas Schnelleres als die RTX 4090 würde relativ gesehen auch die Grafikkarten unter dieser entwerten. Und Ampere zu möglichst hohen Preisen abverkaufen will man ja auch noch.
Da es ja Gerüchte gibt, dass AMD das alte Design durch ein neues ersetzt wird es auch bei AMD 3 Jahre dauern.
Ja ich würde sagen, die 3 Jahre werden zum neuen Zyklus. Da die Chips teurer werden und die Designs immer mehr Manpower benötigen wird man länge Zeiträume brauchen, damit sich das auch finanziell weiterhin lohnt (und es wird mMn weniger Chips geben pro Generation).
Exxtreme
2023-07-31, 11:43:54
Naja, für solche Designs gibt es in der Regel mehrere Teams, die parallel entwickeln. Sprich, als Ada veröffentlicht wurde da befand sich der Nachfolger wohl schon 1 - 2 Jahre in der Entwicklung. Das Gleiche wird bei AMD auch so sein. Deshalb können Nachfolger relativ früh erscheinen. Speziell dann wenn sich der Vorgänger verspätet.
Erschwerend kommt hinzu, dass man noch Ampere/RDNA2 abverkaufen will. Da bringt man nicht noch einen Nachfolger von Ada/RDNA3 weil dann wären die Grafikkarten, die man abverkaufen will gleich 2 Generationen hinterher. Und dann wären sie wohl eher unverkäuflich. Auch wenn sie immer noch echt gut wären. Das ist dann eher eine Kopfsache, dass man sowas Veraltetes nicht kaufen will. Es sei denn es wird verramscht.
Mir ging es um die Kosten. Die Entwicklungskosten steigen und steigen und irgendwann muss man die Verkaufszeiträume dehnen, damit die Kosten auch wieder reinkommen.
Wir haben ja schon gesehen, dass AMD offensichtlich kein Interesse daran hat, NV vom Thron zu stoßen, die werden das dankbar mitmachen. NV hält damit die Margen, ganz einfach.
Hinzu kommt, und das ist ein gewichtiger Punkt, dass die Entwicklungszeiträume der Fertigungsprozesse immer länger werden. Der große Vorteil für beide Hersteller ist, dass die jetzt N3X für die finalen Produkte verwenden können statt N3B.
reaperrr
2023-07-31, 13:42:00
Der große Vorteil für beide Hersteller ist, dass die jetzt N3X für die finalen Produkte verwenden können statt N3B.
RDNA4 kommt eventuell wohl schon um den Jahreswechsel 2024/2025. Für alles nach N3E eigentlich zu früh.
N3X wird aber genau wie N4X mMn von keiner Consumer-GPU verwendet werden. Für 4% mehr Takt doppelte Leakage und Verbrauchsexplosion bei höheren Taktraten in Kauf nehmen? Wohl eher nicht.
Das ist für HPC, genauer Produkte wo der Verbrauch relativ egal ist und nur die letzten paar Prozent Takt zählen. Da zählen Consumer-GPUs trotz allem nicht zu, vor allem, da 4% mehr Takt jetzt auch nicht der Burner sind.
Die erste Generation N3-Produkte von sowohl NV als auch AMD wird wahrscheinlich N3E verwenden, NV vielleicht N3P. Dass N3X für irgendein Consumer-Produkt eingesetzt wird, ist extrem unwahrscheinlich.
Ich versteh nicht, warum manche es nicht wahrhaben wollen und so tun, als wären die X-Prozesse nochmal Upgrades der P-Prozesse, die man unbedingt verwenden müsse. Sind sie nicht, sie sind taktoptimiert auf Kosten von Leakage, und damit Hitze und Verbrauch. Aber wenn schon TSMC selbst nur von 4-5% mehr Performance (Taktraten) spricht und explizit nur HPC als Anwendungsbereich nennt, und den Verbrauch lieber nicht explizit benennt, kommt das nicht von ungefähr.
davidzo
2023-07-31, 15:05:02
Das ist für HPC, genauer Produkte wo der Verbrauch relativ egal ist und nur die letzten paar Prozent Takt zählen. Da zählen Consumer-GPUs trotz allem nicht zu, vor allem, da 4% mehr Takt jetzt auch nicht der Burner sind.
Hm, ausgerechnet bei HPC, wo man CPUs und GPUs nur mit 60% des Taktes wie im Consumerbereich betreibt? Ich glaube das Verhältnis zwischen Consumer und HPC Markt ist eher umgekehrt wie du beschreibst.
Ich will damit jetzt nicht sagen dass ich glaube das AMD auf N3X setzt, das glaube ich auch nicht, aber ein HPC Node sollte eher auf maximalen yield optimiert sein und darf dafür ein wenig Density und Takt opfern, aber nicht die Effizienz und Voltage.
Wer weiß was N3X wirdklich ist und wieso TSMC ausgerechnet HPC nennt. :freak:
KarlKastor
2023-07-31, 15:37:07
N3X ist eher was für CPUs. GPUs macht man dann lieber breit und taktet die etwas langsamer.
Da AMD die Chiplets aber auch für Epyc nutzt, sehe ich das auch nicht für die CPUs.
y33H@
2023-07-31, 18:42:13
Reine Kopfsache ;) Solange die Performance hinten rauskommt ist es eigentlich egal, ob der Chip beschnitten ist. Es sind 10-15% Mehrpotential im Chip drin. Das ist alles. Sogar der liebe Raff ist über seinen Vollausbau-Schatten gesprungen.Der weitaus größere L2-Cache der RTX 6000 Ada wäre interessant, wenn man diese Karte gegen eine RTX 4090 bei ebenfalls 300W stellt ... kennt jemand einen entsprechenden Gaming Test?
dildo4u
2023-08-03, 13:18:21
Best verkaufte Lovelace 4070 TI. :lol:
Die Masse frisst alles was Nvidia hinwirft.
https://wccftech.com/nvidia-geforce-rtx-4090-is-4-times-more-popular-than-amd-radeon-rx-7900-xtx-steam/
Jo ausgerechnet der größte Schrott nach der unsäglichen 4060Ti mit 8GB verkauft sich am besten :freak:. Den Leuten ist aber auch echt nicht mehr zu helfen.
reaperrr
2023-08-03, 20:41:32
Jo ausgerechnet der größte Schrott nach der unsäglichen 4060Ti mit 8GB verkauft sich am besten :freak:. Den Leuten ist aber auch echt nicht mehr zu helfen.
Die Leute schimpfen zwar über die Preise, kaufen aber dann halt "das beste unter 1000$/€, was nicht von AMD ist".
Wobei man fairerweise natürlich sagen muss:
Wenn man eh vorhat wieder aufzurüsten, sobald 12GB zu wenig werden, und bis dahin den besten Mix aus Raster-Perf, RT-Perf, Verbrauch unter 300W und akzeptabler Lautstärke für unter 1000 will, schneidet die Ti halt auch am besten ab.
XTX ist teurer und stromhungriger (je nach Partnerdesign also entweder lauter und heißer, oder größer, manchmal auch alles davon), XT ist auch stromhungriger und in der Regel größer, und die höhere Zukunftsfähigkeit beim Speicher wird durch die geringere Zukunftsfähigkeit bei RT und dem Thema KI-Upscaling/Framegeneration leider teils konterkariert.
iamthebear
2023-08-04, 23:53:28
Auf 300W begrenzen? verliert man halt etwas Performance ...
Das kann man natürlich machen. Dann verbraucht sie in etwa so viel wie die 4080, aber es werden aus den 35% Performance Vorsprung eben nur mehr 20-25%.
Und dann kann man sich wieder die Frage stellen:
Will ich knapp 40% (1600 vs. 1150) mehr Geld für 20-25% mehr fps ausgeben?
Und das potentielle Problem mit der Gehäuse Inkompatibilität hat man immer noch wenn die GPU am HDD Tray ansteht oder der 4. Slot den 2. PCIe Slot verdeckt.
Mit meinem 700W Netzteil läuft die 4090 auch bei >450W stabil. Hatte noch nie Probleme. Ich glaube viele hier haben ein Netzteil in dieser Grössenordnung. Mit einem 500-600W Netzteil muss man evtl. etwas schauen.
Das kann man nicht so pauschal an der Wattzahl fest machen. Wenn man ein neues Netzteil hat, dann ja, wobei der typische 4080/90 Käufer hier vermutlich sowieso schon bis 1000W vorgesorgt hat.
Wenn aber sein Netzteil wie ich schon seit Generationen mitschleppt, dann sieht das etwas anders aus. Mein Netzteil hat auch 700W aber eben wie damals üblich über 4 Schienen verteilt und da kann man bei aktuellen Karten schon mal etwas mit den Adaptern herumbasteln, dass man die Last gleichmäßig auf alle 4 Schienen verteilt bekommt.
Auch die Toleranz gegen Spikes war damals bei den meisten Netzteilen noch nicht so gegeben.
Wenn die Karte wegen der Grösse nicht ins Gehäuse passt: Auch Pech gehabt. Nur denke ich, dass viele Tower mit 35cm Länge der Karte zurecht kommen. Mein Fractal Design R5 ist jetzt nicht übermässig gross, die 4090 hat aber ohne Probleme Platz. Ich benutze sogar den Festplattenkäfig.
Also ich habe bisher kein normales Gehäuse gefunden, wo laut Datenblatt mehr als 359mm rein passen wenn man nicht auf den HDD Käfig verzichten will. Bei aktuellen GPU freundlichen Designs kann man maximal 3 Platten unten beim Netzteil verstecken wo sie ohne Luftstrom dahinglühen.
Die 4090 ist ausserdem keine Ampere mit super hohen Lastspitzen, welche dir das Netzteil killen. Das hat Nvidia bei Lovelace angepasst. Gab erst letztens Messungen von CB dazu: https://www.computerbase.de/2023-07/grafikkarten-leistungsaufnahme-spiele-2023/
Das stimmt aber 450W sind eben 450W. Das ist auch ohne Spikes schon sehr hoch und wenn man diese um 300W wird sie vermutlich genauso auf 500W hoch spiken.
Reine Kopfsache ;) Solange die Performance hinten rauskommt ist es eigentlich egal, ob der Chip beschnitten ist. Es sind 10-15% Mehrpotential im Chip drin. Das ist alles. Sogar der liebe Raff ist über seinen Vollausbau-Schatten gesprungen.
Das was hinten raus kommt ist aber eben nur mittelprächtig. Ja im Vergleich zur Vorgängergeneration bzw. zu AMD ist die 4090 schnell aber wenn man bedenkt, dass diese fast 70% mehr Shader als die 4080 hat sind die 35% mehr Performance jetzt nicht so berauschend.
Joa, Power Limit Reduktion würde ich sowieso jedem empfehlen.
Da stimme ich zu. Ich würde jedoch eher dazu neigen eine 4080 auf 200W herunter zu drosseln. Allerdings habe ich bei den Wucherpreisen beschlossen generell nichts von der neuen Generation zu kaufen und habe mir zur Überbrückung eine 6800 XT geholt.
Also ist 2025 jetzt wirklich gesetzt?
Man wechselt also tatsächlich auf den 3 Jahres Rhythmus?
Das ist noch Unklar. Ich würde eher auf einen Launch Anfang 2025 tippen aber nicht so gestreckt wie bei Ada z.B.
April 2025: 5080+5090
Mai 2025: 5070/Ti
Juni 2025: 5060/Ti
Das wäre bezogen auf die 60/70er Karten immer noch ein 2 Jahres Zyklus.
Mir ging es um die Kosten. Die Entwicklungskosten steigen und steigen und irgendwann muss man die Verkaufszeiträume dehnen, damit die Kosten auch wieder reinkommen.
Die Entwicklung einer neuen Design passiert meistens aus 2 Gründen:
a) Man kombiniert dieses mit einen neuen Node, der niedrigere Kosten/Transistor ermöglicht. Also Entwicklungskosten vs. geringere Fertigungskosten
b) Man hat beim letzten Node Shrink nur ein halbherziges Design gemacht, das noch nicht gut an den neuen Node angepasst ist und holt dies nach => bringt mehr Performance bei gleichen Fertigungskosten = geringere Fertigungskoten bei gleicher Performance
Wir haben ja schon gesehen, dass AMD offensichtlich kein Interesse daran hat, NV vom Thron zu stoßen, die werden das dankbar mitmachen. NV hält damit die Margen, ganz einfach.
Damit müsste man einmal definieren was mit "vom Thron stoßen" gemeint ist.
Bezogen auf die Performance des High End Modells: Dazu ist AMD technologisch nicht im Stande solange beide die selbe Fertigung verwenden.
Bezogen auf den Gaming Marktanteil: Hier hat AMD Nvidia schon längst überholt mit den ganzen Konsolen.
Die Leute schimpfen zwar über die Preise, kaufen aber dann halt "das beste unter 1000$/€, was nicht von AMD ist".
Die meisten Leute haben irgendeine lahme 1060 oder noch älter und stehen aktuell vor der Situation, dass sie entweder zu einer komplett überteuerten GPU von welchem Hersteller auch immer greifen oder neue AAA Titel einfach nicht mehr sinnvoll spielen können.
Das mit dem VRAM hat der Durchschnittskäufer noch nicht mitbekommen. Der sicht bestensfalls per Google nach dem ersten Rating. Und wenn da Nvidia und AMD ca. gleich sind, dann wird Nvidia gekauft, da man AMD nicht traut.
Dural
2023-08-08, 10:19:34
Die 4070 Ti ist aktuell auch mit Abstand beste Karte. Einzig die 4090 ist noch interessant, für viele aber zu teuer.
robbitop
2023-08-08, 10:30:09
Ich finde sie überteuert. 800 € für Mittelklasse ist total abgehoben. Selbst für die 80 wäre das noch ziemlich viel Geld.
Nvidia hat mit Ada wirklich bei den Preisen bis dato übertrieben leider. Und AMD macht es leider auch nach so dass niemand an GPUs mit gutem P/L kommt -> sofern sie neu sein sollen. Gutes P/L gibt es leider nur gebraucht aus der RDNA2/Ampere Generation aktuell.
00-Schneider
2023-08-08, 10:38:29
Die Grenzen haben sich halt bei PC-Hardware verschoben. Und die Leute kaufen zu dem Preis, also müssen die Hersteller auch keine Preise senken.
Exxtreme
2023-08-08, 10:43:07
Ja. Die Preise sind exakt so wie die Kunden sie haben wollen. Die Kunden haben mit dem Geldbeutel abgestimmt und das ist das Ergebnis.
DrFreaK666
2023-08-08, 10:48:27
Die 4070 Ti ist aktuell auch mit Abstand beste Karte. Einzig die 4090 ist noch interessant, für viele aber zu teuer.
Das besserer P-L Verhältnis hat sicherlich die 4070 mit ebenfalls 12GB
Dural
2023-08-08, 10:54:15
Naja, die 4070Ti ist rund 25% schneller als eine 4070.
Die 4070 wäre mir schon etwas zu langsam, da ist der Preisaufschlag von ca. 30% für die 4070Ti schon OK.
The_Invisible
2023-08-08, 11:05:45
Das was hinten raus kommt ist aber eben nur mittelprächtig. Ja im Vergleich zur Vorgängergeneration bzw. zu AMD ist die 4090 schnell aber wenn man bedenkt, dass diese fast 70% mehr Shader als die 4080 hat sind die 35% mehr Performance jetzt nicht so berauschend.
Sind öfters mal auch >40% zwischen 4080 und 4090 zb https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/ oder aktuell BaldursGate 3
Das war früher schon manchmal eine neue Generation, 1080 auf 2080 bot weniger...
Naja, die 4070Ti ist rund 25% schneller als eine 4070.
Die 4070 wäre mir schon etwas zu langsam, da ist der Preisaufschlag von ca. 30% für die 4070Ti schon OK.
Wenn die Ti mehr Speicher mitbrächte, der zum Leistungsabstand passt, würde ich da mitgehen. Tut sie aber leider nicht. 12 GiByte sind derzeit weit entfernt von eklig (jedenfalls deutlich besser, als es oft dargestellt wird), aber bei einer 800-Euro-Karte tut das mindestens im Kopf weh.
-> RTX 4070 für kurz- bis mittelfristigen Spaß und auf die nächste Generation sparen, um sicherzugehen.
MfG
Raff
DrFreaK666
2023-08-08, 11:26:06
Wenn die Ti mehr Speicher mitbrächte, der zum Leistungsabstand passt, würde ich da mitgehen. Tut sie aber leider nicht...
-> RTX 4070 für kurz- bis mittelfristigen Spaß und auf die nächste Generation sparen, um sicherzugehen.
MfG
Raff
Deswegen sehe auch ich die 4070 als die bessere Karte
robbitop
2023-08-08, 11:48:38
Die Grenzen haben sich halt bei PC-Hardware GPUs verschoben. Und die Leute kaufen zu dem Preis, also müssen die Hersteller auch keine Preise senken.
Fixed that for you. ;)
Alles andere ist nicht auffällig teuer. CPUs, GPUs, Flash, RAM.
Es sind nur GPUs und es liegt daran, dass es nicht genug Wettbewerb gibt. Nvidia verdient sich dumm und dusselig und AMD macht es halt nach. Es ist nicht so als wenn die GPUs nicht günstiger sein könnten - Marge ist fettig ohne Ende.
Und die Leute kaufen das anscheinend auch nicht so. Die Absätze bei PC Hardware gehen überall runter und es gibt etliche Berichte, dass die neue GPU Generation sich nicht besonders gut verkauft. Nvidia hat damit kein Problem - werden halt weniger GPUs für's Gaming verkauft und mehr für KI/Datacenter. Gerade für KI wird ihnen das Silizium zu hohen Preisen aus den Händen gerissen. Und auch GA10x kann ganz gut zum Training von NNs genutzt werden - da braucht es nicht zwangsweise Hopper.
Altehardware
2023-08-08, 12:46:21
Derzeitige PL bei gpu
rx6600 21,73€ per tf
rx6650xt 24,50€
rx6800xt 25,11€
rtx4090 25,78€
rx7900xt 26,50€
rx7900xtx 27,50€
rtx4070ti 29,50€
Alles darunter wird teurer die teuerste sku ist die gt1030 mit 89€ per tf
Wieviel fps per tf herauskommen ist die variable
00-Schneider
2023-08-08, 15:20:09
Nach der Übersicht wäre die 4090 eigentlich zu billig. Zumindest unter der Prämisse, dass man für das Topprodukt immer einen Aufschlag zahlen muss. Der Vorteil der 4090 ggü. allen anderen Karten ist auch ease of use bzw. die Zeitersparnis (Zeit = Geld!). Man muss in 99% der Titel nicht groß überlegen und ewig testen, wie man die Settings bzgl. Optik/Leistung einstellt, sondern knallt pauschal alles auf "Ultra". Plug & Play wie bei einer Konsole quasi.
robbitop
2023-08-08, 15:23:11
Derzeitige PL bei gpu
rx6600 21,73€ per tf
rx6650xt 24,50€
rx6800xt 25,11€
rtx4090 25,78€
rx7900xt 26,50€
rx7900xtx 27,50€
rtx4070ti 29,50€
Alles darunter wird teurer die teuerste sku ist die gt1030 mit 89€ per tf
Wieviel fps per tf herauskommen ist die variable
€ pro FPS ist relevant, denn TFLOPs skalieren oft viel viel schlechter als linear mit den FPS. Und wenn man das macht, liegt die 6700 XT nach aktuellem Straßenpreis ganz weit vorn.
Nach der Übersicht wäre die 4090 eigentlich zu billig. Zumindest unter der Prämisse, dass man für das Topprodukt immer einen Aufschlag zahlen muss. Der Vorteil der 4090 ggü. allen anderen Karten ist auch ease of use bzw. die Zeitersparnis (Zeit = Geld!). Man muss in 99% der Titel nicht groß überlegen und ewig testen, wie man die Settings bzgl. Optik/Leistung einstellt, sondern knallt pauschal alles auf "Ultra". Plug & Play wie bei einer Konsole quasi.
Das Schlimme ist, dass das Flaggschiff noch so ziemlich das am wenigsten schlechte P/L hat. Und das ist schon nicht besonders gut.
Normalerweise wird P/L in den unteren Segmenten besser. Bei Ada wird es eher leicht schlechter bis maximal gleich.
Schnitzl
2023-08-08, 17:00:53
Deswegen sehe auch ich die 4070 als die bessere Karte
+1
4070 : Realverbrauch 193W 12GB
4070ti: Realverbrauch 267W 12GB
4080 : Realverbrauch 297W 16GB
sehe hier keinen Punkt, der für die ti sprechen würde, zumal sie auch das schmale Speicherinterface hat wie die 4070 nonti
quelle https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-mai-2023
Also entweder 4080 oder
(...)
-> RTX 4070 für kurz- bis mittelfristigen Spaß und auf die nächste Generation sparen, um sicherzugehen.
Troyan
2023-08-08, 17:34:58
Gerade angekündigt: Hopper bekommt HBM3e - H100 mit 141GB und 5TB/s.
The_Invisible
2023-08-08, 19:19:46
Gerade angekündigt: Hopper bekommt HBM3e - H100 mit 141GB und 5TB/s.
Bitte halbe Specs von Speicher/Bandbreite fürs Gaming :D
Edgecrusher86
2023-08-09, 09:57:32
RTX 5000 Ada -> AD102 - 100SM - 12800SP FP32 - 32GB @ 256-bit SI - 250W
RTX 4500 Ada -> AD104 - 60SM - 7680SP FP32 - 24GB @ 192-bit SI - 210W
RTX 4000 Ada -> AD104 - 48SM - 6144SP FP32 - 20GB @ 160-bit SI - 130W
Die RTX 5000 Ada GPU könnte ja Basis für eine RTX 4080 Ti sein - bloß nicht am SI und VRAM, da würde ich 320-bit und 20GB G6X erwarten und 400W TGP. ;)
Troyan
2023-08-09, 09:58:33
Bitte halbe Specs von Speicher/Bandbreite fürs Gaming :D
Da stellt sich die Frage, ob HBM3e nicht für Gaming relevant werden könnte. Du brauchst nur ein Stack und hast 1 TB/s Bandbreite und 20GB oder so Speicher... Kann nicht viel teurer sein als 384bit Interface mit GDDR.
Platos
2023-08-09, 10:42:30
Anscheinend kann es doch teurer sein. Wäre dem nicht so, würde es benutzt werden.
HBM ist übrigens im Preis massiv gestiegen seit dem AI Boom. Ein Grund mehr, dass es noch lange nicht für consumer kommt.
Nachdem meine IT die letzte Tage versucht hat ein paar A100/H100 zu besorgen, seh ich aktuell schwarz für neue Consumer Karten.
Selbst bei Azure bekommen neue Kunden auf undefinierte Zeit keinen Zugriff mehr auf LLMs, da sie keine ausreichende Hardware beschaffen können. :freak:
Für Nvidia macht es sicherlich keinerlei Sinn irgendwie Kapazität in Consumer Hardware zu stecken, wenn sie nicht mal in der Lage sind ausreichend Karten für 30-40k und gigantischen Margen zu liefern.
Slipknot79
2023-08-09, 12:10:39
Was berechnen die A100 und H100 denn so, dass sie so gefragt sind? Oo
Was ist der lohnenswerte Output? Zukünftige Börsenkurse werden es wohl nicht sein?
Troyan
2023-08-09, 12:48:15
Anscheinend kann es doch teurer sein. Wäre dem nicht so, würde es benutzt werden.
HBM ist übrigens im Preis massiv gestiegen seit dem AI Boom. Ein Grund mehr, dass es noch lange nicht für consumer kommt.
HBM3e steigert die Bandbreite um 50% und dazu auch noch die Kapazität. Mit einem Stack und 1024bit schafft man so 1TB/s - also genauso viel wie die 4090 mit 384bit und 12x GDDR.
Kann mir nicht vorstellen, dass das alles am Ende soviel teurer wäre.
Rampage 2
2023-08-09, 13:25:14
Die RTX 5000 Ada GPU könnte ja Basis für eine RTX 4080 Ti sein - bloß nicht am SI und VRAM, da würde ich 320-bit und 20GB G6X erwarten und 400W TGP. ;)
Das waere zu wenig - bei nur 100 SMs (da du von 12800 SPs geschrieben hattest) haette "deine" 4080 Ti nur 9 von 12 GPCs aktiv. Es müssten also allermindestens 109 SPs vorhanden sein, damit wenigstens 10 GPCs aktiv bleiben. Eher 120 SPs, so dass exakt 10 volle GPCs zur Verfügung stehen, denn noch nie hatte bei Nvidia der Top-Dog (xx90, Titan) 10% oder mehr Recheneinheiten als bei der entsprechenden xx80 Ti-Abstufung;)
R2
KarlKastor
2023-08-09, 14:53:31
Für Nvidia macht es sicherlich keinerlei Sinn irgendwie Kapazität in Consumer Hardware zu stecken, wenn sie nicht mal in der Lage sind ausreichend Karten für 30-40k und gigantischen Margen zu liefern.
Nvidia hat sich erst kürzlich gesagt, dass es nicht an GPUs mangelt, sondern an anderen Komponenten bzw. CoWoS packaging.
Da gibt's dann auch kein Grund weniger Gaming GPUs zu fertigen.
w0mbat
2023-08-09, 15:04:15
Kann mir nicht vorstellen, dass das alles am Ende soviel teurer wäre.
Das Problem ist eher der Interposer bzw. das CoWoS packaging.
Platos
2023-08-09, 22:47:51
HBM3e steigert die Bandbreite um 50% und dazu auch noch die Kapazität. Mit einem Stack und 1024bit schafft man so 1TB/s - also genauso viel wie die 4090 mit 384bit und 12x GDDR.
Kann mir nicht vorstellen, dass das alles am Ende soviel teurer wäre.
Tja, ist aber so:freak:
Wie gesagt. Ist sau teuer geworden: http://www.businesskorea.co.kr/news/articleView.html?idxno=109380
Das Problem ist eher der Interposer bzw. das CoWoS packaging.
HBM3 ist an sich teurer geworden.
Thunder99
2023-09-01, 12:04:29
MSI hat jetzt ja die Slim Versionen aller Modelle angekündigt und liefert teilweise schon aus.
Endlich nicht mehr Zwang zu sehr dicken Modellen. Leider nur etwas spät...
Bin gespannt ob es Tests gibt, gerade bei 4080 und 4090 und wie sich die Karten gegenüber ihren dicken Schwester Modellen verhalten.
Ich erwarte da schon kaum mehr Lautstärke da die Lovelace ja an sich sehr effizient sind :)
MSI hat jetzt ja die Slim Versionen aller Modelle angekündigt und liefert teilweise schon aus.Danke für den Hinweis, finde ich sehr interessant! Gibt es Erfahrungswerte von früheren Serien, wie die MSI Slim ggü. deren jeweiliger Nicht-Slim-Variante in Lautstärke und Performance ausfallen?
rentex
2023-09-01, 20:09:57
Danke für den Hinweis, finde ich sehr interessant! Gibt es Erfahrungswerte von früheren Serien, wie die MSI Slim ggü. deren jeweiliger Nicht-Slim-Variante in Lautstärke und Performance ausfallen?
Frühere Slim Versionen, werden nicht mit den jetzigen Modellen vergleichbar sein, da die Kühlerkonstruktion verbessert worden ist.
Rampage 2
2023-09-10, 00:21:04
Ich weiß, ihr könnt nichts dafür, aber es juckt mich in den Fingern:freak: - deswegen muss ich fragen; sei es nur um die Langeweile zu vertreiben, denn mit Ausnahme von DLSS 3.5 (was keine neue GPU ist;)) herrscht bei Lovelace Totenstille!
Was für neue LL-GPUs kann man in den nächsten 6-12 Monaten erwarten? Insbesondere den aktuellen Stand bzgl. eines möglichen LL-Refreshs, da die NextGen (Blackwell) diesmal deutlich später als üblich (nicht vor 2025) releast werden wird - was einen Refresh der RTX40-Generation mit leistungsstärkeren Modellen wahrscheinlicher macht als bei vergangenen Nvidia-Generationen:)
R2
BlacKi
2023-09-10, 00:47:24
ich denke, die meisten werden dem gerücht zustimmen, das es vor 2025 keine neue generation nv gpus geben wird. und dann vl +60%.
feature seitig ist natürlich alles offen, aber es ist auch noch zeit bis dahin. dlss ist recht gut, ich kann mit balanced meine 4k gut bedienen, deshalb hab ich bis 2025 erstmal keinen need. ich denke es geht allen so über der performance der 3080.
=Floi=
2023-09-10, 01:44:17
Kommt stark drauf an, was TSMC bieten wird.
Im profisegment kann ich mir gut vorstellen, dass NV dort weitere extrachips auflegen wird.
Rampage 2
2023-09-10, 01:52:49
ich denke, die meisten werden dem gerücht zustimmen, das es vor 2025 keine neue generation nv gpus geben wird. und dann vl +60%.
Ich sprach ja auch nicht von "Neuer Generation", sondern von einem Refresh bereits vorhandener LL-Chips (AD10x). Zum Beispiel der AD102-Chip hat, ausgehend von der jetzigen RTX 4090, noch *deutliche* Reserven nach oben hin: 12,5% mehr Recheneinheiten, 1 zusätzliche GPC, 24MB zusätzlichen L2-Cache und schnelleren GDDR6X-Speicher (24Gbps) oder erstmaligen Verbau von noch schnellerem (28Gbps) GDDR7-Speicher - IIRC unterstützt Lovelace diesen Speicherstandard bereits. Eine solche Konfiguration könnte dann in Form einer "4090 Ti" in Erscheinung treten und die "Titan"-Version dann mit derselben Konfiguration, aber doppeltem Speicher (48GB VRAM).
Ähnliche Story beim AD103: Nvidia könnte den defekten Chip fixen, so dass die vollen 84 SMs aktiviert werden können (statt max. 80 wie beim jetzigen, defekten AD103) und zusätzlich noch schnelleren Speicher (GDDR6X oder GDDR7) anflanschen, da bereits der jetzige AD103-Chip (RTX 4080) die Kapazität seines L2-Caches maximal ausreizt.
R2
BlacKi
2023-09-10, 02:04:27
wurde die 4090ti nicht dementiert? und kurz vor der neuen gen interessiert ein full chip ada nicht mehr. das wäre wie einen krüppel zu kaufen, siehe 3090ti.
davon abgesehen fehlt die konkurenz.
das ein refresh kommt ist relativ wahrscheinlich, sonst wäre die zeitspanne zu groß. wie der aussieht ist ungewiss. nv hat scheinbar keine interessen geld zu verschenken, und wird das nicht ohne not tun.
-=Popeye=-
2023-09-10, 02:12:43
Ich sprach ja auch nicht von "Neuer Generation", sondern von einem Refresh bereits vorhandener LL-Chips (AD10x). Zum Beispiel der AD102-Chip hat, ausgehend von der jetzigen RTX 4090, noch *deutliche* Reserven nach oben hin: 12,5% mehr Recheneinheiten, 1 zusätzliche GPC, 24MB zusätzlichen L2-Cache und schnelleren GDDR6X-Speicher (24Gbps) oder erstmaligen Verbau von noch schnellerem (28Gbps) GDDR7-Speicher - IIRC unterstützt Lovelace diesen Speicherstandard bereits. Eine solche Konfiguration könnte dann in Form einer "4090 Ti" in Erscheinung treten und die "Titan"-Version dann mit derselben Konfiguration, aber doppeltem Speicher (48GB VRAM).
Ähnliche Story beim AD103: Nvidia könnte den defekten Chip fixen, so dass die vollen 84 SMs aktiviert werden können (statt max. 80 wie beim jetzigen, defekten AD103) und zusätzlich noch schnelleren Speicher (GDDR6X oder GDDR7) anflanschen, da bereits der jetzige AD103-Chip (RTX 4080) die Kapazität seines L2-Caches maximal ausreizt.
R2
https://www.windowscentral.com/hardware/nvidia/nvidia-reportedly-cancels-rtx-4090-ti
https://www.gamestar.de/artikel/geruecht-rtx-4090-ti,3398231.html
https://www.pcwelt.de/article/2010305/geforce-rtx-4090-ti-soll-gestrichen-worden-sein.html
https://winfuture.de/news,137623.html
robbitop
2023-09-10, 09:01:19
IIRC wurden die refreshes von NV immer dann besonders gut (aus P/L Sicht) wenn sie durch den Wettbewerber dazu gezwungen worden sind.
Das ist aktuell kaum der Fall. Ggf im unteren Segment wo jetzt mit N32 aus P/L Sicht halbwegs interessante und angeblich stark nachgefragte Produkte vorhanden sind. Dann könnte Nv ein paar Shader mehr an AD104/106 freischalten und ggf manchen SKUs mehr RAM geben.
Wenn man sich die Preisentwicklung über die Lebensspanne der letzten Gens so anschaut, erscheint es mir am sinnvollsten direkt zum Launch zu kaufen. Es wird kaum günstiger und wenn man es dann umrechnet in Kosten pro Monat ist das Auskommen so am besten.
Mit einer 3080 im System kann ich mir vorstellen, eine 5070 zu nehmen in 2025.
DrFreaK666
2023-09-10, 10:41:23
...Mit einer 3080 im System kann ich mir vorstellen, eine 5070 zu nehmen in 2025.
Hast du nicht mal gesagt, dass du NV nicht direkt unterstützen willst und daher nur gebraucht kaufst?
robbitop
2023-09-10, 11:15:04
Hast du nicht mal gesagt, dass du NV nicht direkt unterstützen willst und daher nur gebraucht kaufst?
Das habe ich anders geschrieben/gemeint. Ich will Abzocke nicht unterstützen. Wenn die 5070 keine Abzocke ist (also P/L stimmt), ist ein Neulauf natürlich okay. Wenn sie abzocke wird, dann gebraucht.
DrFreaK666
2023-09-10, 12:03:18
ok. Dann hoffen wir auf eine 5070 mit 16GB für max 600€ mit 4080 Performance :D
Ex3cut3r
2023-09-10, 12:04:57
Das habe ich anders geschrieben/gemeint. Ich will Abzocke nicht unterstützen. Wenn die 5070 keine Abzocke ist (also P/L stimmt), ist ein Neulauf natürlich okay. Wenn sie abzocke wird, dann gebraucht.
ok. Dann hoffen wir auf eine 5070 mit 16GB für max 600€ mit 4080 Performance :D
Nie im Leben. Die Zeiten sind vorbei. AMD bietet eine veraltete Bildqualität und ist auch nicht viel günstiger dabei. Bei CPUs wiederum bekommt man fürs selbe Geld "Kern Krüppels" im Vergleich zu Intel CPUs.
DrFreaK666
2023-09-10, 12:11:11
Nie im Leben. Die Zeiten sind vorbei. AMD bietet eine veraltete Bildqualität und ist auch nicht viel günstiger dabei. Bei CPUs wiederum bekommt man fürs selbe Geld "Kern Krüppels" im Vergleich zu Intel CPUs.
Die 5070Ti muss mit Leichtigkeit die 4080 erreichen, sonst ebbt der Shitstorm nie ab
robbitop
2023-09-10, 12:12:29
ok. Dann hoffen wir auf eine 5070 mit 16GB für max 600€ mit 4080 Performance :D
Tja das ist realistisch. Bis inkl Pascal hat man mit der "70" die vorherige Top SKU (80ti/Titan/jetzt wäre es die 90) geholt.
Meine Hoffnung wäre eigentlich schneller als die 4080 - aber wahrscheinlich wird es so bleiben, dass man nur moderat drauflegt in den unteren Produktreihen :-/
Die 5070Ti muss mit Leichtigkeit die 4080 erreichen, sonst ebbt der Shitstorm nie ab
Wenn die Preisbildung wieder so wie bei Ada ist, finde ich die 70ti uninteressant. Preis/Leistung noch schlechter als die 70.
robbitop
2023-09-10, 12:15:42
Nie im Leben. Die Zeiten sind vorbei. AMD bietet eine veraltete Bildqualität und ist auch nicht viel günstiger dabei. Bei CPUs wiederum bekommt man fürs selbe Geld "Kern Krüppels" im Vergleich zu Intel CPUs.
Naja der Zen4X3D ist oft die schnellste CPU im Gaming. Und die vielen E-Cores bringen beim Zocken eh nichts. Also für mich sind die als Gamer im Desktopbereich nur was zum "Herunterholen" beim Anschauen von irgendwelchen MT Benchmarks, die nichts mit Gaming zu tun haben.
Wer produktiv arbeitet und tatsächlich beruflich extreme MT Leistung braucht (die mehr Kerne als die 16 großen Zens braucht), dann mag einen das locken. Aber selbst dann wäre Threadripper wahrscheinlich viel besser (aber auch teurer - aber 99,99% der Aufgaben sind eh nicht so MT CPU limitiert und wenn sie es sind, sind die meisten davon auch mit GPU Compute lösbar und der verbliebene 0,001% der wirklich >32T CPU Leistung ausreizen kann, der wird dann sicherlich auch das Maximum wollen - wenn man damit Geld verdient kauft man in der Regel dann auch HEDT HW - und dann kommt man an Threadripper nicht vorbei).
DrFreaK666
2023-09-10, 12:16:24
Tja das ist realistisch...
Meiner Meinung nach wäre das eine vernünftige Karte.
Man darf halt keine 5060 Ti mit 24GB oder so einen Quatsch machen. 5060Ti mit 12GB und gut ist
robbitop
2023-09-10, 12:19:54
Jo sehe ich auch so. Und da AMD N41/42 gestrichen zu haben scheint, wird es nicht viele Alternativen geben.
Laut RGT sieht Battlemage in Spielen auch schlechter aus als erwartet. Die große BM soll auf 4080 Performance geplant gewesen sein - erreicht sie aber nur in Compute. In Gaming wohl eher Richtung 4070. Ich hoffe, es wird nicht so. Intel könnte es nochmal spannend machen.
Mit XeSS über XMX haben sie ja auch ein feines DL Upsampling und ich könnte mir vorstellen, dass sie auch längst an DLSS 3 und 3.5 Äquivalenten arbeiten. Bei Intel ist viel NN Know How vorhanden - und Engineering Resources haben sie ja auch genug.
aufkrawall
2023-09-10, 12:21:04
Und die vielen E-Cores bringen beim Zocken eh nichts.
Tun sie mittlerweile selbst in Fortnite:
https://abload.de/thumb/fortniteclient-win64-y9fq2.png (https://abload.de/image.php?img=fortniteclient-win64-y9fq2.png)
Mit 8C ohne E-Cores brechen die fps ein, mit E-Cores nicht.
The_Invisible
2023-09-10, 12:26:28
Reine 8c/16t CPU würde ich auch nur mehr kaufen wenn ich eine reine zockstation bräuchte. Und diese "only one ccd 3dcache" Geschichte ist Mal wieder typisch AMD, kann mich damit nicht anfreunden. Würde ich derzeit kaufen wärs auch ein Intel.
robbitop
2023-09-10, 12:28:05
Tun sie mittlerweile selbst in Fortnite:
https://abload.de/thumb/fortniteclient-win64-y9fq2.png (https://abload.de/image.php?img=fortniteclient-win64-y9fq2.png)
Mit 8C ohne E-Cores brechen die fps ein, mit E-Cores nicht.
Naja ich meinte das eher in Bezug auf wenn man 16 echte Core hat (was ja bei AMD geht). Dass 8 Cores auch heutzutage (besonders mit RT) irgendwann mal nicht genug sein können, macht schon Sinn. Entsprechend sollte in den Fällen der 7950X3D fast immer regeln.
Reine 8c/16t CPU würde ich auch nur mehr kaufen wenn ich eine reine zockstation bräuchte. Und diese "only one ccd 3dcache" Geschichte ist Mal wieder typisch AMD, kann mich damit nicht anfreunden. Würde ich derzeit kaufen wärs auch ein Intel.
Hatten die Reviews nicht gezeigt, dass das ganz gut funktioniert beim 7950X3D?
Der Hintergrund ist ja, dass man mit X3D nicht ganz so hoch takten kann und man je nach Anwendung das beste aus beiden Welten haben kann.
IMO muss (egal ob Intel oder AMD) der Cache nach unten. Dann ist das thermisch auch egal und es gibt kein Taktverlust. Intel will das ja mit dem Adamantium Cache so machen. Der kommt in den aktiven Interposer. N41 hatte ja auch sowas geplant, wenn man sich das Patent anschaut. IMO ist das der nächste Schritt.
Aber kleiner LLC -> hätte ich kein bock mehr drauf. Denn er ermöglicht der CPU viel öfter immer durcharbeitgen zu können und nicht auf Daten warten zu müssen. Konsistenz wird besser.
aufkrawall
2023-09-10, 12:31:37
In Starfield war doch der 7950X3D in einigen Tests langsamer als der 7800X3D. Multi-CCD AMD-CPUs sind einfach immer noch Murks für Gaming und funktionieren schlechter als Intels wesentlich komplexeres little.big. Genau wie die geringere Core-Zahl beim 7800X3D, spiegelt sich auch dieser Makel nicht im Preis wider. Bzw. warum sollte man das überhaupt kaufen, wenn man sich etwas informiert.
robbitop
2023-09-10, 12:32:59
Starfield ist bis dato die einzige Ausnahme oder? Dort verhalten sich CPUs und GPUs IMO auch noch etwas "merkwürdig". Kann mir gut vorstellen, dass da noch einiges (über game patches und treiberupdates) gefixt wird. Aber garantieren kann man es nicht.
Am Ende wird (ggf. noch mehr?) Cache im aktiven Interposer für alle CPU Vendors wahrscheinlich die beste Lösung sein. Voller Takt, mehr Cache, ggf. kann man sogar DRAM/1-T SRAM Zellen nutzen. Und dann hat man ja auch genug Platz um das für alle Chiplets zu machen. Oder man bringt einen (etwas langsameren) großen L4.
Exxtreme
2023-09-10, 12:46:44
In Starfield war doch der 7950X3D in einigen Tests langsamer als der 7800X3D. Multi-CCD AMD-CPUs sind einfach immer noch Murks für Gaming und funktionieren schlechter als Intels wesentlich komplexeres little.big. Genau wie die geringere Core-Zahl beim 7800X3D, spiegelt sich auch dieser Makel nicht im Preis wider. Bzw. warum sollte man das überhaupt kaufen, wenn man sich etwas informiert.
Das Problem ist, das PC-Ökosystem ist nicht auf Multi-Kern-CPUs ausgelegt, deren Kerne ein unterschiedliches Laufzeitverhalten haben. Und da kommt es zu solchen Ausreissern wie bei Starfield. Der Windows-Scheduler kann es nicht sinnvoll verteilen, der Linux-Scheduler übrigens auch nicht. Und deshalb muss man immer wieder manuell nachhelfen. Und das wird man immer wieder müssen solange das Halteproblem nicht gelöst ist.
aufkrawall
2023-09-10, 12:54:03
Musste mit 13700K & Win 11 22H2 noch nie irgendwas für eine einzelne Anwendung gesondert erzwingen. Mit abgeschaltetem Core Parking lief bislang jedes Spiel mit E-Cores aus via Bios höchstens gleich schnell, oft langsamer.
Exxtreme
2023-09-10, 12:55:36
Den FF14 Endwalker Benchmark erkennt Windows 11 nicht als Spiel bei mir. Wenn ich den nicht manuell auf Kerne 0 - 15 pinne, verliere ich so ca. 15% an Punkten. :freak:
Platos
2023-09-10, 13:03:32
Intel regelt das Scheduling doch (zumindest teilweise) selbst in Hardware oder?
Hat AMD denn nichts entsprechendes für ihren 7950X3D und den 12 Kerner?
aufkrawall
2023-09-10, 13:07:00
Den FF14 Endwalker Benchmark erkennt Windows 11 nicht als Spiel bei mir. Wenn ich den nicht manuell auf Kerne 0 - 15 pinne, verliere ich so ca. 15% an Punkten. :freak:
War da nicht was mit dem Xbox Overlay, wo man die "Spiel-Behandlung" erzwingen konnte?
Mit dem Thread Director ist das halt (fast) egal. Man sollte nur das ausbalanciert-Energieprofil verwenden, damit Fenster mit Fokus/Vollbildanwendungen die P-Cores priorisieren.
Ex3cut3r
2023-09-10, 13:18:56
Naja der Zen4X3D ist oft die schnellste CPU im Gaming. Und die vielen E-Cores bringen beim Zocken eh nichts. Also für mich sind die als Gamer im Desktopbereich nur was zum "Herunterholen" beim Anschauen von irgendwelchen MT Benchmarks, die nichts mit Gaming zu tun haben.
Leider mittlerweile eine veraltete bzw. falsche Denkweise. Bei Spielen muss man neuerdings immer öfters Shader Kompilieren, sei es vor dem Spielstart (Hallo Uncharted und Last of Us) oder während des Spielens Fortnite (aktuellste UE5 Version) Und der Spaß beginnt immer wieder von vorne, wenn man den GPU Treiber wechselt.
Nvidia rls alle 2 Wochen einen HotFix oder neuen Treiber, heißt also, alle 2 Wochen muss ich bei Last of Us z.B. mit einem 5700X 20-25 Minuten vor dem Bildschirm hocken, bis ich wieder spielen kann. Bei einem 7800X3D der vor einigen Wochen noch 500€ gekostet hat, ein Armutszeugnis, weil der 300€ teure 13600k das in 10 Minuten erledigt, vom gleich teuren 13700k wie der 7800X3D ganz zu schweigen.
Vielen Cores/Threads helfen einfach extrem mittlerweile. :wink:
Slipknot79
2023-09-10, 14:04:12
Das habe ich anders geschrieben/gemeint. Ich will Abzocke nicht unterstützen. Wenn die 5070 keine Abzocke ist (also P/L stimmt), ist ein Neulauf natürlich okay. Wenn sie abzocke wird, dann gebraucht.
Und derjenige der dir die 5070 verkauft hat, kauft sich eine andere 5070 weil sie besser taktet? :redface:
Leider mittlerweile eine veraltete bzw. falsche Denkweise. Bei Spielen muss man neuerdings immer öfters Shader Kompilieren, sei es vor dem Spielstart (Hallo Uncharted und Last of Us) oder während des Spielens Fortnite (aktuellste UE5 Version) Und der Spaß beginnt immer wieder von vorne, wenn man den GPU Treiber wechselt.
Vielen Cores/Threads helfen einfach extrem mittlerweile. :wink:
So gut wie immer jedoch nur in solchen Fällen. Spiele sind auch im Jahr 2023 noch nicht breit genug auf Multithreading ausgelegt, damit wir Alder- und Raptor Lake Nutzer von den E-Cores profitieren. Schau dir allein Starfield an, die beste Performance gibt es bei Intel mit E-Cores off und SMT off, sprich 8C/8T.
Klar gibt es auch leuchtende Beispiele wie Cyberpunk 2077, diese Spiele sind jedoch die große Ausnahme.
aufkrawall
2023-09-10, 14:32:15
So gut wie immer jedoch nur in solchen Fällen. Spiele sind auch im Jahr 2023 noch nicht breit genug auf Multithreading ausgelegt, damit wir Alder- und Raptor Lake Nutzer von den E-Cores profitieren. Schau dir allein Starfield an, die beste Performance gibt es bei Intel mit E-Cores off und SMT off, sprich 8C/8T.
Schon zu allen möglichen Spielen gelesen, hat sich hier immer als unwahr entpuppt...
bbott
2023-09-10, 14:35:56
Musste mit 13700K & Win 11 22H2 noch nie irgendwas für eine einzelne Anwendung gesondert erzwingen. Mit abgeschaltetem Core Parking lief bislang jedes Spiel mit E-Cores aus via Bios höchstens gleich schnell, oft langsamer.
:freak: Der 13700 ist die wie viele Bug.little Gen? Und die wievielte 3D Gen mit unterschiedlichen Cache ist es bei AMD?
Releases Diffenenz? Auch ist Bug.little schon lange bei ARM und MS bekannt und konzeptionell alt. Aber Anwendungen nach Cache oder Takt preverzenzen zuzuordnen ist wieder was leicht anderes...
Dein Name ist echt Programm, aber fanboy@krawall wäre noch treffender :D
aufkrawall
2023-09-10, 14:38:27
Plumpe relativierung der Multi-CCD-Probleme, verpackt in einem schönen Müll-Post. Als Belohnung darfst du auf die Ignore-List. :cool:
Und weil ich so ein Fanboy bin, hab ich auch einen 5700X. "Propellerjunge" fällt hier in letzter Zeit häufiger...
bbott
2023-09-10, 14:42:55
Plumpe relativierung der Multi-CCD-Probleme, verpackt in einem schönen Müll-Post. Als Belohnung darfst du auf die Ignore-List. :cool:
Und weil ich so ein Fanboy bin, hab ich auch einen 5700X. "Propellerjunge" fällt hier in letzter Zeit häufiger...
Ganze Zeit beleidigend schreiben, Fakten verdrängen und ignorien und bei Kontra die Segel streichen ;D
Ex3cut3r
2023-09-10, 15:21:40
So gut wie immer jedoch nur in solchen Fällen. Spiele sind auch im Jahr 2023 noch nicht breit genug auf Multithreading ausgelegt, damit wir Alder- und Raptor Lake Nutzer von den E-Cores profitieren. Schau dir allein Starfield an, die beste Performance gibt es bei Intel mit E-Cores off und SMT off, sprich 8C/8T.
Klar gibt es auch leuchtende Beispiele wie Cyberpunk 2077, diese Spiele sind jedoch die große Ausnahme.
Absolut. Aber wie gesagt, beim Shader Kompilieren für Spiele, kann man tatsächlich nie genug Kerne/Threads haben. Und damit bringt es eben doch etwas in Spielen. Das war mir wichtig im Bezug auf Robbitops Comment.
AMD müsste endlich mal die 8C/16T als Ryzen 5 vermarkten für 250€ und die 16C/32T Variante als Ryzen 7 für 550€ etc. das wäre preislich im Vergleich zu Intel fair. Intel wird in Zukunft immer mehr E-Cores reinspammen. Und AMD sieht mit ihren Varianten, ziemlich "popellig" aus, was MT angeht.
robbitop
2023-09-10, 17:29:34
Leider mittlerweile eine veraltete bzw. falsche Denkweise. Bei Spielen muss man neuerdings immer öfters Shader Kompilieren, sei es vor dem Spielstart (Hallo Uncharted und Last of Us) oder während des Spielens Fortnite (aktuellste UE5 Version) Und der Spaß beginnt immer wieder von vorne, wenn man den GPU Treiber wechselt.
Nvidia rls alle 2 Wochen einen HotFix oder neuen Treiber, heißt also, alle 2 Wochen muss ich bei Last of Us z.B. mit einem 5700X 20-25 Minuten vor dem Bildschirm hocken, bis ich wieder spielen kann. Bei einem 7800X3D der vor einigen Wochen noch 500€ gekostet hat, ein Armutszeugnis, weil der 300€ teure 13600k das in 10 Minuten erledigt, vom gleich teuren 13700k wie der 7800X3D ganz zu schweigen.
Vielen Cores/Threads helfen einfach extrem mittlerweile. :wink:
Der 7950x3d hat 32 Threads - das sollte reichen. ;)
robbitop
2023-09-10, 17:30:28
Und derjenige der dir die 5070 verkauft hat, kauft sich eine andere 5070 weil sie besser taktet? :redface:
Warum auch immer - er hätte die Kaufentscheidung auch ohne mich getroffen. Gebrauchte telativ neue HW gibt es immer. Schau dir Kleinanzeigen an.
The_Invisible
2023-09-10, 17:32:26
Der 7950x3d hat 32 Threads - das sollte reichen. ;)
Dafür darf der Scheduler nicht nur zwischen den zwei CCDs jonglieren sondern sollte auch noch Games und Anwendungen richtig schedulen, geht garantiert irgendwann schief
aufkrawall
2023-09-10, 17:35:09
Der 7950x3d hat 32 Threads - das sollte reichen. ;)
Der kostet auch mal eben 670€, nur schlappe 74% teurer als ein 13700K. :freak:
=Floi=
2023-09-10, 17:52:34
Dafür darf der Scheduler nicht nur zwischen den zwei CCDs jonglieren sondern sollte auch noch Games und Anwendungen richtig schedulen, geht garantiert irgendwann schief
seh ich mittlerweile nicht mehr als so schlimm an.
Heute kann man da viel mehr rechenleistung draufwerfen und das ganze auch besser analysieren.
Ex3cut3r
2023-09-10, 18:17:10
Der kostet auch mal eben 670€, nur schlappe 74% teurer als ein 13700K. :freak:
Ganz genau. Das Argument ist kein Argument IHMO. 7800X3D in der 500€ Preisklasse vs 13700k ist doch ein Witz was die MT Leistung angeht.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.