Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
dargo
2022-07-26, 14:57:20
Wenn die TDP limitiert, wäre dem ein Riegel vorgeschoben.
Also bei der 4090.
Und wo ist das Problem? Einfach PT rauf und fertig. Oder wie will NV das verhindern? Selbst vor anderen Biosen schrecken viele in diesem Segment nicht ab.
Leonidas
2022-07-26, 15:13:50
Also kann das Retail Produkt auch locker bei 600 anstatt 800 ankommen.
Mit 800W blinken, mit 600W ankommen. Und allen fällt ein Stein vom Herzen: Nicht ganz so schlimm wie erwartet! Also gutes Produkt!
dargo
2022-07-26, 15:17:28
Mit 800W blinken, mit 600W ankommen. Und allen fällt ein Stein vom Herzen: Nicht ganz so schlimm wie erwartet! Also gutes Produkt!
Psychologische Manipulation ist in diesem Bereich wichtig. ;)
ChaosTM
2022-07-26, 15:17:40
manchmal habe ich fast mitleid mit fanboys die sich in ihre fantasieblase verkriechen und dann jedes mal auf's neue völlig verwundert sind wenn der markt als ganzes rationale kaufentscheidungen trifft die sich innerhalb der eigenen fantasiewelt absolut nicht erklären lassen. :freak:
Jop, man kauft das was für einen persönlich die besten Resultate verspricht.
Unabhängig von der Marke.
In der letzten Zeit war das für mich eben NV.
Sollten beide ca. gleichwertig sein, werde ich aber eher zu AMD greifen, weil mir deren "Politik" (noch) besser gefällt. Das nennt man dann Bias :)
Aber eine Firma von vorne herein auszuschließen wird es nie geben, weils einfach nicht sehr schlau ist sich selbst einzuschränken.
Nazar
2022-07-26, 15:17:44
manchmal habe ich fast mitleid mit fanboys die sich in ihre fantasieblase verkriechen und dann jedes mal auf's neue völlig verwundert sind wenn der markt als ganzes rationale kaufentscheidungen trifft die sich innerhalb der eigenen fantasiewelt absolut nicht erklären lassen. :freak:
Welche Kaufentscheidung ist jemals wirklich rational in unserer Welt und besonders in der (Fantasie)Welt "der" Fanboys?
Ein multiples Paradoxon? Fanboys, Rational, Fantasiewelt, Markt? Ein Markt, der rationale Kaufentscheidungen trifft? Der Markt als Ganzes (Wesen), der sich selbst erst verkauft, nur um dann die "rationale" Entscheidung zu treffen, sich selber, meist zu einem höheren Wert, zurückzukaufen? :confused:
Ich meine zu verstehen, was du ausdrücken willst, aber das... nope. ;)
Bei Leuten wie vv verwundert mich eher, dass sie ihren Standpunkt auch in den Fällen immer noch wie eine Löwenmutter ihr Baby verteidigen, wenn die entsprechenden Produkte dann kaufbar sind. Egal, wie sehr die Fakten ihrer eigenen Welt widersprechen mögen.
Du selber meinst erkannt zu haben, dass trotz mehrfacher Versuche, sich die Aussagen einer bestimmten Person nicht ändern werden. Und trotz dieser angeblichen Erkenntnis, dass sich eh nichts ändern wird, egal was "Mann" auch immer macht, wirst du nicht müde erneut darauf hinzuweisen?
Inwieweit hat das nun der Diskussion geholfen oder die Situation (von der du selber felsenfest überzeugt bist, dass sich da nie etwas ändern wird) entschärft?
Ne, da klopfen "wir" doch lieber noch einmal so richtig auf den Busch, in der Hoffnung, dass dann daraus plötzlich ein wundervoller Blumenstrauß wird. :freak:
BTW: 9 von 10 Personen haben keine Probleme mit Mobbing. ;)
StefAlb
2022-07-26, 16:00:51
Mit 800W blinken, mit 600W ankommen. Und allen fällt ein Stein vom Herzen: Nicht ganz so schlimm wie erwartet! Also gutes Produkt!
Oder mit 800 Watt 5% schneller als die 400 Watt AMD Karte. Somit längster Balken und schnellste Karte für NVIDIA.
NVIDIA liefert die schnellsten Karten!!!Meeeeega!! Muss NVIDIA kaufen!!!
:wink::wink:
Sardaukar.nsn
2022-07-26, 16:37:49
Genau das soll passieren:
https://www.3dcenter.org/news/news-des-25-juli-2022
Danke, das wäre für mich auch der Way-to-go. Meine MSI 3080 Suprim benötigt für den konstanten 2ghz boost auch mehr TDP als die Founders Edition mit 320W liefern kann.
Vielleicht gibt ja auch direkt zeitnah custom 4090 mit Wasserblock. Wasserkühlung wäre sinniger denn je.
nordic_pegasus
2022-07-26, 16:46:36
800W / 48GB / sehr wenig beschnitten / hoher Takt .... warum nicht. Das Ding wird extrem teuer werden wenn es denn kommt (locker 3999 € oder mehr) und wird dann auch nur entsprechend wenig verkauft.
also eine Titan mit 142 von 144 SMs... und wahrscheinlich für 3000-4000€.
Sorry, aber hier noch so eine minimale Beschneidung bei den Shadern ist doch wirklich schon als FU von Nvidia an die Käufer zu interpretieren. Als ob man mit den 1,5% beschnittenen Shadern das Yield signifikant steigern könnte.
ChaosTM
2022-07-26, 17:16:47
also eine Titan mit 142 von 144 SMs... und wahrscheinlich für 3000-4000€.
Sorry, aber hier noch so eine minimale Beschneidung bei den Shadern ist doch wirklich schon als FU von Nvidia an die Käufer zu interpretieren. Als ob man mit den 1,5% beschnittenen Shadern das Yield signifikant steigern könnte.
Das sind "Machbarkeitsstudien" um AMD schon vorher zu zeigen.: wir können zurückschlagen, was immer ihr auch bringt!
Wie viel da leistungmäßig wirklich raus schaut ist in dem Fall völlig irrelevant. Wir habe den Längsten !
Und mit dem Name "Titan*" und ein paar semi-professionelle Treiber dazu gepackt erreicht man doch einige.
* das ist der Name den ich und die meisten erwarten
BlacKi
2022-07-26, 18:03:18
keine ahnung was ich davon halten soll, ob die namen echt alle so kommen? ausserdem rtx 2050? https://videocardz.com/newz/afox-registers-nvidia-geforce-rtx-40-and-amd-radeon-rx-7000-series-at-eec
dargo
2022-07-26, 18:42:50
Wir habe den Längsten !
Bei "Watt" definitiv. :tongue:
ChaosTM
2022-07-26, 18:47:03
Für die Marketing Abteilungen von *****/*** zählt leider nur das.
Strom kommt aus der Steckdose, nobody cares..
user77
2022-07-26, 18:53:34
Für die Marketing Abteilungen von *****/*** zählt leider nur das.
Strom kommt aus der Steckdose, nobody cares..
Ich denke schon, dass immer mehr Kunde auch auf den Stromverbrauch achten.
Wenn ich mir überlege mit einem 5800X3D und 6900Xt statt nem 12900ks und ner 3090 ti nur 15% langsamer zu sein, dafür aber 200W weniger aus der Steckdose zu ziehen...
bbott
2022-07-26, 21:05:04
Oder:
3090 - 450W FE und bis 600W Customer
3090Ti/Titan - 600W FE und bis 800W Customer
ChaosTM
2022-07-26, 21:12:47
Ich denke schon, dass immer mehr Kunde auch auf den Stromverbrauch achten.
Wenn ich mir überlege mit einem 5800X3D und 6900Xt statt nem 12900ks und ner 3090 ti nur 15% langsamer zu sein, dafür aber 200W weniger aus der Steckdose zu ziehen...
Natürlich -- Das war auch wieder teilweise ironisch, aber ich mag richtig dumme Karten "Titan" Style.
Die meisten von uns werden effizient Karten bevorzugen
HarryHirsch
2022-07-26, 21:45:27
manchmal habe ich fast mitleid mit fanboys die sich in ihre fantasieblase verkriechen und dann jedes mal auf's neue völlig verwundert sind wenn der markt als ganzes rationale kaufentscheidungen trifft die sich innerhalb der eigenen fantasiewelt absolut nicht erklären lassen. :freak:
das hat nix mehr mit fanboy oder blase zu tun, der hat nen loch im helm.
iamthebear
2022-07-26, 21:50:52
Also ich kann mir beim Besten Willen nicht vorstellen wie 600W im DIY Markt funktionieren sollen. Bei OEM Systemen, die speziell darauf designed sind ist das kein großes Thema aber der typische Hobbybastler, der einfach irgendwo ein paar Lüfter mit viel RGB reinsetzt wird da scheitern. Das Problem ist hier nicht so sehr die GPU. Die könnte ja einfach drosseln. Das Problem ist, dass dir dann alles andere im Gehäuse stirbt wenn du die Hitze nicht raus bringst.
Sardaukar.nsn
2022-07-26, 22:07:30
Eine 600W Grafikkarte wird alleine wohl Richtung 2000€ kosten. Diese Kunden gibt es, aber es werden wohl nicht so viele sein. Zudem wird man sich mit Vor- und Nachteilen auseinandersetzen, so wie bei anderen Männerhobbys auch.
Linmoum
2022-07-26, 22:20:33
Die Nachteile (z.B. hohe VRM/NVMe/Chipsatz-Temperaturen) wird dir aber in quasi keinem Review der Welt jemand nennen. Geht ja schließlich ausschließlich um die GPU selbst und wie die sich schlägt.
Ja, die Zielgruppe ist im Vergleich sicher klein. Aber unterschätzen würde ich das grundsätzlich nicht, auch und gerade, was den Ahnungslosenanteil bei den potentiellen Käufern anbelangt. Voraussetzen kann man sicherlich, dass solche Personen wissen, was sie tun. Da sind aber viele Bernds bei, die eben trotzdem nur - wenn überhaupt - rudimentäre Grundkenntnisse haben. Und dann geht's los mit dem rumgeschrei, warum der Rechner ständig abstürzt oder es andere Probleme gibt, die an sich erst einmal nicht zwingend Problem der GPU selbst sind, sondern erst einmal nur bedingt durch die absurde Abwärme. Dem kann man entgegen wirken, aber darauf wird nicht jeder kommen und darauf wird dann im Fall der Fälle auch nicht unbedingt jemand Lust haben.
Um das ganze Idiotensicher(er) zu machen: Potentielle >=600W (eigentlich ja schon eher ab 500W) Grafikkarten nur mit vorinstallierter Wasserkühlung (AiO oder Fullcover) ausliefern. Fertig. Sollte in diesen Verbrauchsregionen sowieso der Standard sein.
//differentRob
2022-07-26, 22:30:23
Viel lustiger wird doch dann eher das Geschrei, wenn die ersten (ich sag mal) eher preiswerten und mit zu wenig Reserve bemessenen Netzteile floppen. Es genügen ja bereits nur Lastspitzen die zur Notabschaltung führen.
Ex3cut3r
2022-07-26, 23:51:18
Dazu ist das ja noch eine vollkommen falsche Entwicklung was das Thema Nachhaltigkeit und Strompreise angeht. Hätte man 600 oder ca. 800W Karten vor 10-15 Jahren gebracht, wäre das sicherlich viel weniger "aufgefallen" als jetzt grade. :freak:
Hoffe diese Entwicklung ist nur kurzfristig anhaltend. Mittelfristig erwarte ich wieder 250-300W Karten in der absoluten Leistungsspitze. Vlt. auch 350W für das 90er Modell. Mehr aber bitte bitte nicht.
GrimReaper85
2022-07-26, 23:58:15
keine ahnung was ich davon halten soll, ob die namen echt alle so kommen? ausserdem rtx 2050? https://videocardz.com/newz/afox-registers-nvidia-geforce-rtx-40-and-amd-radeon-rx-7000-series-at-eec
Das sind nur alle Namen, die ihnen einfallen. Auch 2050 ist noch möglich, allerdings 1% Chance.
Orbmu2k
2022-07-27, 00:17:44
Und weiter? Das Ding braucht kaum Vram trotz MSAA dank forward+ Renderer. Seitdem TAA nachgereicht wurde wird wahrscheinlich eh keiner mehr MSAA verwenden. Nüchtern betrachtet ist MSAA tot.
Da wäre ich vorsichtig. Bei bei VR kommt nahezu immer Forward Renderer mit MSAA zum Einsatz. Noch dazu ist VR auch immer ein Kandidat für extreme Auflösung. Ist natürlich jetzt eher nicht der Kernmarkt aber auch die brauchen immer fettere GPUs.
dargo
2022-07-27, 07:03:59
Da wäre ich vorsichtig. Bei bei VR kommt nahezu immer Forward Renderer mit MSAA zum Einsatz. Noch dazu ist VR auch immer ein Kandidat für extreme Auflösung. Ist natürlich jetzt eher nicht der Kernmarkt aber auch die brauchen immer fettere GPUs.
Ok... bei VR muss ich passen, verwende ich nicht. :)
robbitop
2022-07-27, 07:47:52
Welchen Grund gibt es denn für MSAA, der bei VR anders ist als sonst? (gegenüber gutem TAA)
Der Forward Renderer macht MSAA günstiger und effektiver - aber gegen modernes TAA sollte MSAA trotzdem kein Stich sehen (zumal MSAA ja eben viele Dinge nicht behandelt: Shaderaliasing, je nach Implementationen auch alpha (also jegliche Vegetation). Weder in Punkto Performance noch BQ.
Ggf. verwirrt das Ghosting - tja nicht jedes Studio bekommt gutes TAA hin (siehe id's 8x TSAA in Doom Eternal). Aber dank DLSS und FSR2.0 sind gute TAA Lösungen ja heute für alle Studios verfügbar wenn das eigene Verfahren saugt. (wenn input resolution = output resolution sind beide Verfahren eigentlich "nur" sehr gute TAAs).
Gott1337
2022-07-27, 07:50:14
Ich denke schon, dass immer mehr Kunde auch auf den Stromverbrauch achten.
Wenn ich mir überlege mit einem 5800X3D und 6900Xt statt nem 12900ks und ner 3090 ti nur 15% langsamer zu sein, dafür aber 200W weniger aus der Steckdose zu ziehen...
oder du stellst bei der Intel CPU die TDP ein und bei der 3090ti 300 watt, dann bist du schneller und effizienter....
dargo
2022-07-27, 07:55:05
oder du stellst bei der Intel CPU die TDP ein und bei der 3090ti 300 watt, dann bist du schneller und effizienter....
Witzbold. :D
Einen 5800X3D + RX 6900XT kann man natürlich nicht sparsamer betreiben. :freak:
Gipsel
2022-07-27, 08:24:03
Sorry, aber hier noch so eine minimale Beschneidung bei den Shadern ist doch wirklich schon als FU von Nvidia an die Käufer zu interpretieren. Als ob man mit den 1,5% beschnittenen Shadern das Yield signifikant steigern könnte.Doch, das ist sehr wohl möglich. Wenn mal angenommen pro Die im Mittel nur ein einziger Defekt auftritt, sind etwa 36% aller Dies komplett fehlerfrei (wen es interessiert, das folgt der Poisson-Verteilung). Es haben aber ~54% aller Dies einen oder zwei Defekte (der Rest dann mehr). Je nach Fläche der SMs zum Rest des Chips, können also z.B. in das Bin mit bis zu 2 defekten SMs mal eben doppelt so viele Dies fallen als in eins, wo nur komplett fehlerfreie Dies benutzt werden können. Bei noch höheren Fehlerraten (und die oft relativ starken Beschneidungen der Salvages [insbesondere am Anfang der Generation, also bevor z.B. noch irgendwelche Ti-Varianten nachgeschoben werden] geben ein gewisses Indiz in die Richtung) wird das Verhältnis noch deutlich stärker zum Vorteil für minimale Deaktivierungen verschoben.
basix
2022-07-27, 08:32:04
Und ich meine: 142 / 144 wird man als User niemals merken. Ist nur eine Kopfsache, dass man nicht den Vollausbau erhält. Und wer weiss, durch die deaktivierte SMs holt man noch 2-3% mehr Takt raus (1x defekt, 1x das langsamste auf dem Chip) und die Karte ist sogar schneller als ein Vollausbau ;)
Edgecrusher86
2022-07-27, 08:33:10
Ist die Frage, wieviele fps da noch übrig bleiben. Immerhin könnte Ada die erste Generation sein, mit der 4k gaming zu brauchbaren fps und RT möglich sein wird in aktuellen Games. Von 8xMSAA fange ich da aber noch nicht an. (y)
Bei der 3090 definitiv zu wenig, mit Ada wohl halbwegs spielbar. :freak:
Troyan
2022-07-27, 08:56:21
Mal ein paar "News" aus China: https://wccftech.com/nvidia-geforce-rtx-4090-450w-600w-tgp-variants-priced-lower-than-rtx-3090-ti-rumor/
4090 angeblich günstiger als UVP 3090TI, 450W und 600W Varianten.
nordic_pegasus
2022-07-27, 08:56:59
Und ich meine: 142 / 144 wird man als User niemals merken. Ist nur eine Kopfsache, dass man nicht den Vollausbau erhält. Und wer weiss, durch die deaktivierte SMs holt man noch 2-3% mehr Takt raus (1x defekt, 1x das langsamste auf dem Chip) und die Karte ist sogar schneller als ein Vollausbau ;)
Ich kaufe auch keinen Super-Sportwagen für sehr viel Geld, welcher dann 1 von 10 Zylindern abgeschaltet ist, weil der Hersteller Motoren mit Fehlguss verbaut mit Verweis auf das bessere Yield.
Wir sprechen über den gerüchteten Top-Dog von Nvidia mit einem mutmaßlich fürstlichen Preis. Da erwarte ich Vollausbau, ansonsten kein Geschäft mit mir. Darum bin ich echt froh, dass wir mit RDNA3 wieder eine Alternative haben.
basix
2022-07-27, 08:57:14
Bei der 3090 definitiv zu wenig, mit Ada wohl halbwegs spielbar. :freak:
Wenn wir Glück haben, reicht es ja für 40-50fps in CP2077 mit 4K nativ und max. Details :D
Ich kaufe auch keinen Super-Sportwagen für sehr viel Geld, welcher dann 1 von 10 Zylindern abgeschaltet ist, weil der Hersteller Motoren mit Fehlguss verbaut mit Verweis auf das bessere Yield.
Wir sprechen über den gerüchteten Top-Dog von Nvidia mit einem mutmaßlich fürstlichen Preis. Da erwarte ich Vollausbau, ansonsten kein Geschäft mit mir. Darum bin ich echt froh, dass wir mit RDNA3 wieder eine Alternative haben.
Mal wieder ein toller Autovergleich :rolleyes: Du kannst dich ja fragen, ob jeder sein teures Auto auch mit dem maximalen Zubehörset kauft/bekommt. Antwort: Nein.
Und wie gesagt: 142 / 144 ist reine Kopfsache. Und so wie es ausschaut wirkt es bei dir ;) Meine 2080 Ti hat auch ein paar SMs deaktiviert. Zu damals mehr als fürstlichem Preis. Und jetzt? Sie liefert die erwarteten FPS auf dem Schirm ab. JEDER hätte gern den Vollausbau, nur muss man auch mal realistisch bleiben und auch mal seine eigene Erwartungshaltung hinterfragen ;)
Troyan
2022-07-27, 09:00:44
Also wenn die Karte 60FPS mit Raytracing in Cyberpunk in 4K schafft, dann ist doch alles im Lot. Wie lange musste man vor 15 Jahren warten, bis Crysis mit 60 FPS in 4K spielbar war? 10 Jahre?!
basix
2022-07-27, 09:08:23
Also wenn die Karte 60FPS mit Raytracing in Cyberpunk in 4K schafft, dann ist doch alles im Lot.
Da bin ich noch ziemlich skeptisch, ob das reicht. Zumindest mit Ultra oder gar Psycho RT. Eine 3090 schafft ~22fps mit RT @ Ultra (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/patch-15-aenderungen-relase-benchmark-test-1389822/2/). Psycho kostet nochmals 10-15% Performance.
dargo
2022-07-27, 09:13:31
Mal ein paar "News" aus China: https://wccftech.com/nvidia-geforce-rtx-4090-450w-600w-tgp-variants-priced-lower-than-rtx-3090-ti-rumor/
4090 angeblich günstiger als UVP 3090TI, 450W und 600W Varianten.
Dann erscheinen ja 1999$ gar nicht mehr so teuer. Psychologie par excellence. ;D
Also wenn die Karte 60FPS mit Raytracing in Cyberpunk in 4K schafft, dann ist doch alles im Lot. Wie lange musste man vor 15 Jahren warten, bis Crysis mit 60 FPS in 4K spielbar war? 10 Jahre?!
Och... wenn die IHVs damals schon auf die 450+W gegangen wären ginge es wesentlich schneller. ;D
robbitop
2022-07-27, 09:25:27
Cyberpunk und Crysis zu vergleichen ist IMO auch ein wenig fragwürdig. Crysis war ein lange ungeschlagener Meilenstein in der PC Grafik und seiner Zeit in diesem Kriterium weit voraus. Das gilt IMO für Cyberpunk nicht. Ein sehr hübsches Spiel - steht aber den anderen grafischen Top Titeln nicht wirklich voraus. Und schon gar nicht in der Intensität wie es Crysis damals gemacht hat.
Sowas wie ein Crysis gibt es heute nicht mehr weil das keine Vorteile im komerziellen Erfolg brachte. Wichtig ist, dass Spiele heutzutage gut auf einer breiten HW Basis (auch auf Konsolen) laufen.
dargo
2022-07-27, 09:31:28
Cyberpunk und Crysis zu vergleichen ist IMO auch ein wenig fragwürdig. Crysis war ein lange ungeschlagener Meilenstein in der PC Grafik und seiner Zeit in diesem Kriterium weit voraus. Das gilt IMO für Cyberpunk nicht. Ein sehr hübsches Spiel - steht aber den anderen grafischen Top Titeln nicht wirklich voraus. Und schon gar nicht in der Intensität wie es Crysis damals gemacht hat.
Absolut unterschreib!
Da bin ich noch ziemlich skeptisch, ob das reicht. Zumindest mit Ultra oder gar Psycho RT. Eine 3090 schafft ~22fps mit RT @ Ultra (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/patch-15-aenderungen-relase-benchmark-test-1389822/2/). Psycho kostet nochmals 10-15% Performance.
Und jetzt drehe mal das LoD hoch, dass dir nicht alles in gefühlten 30-50 Metern ins Auge springt und schon bist du bei 10-15fps. :uup:
nordic_pegasus
2022-07-27, 09:44:23
Mal wieder ein toller Autovergleich :rolleyes: Du kannst dich ja fragen, ob jeder sein teures Auto auch mit dem maximalen Zubehörset kauft/bekommt. Antwort: Nein.
wenn wir in diesem Vergleich bleiben wollen... Es ist ein Unterschied, ob ich Zubehör nicht kaufe und es physisch nicht im Auto vorhanden ist, oder ob es vorhanden aber deaktiviert ist. Sowas wie Sitzheizungen bei Tesla, welche immer vorhanden sind aber nur bei Bezahlung freigeschaltet werden.
Und wie gesagt: 142 / 144 ist reine Kopfsache. Und so wie es ausschaut wirkt es bei dir ;) Meine 2080 Ti hat auch ein paar SMs deaktiviert. Zu damals mehr als fürstlichem Preis. Und jetzt? Sie liefert die erwarteten FPS auf dem Schirm ab. JEDER hätte gern den Vollausbau, nur muss man auch mal realistisch bleiben und auch mal seine eigene Erwartungshaltung hinterfragen ;)
Nochmal, wir reden über den absoluten Top-Dog zu einem mutmaßlich hanebüchenen Preis. Meine persönliche Einstellung ist, wenn ich solch eine Karte kaufen würde, müsste auch der Vollausbau aktiv sein.
Meine letzten 3 Karten waren eine TitanXp, TitanRTX und 6900XT. Alles größter Chip und Vollausbau. Hätte es nicht die 6900XT gegeben, hätte ich wahrscheinlich bis zur 3090Ti gewartet ;-)
Ist halt mein persönliches Monk-Problem. Ich glaube hier versteht nur Rampage 2, der tickt genauso.
Troyan
2022-07-27, 09:49:35
Cyberpunk und Crysis zu vergleichen ist IMO auch ein wenig fragwürdig. Crysis war ein lange ungeschlagener Meilenstein in der PC Grafik und seiner Zeit in diesem Kriterium weit voraus. Das gilt IMO für Cyberpunk nicht. Ein sehr hübsches Spiel - steht aber den anderen grafischen Top Titeln nicht wirklich voraus. Und schon gar nicht in der Intensität wie es Crysis damals gemacht hat.
Sowas wie ein Crysis gibt es heute nicht mehr weil das keine Vorteile im komerziellen Erfolg brachte. Wichtig ist, dass Spiele heutzutage gut auf einer breiten HW Basis (auch auf Konsolen) laufen.
Klar, die Grafik von Cyberpunk mit Raytracing findet man ja heute an jeder Ecke. Genauso wie auch bei Control. :freak:
Dir ist klar, dass Raytracing grafische Effekte für jeden Entwickler zugänglich macht? RT-GI ersetzt jedes aufwendige ScreenSpace-Modell und ist ein einfacher Schalter. Klingt vielleicht nicht so schick und sexy wie bei Crysis, aber am Ende ist es exakt identisch.
Orbmu2k
2022-07-27, 10:09:39
Welchen Grund gibt es denn für MSAA, der bei VR anders ist als sonst? (gegenüber gutem TAA)
Der Forward Renderer macht MSAA günstiger und effektiver - aber gegen modernes TAA sollte MSAA trotzdem kein Stich sehen (zumal MSAA ja eben viele Dinge nicht behandelt: Shaderaliasing, je nach Implementationen auch alpha (also jegliche Vegetation). Weder in Punkto Performance noch BQ.
Ggf. verwirrt das Ghosting - tja nicht jedes Studio bekommt gutes TAA hin (siehe id's 8x TSAA in Doom Eternal). Aber dank DLSS und FSR2.0 sind gute TAA Lösungen ja heute für alle Studios verfügbar wenn das eigene Verfahren saugt. (wenn input resolution = output resolution sind beide Verfahren eigentlich "nur" sehr gute TAAs).
VR braucht ja jedes bisschen Performance für stabile 90Hz und extreme Auflösung. Daher schneller Forward Renderer. MSAA wird hauptsächlich bevorzugt wegen der Schärfe, TAA hat Ghosting und Blur was in VR viel extremer stört als Alaising.
robbitop
2022-07-27, 10:23:01
VR braucht ja jedes bisschen Performance für stabile 90Hz und extreme Auflösung. Daher schneller Forward Renderer. MSAA wird hauptsächlich bevorzugt wegen der Schärfe, TAA hat Ghosting und Blur was in VR viel extremer stört als Alaising.
Die guten Implementierungen haben das aber praktisch nicht (siehe id 8xTSSAA in Doom Eternal). Ich kann mir auch gut vorstellen, dass Artefakte aus den Bereichen auf die MSAA nicht greift sicher auch unschön anzusehen sind in VR, oder?
Dir ist klar, dass Raytracing grafische Effekte für jeden Entwickler zugänglich macht? RT-GI ersetzt jedes aufwendige ScreenSpace-Modell und ist ein einfacher Schalter. Klingt vielleicht nicht so schick und sexy wie bei Crysis, aber am Ende ist es exakt identisch.
Grafischer Fortschritt ist weitaus mehr als einfach nur RT für Reflexionen, GI und Schatten zu aktivieren.
dargo
2022-07-27, 10:30:17
Grafischer Fortschritt ist weitaus mehr als einfach nur RT für Reflexionen, GI und Schatten zu aktivieren.
Ach hör doch auf, du hast doch gar keine Ahnung. ;)
amdfanuwe
2022-07-27, 11:13:20
Meine persönliche Einstellung ist, wenn ich solch eine Karte kaufen würde, müsste auch der Vollausbau aktiv sein.
Meine letzten 3 Karten waren eine TitanXp, TitanRTX und 6900XT.
Musste halt warten, bis sie genügend gute Chips gesammelt haben und damit eine Titan oder entsprechende TI auflegen.
Troyan
2022-07-27, 11:16:01
Grafischer Fortschritt ist weitaus mehr als einfach nur RT für Reflexionen, GI und Schatten zu aktivieren.
Lmao, was? Was hat denn Crysis gebracht gegenüber z.B. Tomb Raider 2 gebracht? :cool:
robbitop
2022-07-27, 11:17:20
Der Beitrag ist wirklich lächerlich. Wie immer hat es keinen Sinn mit dir zu diskutieren. Zeitverschwendung.
DrFreaK666
2022-07-27, 12:05:41
Der Beitrag ist wirklich lächerlich. Wie immer hat es keinen Sinn mit dir zu diskutieren. Zeitverschwendung.
Vielleicht würde es helfen, wenn du das noch zu Ende führst und nicht nur einfach so stehen lässt ;) :
... Grafischer Fortschritt ist weitaus mehr als einfach nur RT für Reflexionen, GI und Schatten zu aktivieren.
Was gehört dann noch dazu?
robbitop
2022-07-27, 12:10:48
Ich kaue jetzt ganz sicher nicht die Grundlagen durch (die auch Troyan kennt). Content, Geometrie-, Texturdetails, Dinge wie SSR, screenspace occulusion, Bump Mapping usw. RT ist eines von vielen vielen Werkzeugen. Dazu ein Level an Physik, die es bis dahin nicht mal annähernd gab.
Es gibt von DF auch eine ganze Videoreihe zu Crysis wo Alex sich lange Zeit nimmt, diese Dinge durchzugehen.
Nightspider
2022-07-27, 12:23:24
Ich stimme robbitop zu.
Ganz zu schweign von der Physik (zerschneidbare Bäume, herumschmeißbare Objekte, explodierende Ölfässer, auslaufende Ölfässer, biegsame Vegetation beim Vorbeilaufn, Vegetation die auf Druckwellen reagiert
dazu eine "Unterwasserfeld", viele Tiere.....
Crysis bot sehr viel, wenn man mit offenen Augen die Welt erkundet hat
Crysis war allen Spielen technisch weit vorraus, darüber braucht man sich hier ja wohl nicht streiten.
Troyan
2022-07-27, 12:28:23
Ich kaue jetzt ganz sicher nicht die Grundlagen durch (die auch Troyan kennt). Content, Geometrie-, Texturdetails, Dinge wie SSR, screenspace occulusion, Bump Mapping usw. RT ist eines von vielen vielen Werkzeugen. Dazu ein Level an Physik, die es bis dahin nicht mal annähernd gab.
Ich lese hier nur Grafik, Grafik, Grafik. In Control spiegelt sich die komplette Umgebung inkl. Figur voll dynamisch in der Geometrie. Passiert das in Crysis? Nein? Na dann.
Auch Tomb Raider 2 hatte schon vieles: Geometrie, Wasser, Fahrzeuge, Waffen.
Es ist traurig, dass Leute technischen Fortschritt abtun, weil der Lieblingshersteller meilen zurückliegt. Aber die Meinungen werden sich auch hier in den nächsten ändern, wenn der Hersteller aufholt. :cool:
robbitop
2022-07-27, 12:37:16
Und nochmehr lächerliche Argumente. Gerade du bezeichnest andere als Fanboy? Welch Ironie X-D
Ich persönlich habe eine Geforce. Ich kaufe grundsätzlich immer das schnellste verfügbarste (bis zu einem gewissen Budgetlimit - ~1000 EUR). Hätte auch gerne Ampere gekauft aber dank Chipkrise war da sinnvoll nichts zu machen. Mir ist es egal welcher OEM die GPU herstellt, solange das Produkt schnell und stabil ist. Ich finde RT auch toll. Aber RT ist nicht alles.
Entweder verstehst du die Grundlagen der 3D Grafik nicht (was traurig für die Teilnahme an der Diskussion wäre) oder du willst nur trollen (was ich eher vermute).
Nightspider
2022-07-27, 12:38:28
In Control spiegelt sich die komplette Umgebung inkl. Figur voll dynamisch in der Geometrie. Passiert das in Crysis? Nein? Na dann.
Crysis ist 12 Jahre älter. Was ist das für eine hirnverbrannte Frage?
Was hast du geraucht?
robbitop
2022-07-27, 12:41:50
Es hat keinen Sinn mit ihm zu diskutieren.
basix
2022-07-27, 12:56:59
Ganz zu schweign von der Physik (zerschneidbare Bäume, herumschmeißbare Objekte, explodierende Ölfässer, auslaufende Ölfässer, biegsame Vegetation beim Vorbeilaufn, Vegetation die auf Druckwellen reagiert
Crysis war hier wirklich extrem geil und ein Vorreiter. Gab es später in eigentlich keinem Game mehr in diesem Umfang.
Was man hier aber anmerken muss: Umso moderner die Grafik wurde, desto mehr wurde vorgebacken. Damit wird die Welt automatisch statischer. Mit RT-Raytraycing wird Beleuchtung wieder deutlich dynamischer, ohne dass man Handstände bei der Implementierung machen muss. Damit wird glaubhafte Physik (eine sich verändernde Welt) wieder deutlich einfacher in der Umsetzung. Einfach weil die Beleuchting mit der Veränderung der Welt mitreagiert (umstürzende Bäume, einstürzende Gebäude, Felsstürze/Schlammlawinen/Vulkanausbrüche etc.). Genau deswegen kann RT-Raytracing hinsichtlich Games ein "Game-Changer" sein. Neben effizienterem Development auf Entwicklerseite, womit dann wieder Arbeits-Ressourcen für all die coolen Features wie physikalisch interagierende Vegetation freiwird ;)
Deswegen ist Metro Exodus EE oder die Unreal Engine 5 ein riesen Schritt nach vorne: RT only workflows (in HW oder SW), ohne sich um die Raster-Beleuchtung ind Pre-Baking kümmern zu müssen. Die UE5 geht mit Nanite natürlich noch einen guten Schritt weiter (Entwickler Effizienzsteigerung hinsichtlich Assets-Generierung).
Es hat keinen Sinn mit ihm zu diskutieren.
Richtig.
DrFreaK666
2022-07-27, 13:00:01
RT-Raytraycing
Steht RT nicht für Raytracing?
basix
2022-07-27, 13:00:44
RT = Realtime ;)
Pre-Baked Lights = Offline Raytracing, eben nicht Realtime und somit statisch.
Thunderburne
2022-07-27, 13:56:45
https://videocardz.com/newz/pro-hi-tech-chinese-gpu-supplier-to-receive-nvidia-geforce-rtx-40-cards-in-less-than-a-month
Thunder99
2022-07-27, 19:19:25
Steht RT nicht für Raytracing?
Ja, wird so meistens verwendet.
Was meint ihr, ist GDDR6X sicher gesetzt oder gibt ne Chance, dass es GDDR6 wird, halt mit bis zu 24GBIT. Würde der Leistungsaufnahme sehr gut tun..., bei der 4080 (4090)
BlacKi
2022-07-27, 19:31:19
wenn man die gddr6x kapazitäten verbraucht hat vl. das es unnötig war, sieht man an den modellen im profi und laptop segment. wenn man die kapazitäten länger gebucht hat, dann wird man weiterhin auf ihn setzen müssen.
alle leaks deuten auf gddr6x hin.
https://videocardz.com/newz/pro-hi-tech-chinese-gpu-supplier-to-receive-nvidia-geforce-rtx-40-cards-in-less-than-a-month
less then a month beim händler bedeutet verfügbarkeit praktisch ab dem ersten september. viel länger wird man die karten nicht beim händler liegen lassen, als 1-2 wochen. full launch ende gamescom? das wäre überraschend, aber nicht unmöglich. glaub nicht dran.
aufkrawall
2022-07-27, 19:34:45
Die guten Implementierungen haben das aber praktisch nicht (siehe id 8xTSSAA in Doom Eternal).
Da hast du offenbar ein Confirmation Bias. Wie so oft täuscht das aber über die Realität hinweg: Das TSSAA von Doom Eternal dürfte mit dem deutlich ausgeprägten Motion Blur und Jittering ziemlich unangenehm in VR sein. Ist es im Grunde schon ohne VR, wenn man DLSS im Vergleich gesehen hat.
robbitop
2022-07-27, 19:37:18
DLSS und FSR 2.0 habe ich ja auch genannt als Möglichkeiten.
Rampage 2
2022-07-28, 02:49:18
Und wie gesagt: 142 / 144 ist reine Kopfsache. Und so wie es ausschaut wirkt es bei dir ;)
Richtig, und diese Kopfsache hat einen beträchtlichen Effekt;)
Nochmal, wir reden über den absoluten Top-Dog zu einem mutmaßlich hanebüchenen Preis. Meine persönliche Einstellung ist, wenn ich solch eine Karte kaufen würde, müsste auch der Vollausbau aktiv sein.
+1
Für 2000€ oder mehr sollte man nichts Geringeres als einen vollständigen Chip erwarten dürfen:)
Hätte es nicht die 6900XT gegeben, hätte ich wahrscheinlich bis zur 3090Ti gewartet ;-)
Warum nicht ein Sidegrade zur 3090 Ti;) Dann hast du massiv bessere RT-Leistung und nochmal 8GB mehr VRAM zusätzlich:)
Ich musste einfach zur 3080 Ti greifen, weil die 16GB-Version der 3070 Ti doch noch gecancelt wurde und die 3090 Ti "damals" (vor 3-4 Monaten:rolleyes:) einfach inakzeptabel teuer gewesen ist - und das ist sie immer noch (ein bisschen) angesichts der bevorstehenden neuen GPU-Generation:redface:
Du scheinst diese finanzielle Beschränkung nicht zu haben;)
Ist halt mein persönliches Monk-Problem. Ich glaube hier versteht nur Rampage 2, der tickt genauso.
Ich glaube, da gibt es noch ein paar weitere Member hier im Forum;) Würde mich aber auch mal interessieren, ob "wir" (die Fetischisten) nur eine kleine oder doch eine beträchtliche Minderheit sind:D
R2
Thunder99
2022-07-28, 06:14:49
Es gibt hier im Forum schon ein paar Vollausbau Fetisischten. ;D
Bei immer mehr SM wird es aber aus meiner Sicht immer unwichtiger ob der Chip nun Vollausbau hat oder nicht. So lange nicht mehr als die Shader beschnitten ist ist es vernachlässigbar :)
basix
2022-07-28, 08:01:27
Richtig, und diese Kopfsache hat einen beträchtlichen Effekt;)
:D
Ich glaube, da gibt es noch ein paar weitere Member hier im Forum;) Würde mich aber auch mal interessieren, ob "wir" (die Fetischisten) nur eine kleine oder doch eine beträchtliche Minderheit sind:D
R2
Ihr zwei und Raff scheint ja schon mindestens zu dritt zu sein ;)
Und das "ich will Vollausbau haben" ist völlig natürlich, nämlich das Maximal mögliche bekommen zu wollen. Ich will es ja auch ;)
Aber ich bin jetzt auch schon >30 Jährchen (genaues Alter: unbekannt :D) und Zeit sowie Qualität sind mir wichtiger, als 1 Jahr auf den Vollausbau zu warten (der vielleicht niemals kommt). Man kann es ja wie Raff machen: Upgrade von der 3090 zur 3090 Ti. Dann hat man immer das beste, was man für Geld kaufen kann. Inkl. später dem Vollausbau ;) Mit dem potentiellen Abschreiber im Geldbeutel muss man dann aber rechnen.
Bei immer mehr SM wird es aber aus meiner Sicht immer unwichtiger ob der Chip nun Vollausbau hat oder nicht. So lange nicht mehr als die Shader beschnitten ist ist es vernachlässigbar :)
Jepp:
- 18/20 = 90%
- 142/144 = 98.6%
iamthebear
2022-07-28, 08:39:51
Was interessiert es mich ob da noch ein paar deaktivierte SMs dran hängen oder nicht.
Eine 4090 mit 128 von 144SM ist genauso schnell wie ein hypothetischer AD102.5, der nur 128SM insgesamt hat.
Und wieso soll man 500 Euro oder mehr ausgeben nur für 2SM bzw. 1% mehr Leistung?
Den Ampere Vollausbau gab es auch schon die ganze Zeit. Nennt sich A6000 aber mein Bedürfnis hält sich in Grenzen bei 6K UVP.
Thunderburne
2022-07-28, 09:46:43
Die 4090 wird das beste Paket liefern da ne schöne Strixx oder FTW holen damit man in Richtung 600W kommt wen man noch OC machen möchte und gut ist bis zur 5090 .
Wie es aussieht bleibt die 3090Ti ca 7 monate State of the Art und wird dann gnadenlos degradiert von der 4090 !
So macht Vollausbau kein Spaß!
Gleich zu Beginn einer Generation wäre das so noch eine andere Geschichte!
Sardaukar.nsn
2022-07-28, 09:51:46
Die 4090 wird das beste Paket liefern da schöne Strixx oder FTW holen damit man in Richtung 600W kommt wen man noch OC machen möchte und gut ist bis zur 5090 .
Wie es aussieht bleibt die 3090Ti ca 7 monate State of the Art und wird dann gnadenlos degradiert von der 4090 !
So macht Vollausbau kein Spaß!
Gleich zu Beginn einer Generation wäre das so nach Anders .
Sehe ich mit der custom 4090 ganz ähnlich. Wäre schön wenn es am Anfang auch direkt was mit Wasserkühler gibt (EVGA Hydro copper o.ä.).
Thunder99
2022-07-28, 10:06:51
Btw, bevor man ein 4-5 Slot Kühler haben will sollte man auf Wasser gehen. Wenn sich das bewahrheitet wird die Karte mit Wasser nur zu betreiben sein.
Teilt Mal die Leistungsaufnahme durch die Fläche. Das tut richtig weh was da an Hitze produziert wird pro mm²
Thunderburne
2022-07-28, 10:23:41
Ich würde mich da auch sehr freuen wen man keinen Luftkühler mit kaufen muss der ja auch was kostet und gleich ein Fullcover drauf sitzt!
Was halt immer kacke ist für solche Karten gibt es dann gleich immer 300-400 Aufschlag als wen man den Luftkühler noch mal extra drauf rechnet !
Bei einer Ref Platine mit separat gekauften Kühler kommt man meist am besten weg nur hat man das Thema mit der Garantie!
Sardaukar.nsn
2022-07-28, 10:40:44
Bei der EVGA 3090 ist das ein richtig kompaktes Teil geworden. Könnte ich mir gut für die 4090 vorstellen.
https://images.evga.com/products/gallery//png/24G-P5-3989-KR_XL_8.png
https://images.evga.com/products/gallery//png/24G-P5-3989-KR_XL_4.png
DavChrFen
2022-07-28, 11:00:07
Eine Karte ohne Kühler wäre schön. Die fertig montierten Wasserkühler sind meist nicht so gut wie die nachrüstbaren und auch meist auch nicht gut montiert.
Bei den CPUs gibt es ja auch welche ohne Kühler.
Thunderburne
2022-07-28, 11:06:58
Ja ich hatte damals mal im SLI 2 GTX580 Hydro Gen von MSI Orginal Watercool drauf .
Dort war halt die Paste sehr schlecht !
Glaub bei Asus und EVGA darf man ja nur den Kühler runter nehmen ?
y33H@
2022-07-28, 11:40:18
Würde mich aber auch mal interessieren, ob "wir" (die Fetischisten) nur eine kleine oder doch eine beträchtliche Minderheit sind.Ich bin auch Vollausbauer, zumindest wenn verfügbar. Aus diesem Grunde finde ich selbst die RTX 3070 Ti doch irgendwie sexy :freak:
Thunderburne
2022-07-28, 12:01:12
Macht Hoffnung für die neue Serie
!
Die werden die wohl nicht los 1399 Euro.
https://www.notebooksbilliger.de/palit+geforce+rtx+3090+ti+gamerock+24gb+gddr6x+grafikkarte+771416
Troyan
2022-07-28, 12:15:55
Schicker Preis. Aber wir reden hier ja jetzt über Produkte, die eben auch nur eine kleine Gruppe von Menschen anspricht. Und wer soviel Geld hat, hat doch längst schon zugeriffen.
Viel mehr ein Zeichen, dass bald Lovelace kommt.
Linmoum
2022-07-28, 12:21:54
Das ist ein Zeichen dafür, dass die Lager massenweise mit GA102-GPUs voll sind und die Händler ernsthafte Probleme haben, diese auch entsprechend loszuwerden.
Wie bald was kommt, hängt davon ab, wie schnell das geschieht. Gut, NV kann natürlich theoretisch auch trotzdem launchen und darauf scheißen, wie die Situation bei Händlern und AiBs ist. Die nicht vorhandenen Sinnhaftigkeit dafür mal komplett außen vor.
Troyan
2022-07-28, 12:30:57
Notebooksbilliger muss bestimmt die Millionen 3090TIs für 1400€ verkaufen. Gott, kannst du nicht einfach mal deinen nVidia-Hass für dich behalten?
nordic_pegasus
2022-07-28, 12:49:49
142/144 = 98.6%
sicherlich sind 1.4% fehlende Shader zum Maximum in Realität vernachlässigbar. Aber nochmal: wenn Nvidia meint für die 4090Ti / "Titan Ada" eine UVP von 2000€ plus x aufzurufen, dann erwarte ich als potentieller Kunde für diesen Premiumpreis auch das Maximum, was der AD102 Chip kann. Wenn jemand anderes bereit ist für Salvage (und wenn auch nur minimalste Beschneidung) so viel Geld zu zahlen, dann bitte tut es. Ich bin an der Stelle raus... zumindest sofern mir AMD mit Navi31XT wieder eine Alternative geben wird.
@iamthebear
natürlich hätte man auch zum Release von Ampere zur A6000 greifen können. Aber das Übersteigt auch meine Möglichkeiten und Schmerzgrenze. Hier waren die TitanXp und TitanRTX (mit 20% Rabatt dank Hochschulrabatt) noch gute Kompromisse aus Vollausbau-Gier und Preis.
@Rampage 2
jetzt noch auf 3090Ti zu wechseln so kurz vor Ada/RDNA3 ist selbst für mich zu verrückt.
Thunderburne
2022-07-28, 13:33:52
Hab meine 3080TiFE noch für knapp 1200 verkauft Anfang Juni!
Mach ich immer so vor dem Generationswechsel !
Bietet sich ja auch an im Sommer und zur Not macht es auch mal die Playstation 5 bis Oktober .
Die 4000 kann also kommen .
Nazar
2022-07-28, 21:33:07
Notebooksbilliger muss bestimmt die Millionen 3090TIs für 1400€ verkaufen. Gott, kannst du nicht einfach mal deinen nVidia-Hass für dich behalten?
Was hat das Einmaleins der Marktwirtschaft mit nVidia-Hass zu tun? :freak:
Wenn die neue Generation kurz vor dem Release steht, ist es völlig normal, dass die Lagerbestände sogar lieber verschenkt werden oder man noch Geld mitgibt, nur damit man von den Kosten für die Entsorgung verschont bleibt (Freiräumen der Lager, Zwischenhändler für möglich Abnahme abtelefonieren, etc.).
Als Händler müsste man sich schon mit dem Hammer pudern, wenn man nicht alles daran setzen würde, die Lager komplett leer zu bekommen, bevor überhaupt die neue Generation über den Horizont blickt. 3-4 Stück noch auf Halde für die "Freaks", das ist ok, alles andere darüber, das wäre nur dumm, und dass die Händler jetzt das "Zuviel" noch loswerden wollen, auch wenn man wohl jetzt keine Marge mehr hat, hat absolut gar nichts mit nVidia-Hass zu tun. :wink:
Linmoum
2022-07-28, 21:38:44
Er wittert hinter jede Ecke irgendwelche Verschwörungen gegen Nvidia. Obwohl er selbst nicht merkt, wie absurd das ist, weil er keinen blassen Schimmer davon hat, wie das mit viel zu viel Inventar läuft.
Vielleicht findet er ja mal einen Händler, der ihm das erklären will und der auch die Geduld dafür hat. Wobei, denen würde er das auch nicht glauben und ihnen ebenfalls unterstellen, sie würden Nvidia hassen.
Es gibt Modelle, die in zwei Wochen (!) um 400-500€ (!!) im Preis gefallen sind. Dass man selbst offensichtlichste Dinge nicht mal kapiert und ernsthaft denkt, das ist nur normaler Abverkauf...
OgrEGT
2022-07-29, 06:16:42
NVIDIA announces SIGGRAPH 2022 Special Address with CEO Jensen Huang on August 9th
https://videocardz.com/newz/nvidia-announces-siggraph-2022-special-address-with-ceo-jensen-huang-on-august-9th
AffenJack
2022-07-29, 07:32:52
NVIDIA announces SIGGRAPH 2022 Special Address with CEO Jensen Huang on August 9th
https://videocardz.com/newz/nvidia-announces-siggraph-2022-special-address-with-ceo-jensen-huang-on-august-9th
Würde ich nicht viel Hoffnung reinsetzen, dass wir da was von Lovelace sehen. Denke eher es wird sich um Omniverse drehen. Aber vielleicht irre ich mich ja und man präsentiert die Architektur mit einer neuen Quadro, halte ich aber für unwahrscheinlich, weil das dem Abverkauf der 30er schaden würde.
Troyan
2022-07-29, 10:30:14
Turing wurde auf der Siggprah 2018 als Quadro vorgestellt. Und Lovelace wird stark auf Raytracing und DL setzen. Es macht also Sinn, dass hier Lovelace als Quadro gezeigt wird.
Was hat das Einmaleins der Marktwirtschaft mit nVidia-Hass zu tun? :freak:
Lies nochmal, was der AMD bezahlte Troll geschrieben hat. Laut dem wären die Lager ja voll mit 3090TIs, deswegen muss Notebooksbilliger die "verramschen".
Das nVidia die Preise reduziert hat, um Lovelace im >1500€ Bereich zu launchen, ist für ihm ja vollkommen abwegig. Aber gut, der Typ hat auch behauptet, dass AMD mehr RDNA2 Karten verkauft hätte als nVidia Ampere vor zwei Jahren. ;D
Es gibt hier im Forum schon ein paar Vollausbau Fetisischten. ;D
Bei immer mehr SM wird es aber aus meiner Sicht immer unwichtiger ob der Chip nun Vollausbau hat oder nicht. So lange nicht mehr als die Shader beschnitten ist ist es vernachlässigbar :)
Joa... aber "diesmal" sieht der teildeaktivierte Chip sogar rund aus. 128 SM, 16.384 SPs. Super zahlen für den Monk :)
basix
2022-07-29, 15:12:38
Joa... aber "diesmal" sieht der teildeaktivierte Chip sogar rund aus. 128 SM, 16.384 SPs. Super zahlen für den Monk :)
2^x ftw ;)
Thunderburne
2022-07-29, 16:13:07
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rtx-4070-get-preliminary-3dmark-performance-estimates
4070 10000
4080 15000 ?
prinz_valium_2
2022-07-29, 17:09:59
RTX 4080 also 50% schneller als eine RTX 3090.
Wenn sich das auch nur annähernd in Spielen niederschlägt, dann freue ich mich sehr.
Muss nur noch der Preis stimmen.
Aber selbst eine 4070 auf 3090 Niveau ist super.
Müsste dann nur noch für 499€ zu haben sein.
r3ptil3
2022-07-29, 17:24:47
Das absolut mindeste was man erwartet hätte, nach 2021/2022.
Nach dem Release haben wir schon bald 2023.
Wäre wirklich gut, wenn AMD zumindest performancemässig eine RTX 4090 mit Abstand wegklatschen würde. Dann würden die bestimmt miesen Preise auch dadurch bei Nv runterkommen.
Thunderburne
2022-07-29, 17:30:04
Das absolut mindeste was man erwartet sollte, nach 2021/2022.
Nach dem Release haben wir schon bald 2023.
Wäre wirklich gut, wenn AMD zumindest performancemässig eine RTX 4090 mit Abstand wegklatschen würde. Dann würden die bestimmt miesen Preise auch dadurch bei Nv runterkommen.
Die 4080 könnte richtig stress bekommen mit der 4090 wird es schwierig zumindest mit dem wie das hier gezeigt wird .
https://www.computerbase.de/2022-07/amd-rdna-3-navi-31-koennte-mit-3-modellen-ab-oktober-starten/
Sardaukar.nsn
2022-07-29, 18:09:55
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rtx-4070-get-preliminary-3dmark-performance-estimates
4070 10000
4080 15000 ?
Gerade noch mal getestet. Meine 3080 geht gut und schafft 9574 GPU-Score im TimeSpy Extreme. https://www.3dmark.com/3dm/77752200
+50% wäre mir zu wenig für ein Upgrade zur 4080. Bei Ampere lagen 3080 und 3090 noch deutlich näher zusammen.
Thunderburne
2022-07-29, 20:04:07
Gerade noch mal getestet. Meine 3080 geht gut und schafft 9574 GPU-Score im TimeSpy Extreme. https://www.3dmark.com/3dm/77752200
+50% wäre mir zu wenig für ein Upgrade zur 4080. Bei Ampere lagen 3080 und 3090 noch deutlich näher zusammen.
Ähm 50% wäre verdammt viel auf eine 3080!
Thunder99
2022-07-29, 20:30:53
4070 auf Niveaus des letzten TopDog, normal. Deutlich drüber wäre besser, da mehr als ein Node Fortschritt
BlacKi
2022-07-29, 20:46:48
Gerade noch mal getestet. Meine 3080 geht gut und schafft 9574 GPU-Score im TimeSpy Extreme. https://www.3dmark.com/3dm/77752200
+50% wäre mir zu wenig für ein Upgrade zur 4080. Bei Ampere lagen 3080 und 3090 noch deutlich näher zusammen.
die zahlen für die 4080 und 4070 sind von kimi ausgedacht, anhand von specs. das erst mal vorraus. anders als die 4090 werte.
er gibt selbst nicht viel auf die werte.
aber das die 4080 viel weiter weg von der 4090 ist als die 3080 zur 3090 ist ja kein geheimnis. deshalb kann die 4080 keine 100% schneller sein zur pre gen.
wenn man unterstellt die 4080 boostet mit ihren 420w typical game clock 500mhz höher als die 4090, und skaliert die shader runter, dann komme ich auf 14500 punkte. vermutlich hat er aufgerundet, weil die shader nicht 1zu1 skalieren.
ich würde die werte also als logisch nachvollziehbar halten, aber es sind halt keine echten leaks.
4070 auf Niveaus des letzten TopDog, normal. Deutlich drüber wäre besser, da mehr als ein Node Fortschritt
wenn du die unterschiede in den shaderanzahl zu vorherigen generationen vergleichst, dann wirst du feststellen, das die performance differenz bei den neuen karten weiter zunimmt. das sich eine 4070 überhaupt mit einer 3090 anlegen kann ist nur auf den gewaltigen fortschritt der next gen zu erklären.
die shaderdifferenz zwischen 4070 und 4090 und der 970 und der 980ti weicht um 35% ab. die 4070 ist im verhältnis 35% kleiner zur 4090 als es die 900er serie war.
ich vermute aber auch einen genauso erheblichen unterschied beim preis, eine 4070 wird fast nur 1/4 der 4090 kosten, die 970 hat im verhältnis fast doppelt soviel gekostet und war damals performance/€ könig.
Linmoum
2022-07-29, 20:53:13
Er schreibt nirgends, dass die nur ausgedacht sind. Sondern nur, dass sie auf den von ihm bisher genannten Specs basieren. Sein "it's not quite sure yet" deutet eher darauf hin, dass ggf. das finale Produkt leicht von dem abweicht, was er bisher an Specs genannt hat.
Slipknot79
2022-07-29, 21:05:59
RTX 4080 also 50% schneller als eine RTX 3090.
Wenn sich das auch nur annähernd in Spielen niederschlägt, dann freue ich mich sehr.
Ähm 50% wäre verdammt viel auf eine 3080!
Naya, 50% sind nicht gerade der Burner. 40 vs 60fps. *gähn*
2080Ti vs 4090 sind 40 vs 120fps, angeblich. Das klingt schon besser. (y) Wenn da nur nicht der 48GB cockblock wäre. :mad:
Hikaru
2022-07-29, 21:18:06
Kurze Zwischenfrage wegen 4070 = 3090. Abgesehen von den lustigen 10GB haben wir eine Differenz in der Speicherbandbreite von 360GB/s vs 932GB/s.
Platos
2022-07-29, 21:48:20
Falls die 4070 wirklich keine 16GB kriegt, ist das echt armselig für nvidia.
BlacKi
2022-07-29, 21:50:40
Kurze Zwischenfrage wegen 4070 = 3090. Abgesehen von den lustigen 10GB haben wir eine Differenz in der Speicherbandbreite von 360GB/s vs 932GB/s.l2 hilft aus.
Er schreibt nirgends, dass die nur ausgedacht sind. Sondern nur, dass sie auf den von ihm bisher genannten Specs basieren. Sein "it's not quite sure yet" deutet eher darauf hin, dass ggf. das finale Produkt leicht von dem abweicht, was er bisher an Specs genannt hat.
ich hab geschrieben das er sich das ausgedacht hat. weil die leute das sonst für echte leaks halten. based ob specs bedeutet es sind keine werte die der 3dmark zu diesen karten ausgespukt hat. er(oder seine quelle) hat die werte anhand der specs abgeleitet. keine echten werte.
Falls die 4070 wirklich keine 16GB kriegt, ist das echt armselig für nvidia.
ich hoffe ja, das es wenigstens 12 werden. aber man wird vermutlicht wirklich die karte zwischen 400 und 500 € platzieren.
Die 300W wären ein Witz bei der Leistung !
ja, der chip taktet da an der kotzgrenze.
Thunderburne
2022-07-29, 21:54:31
4070 auf Niveaus des letzten TopDog, normal. Deutlich drüber wäre besser, da mehr als ein Node Fortschritt
Die 300W wären ein Witz bei der Leistung !
Linmoum
2022-07-29, 22:05:25
Natürlich wird eine 4070 bei 3090-Performance keine 300W verbraten.
Bei 10GiB GDDR6 (300W) vs. 24GiB GDDR6X (350W) wäre das trotz TSMC N5 vs. Samsung 8nm ein Rückschritt bei der Effizienz. Also bitte.
Platos
2022-07-29, 22:45:00
Warum nicht? Wenn der Chip genug klein ist, muss man ihn eben extrem hart takten, damit die Leistung noch stimmt. Wahrscheinlich dann ~200-220W mit Untervolting, Powertlimit und ohne Leistungsverlust, wenn 300W default sind.
Linmoum
2022-07-29, 22:47:53
Ich bezweifle ganz stark, dass Nvidia einen Chip so hart hochprügelt, dass mal eben der Effizienfortschritt von mehr als einem Fullnodesprung aufgefressen wird. Das wäre komplett gestört.
BlacKi
2022-07-29, 23:17:45
es stimmt schon, für die 46% mehr shader der 3090 reichen 46% mehr takt, das sind dann fast 2,5ghz, wie bei der 4090, da passen 225w besser als 300w. oder man taktet höher und die benchmarkwerte passen nicht.
Platos
2022-07-29, 23:42:03
Ist bisher nicht der Stand, dass die 4070 300W bekommt?
Aber stimmt schon, 2.5GHz wären extrem wenig für 300W, wenn man bedenkt, dass die 4090 mit doppelt so vielen SMs und mehr Speicher "nur" 50% mehr verbrauchen soll bei ebenfalls 2.5GHz?
Also irgendwas geht nicht auf dabei.
Slipknot79
2022-07-30, 00:55:15
Ich can mir nicht vorstellen, dass Lederjacke alle Ampere Karten aus den Lagern räumen will. Er hat bisher nur die Preise für +1000EUR GPUs gesenkt. Als ob er in diesem Bereich Platz für die 4090 schaffen will.
Die Karten unter 1000EUR wird es noch länger zu kaufen geben. Sonst gäbe es bis zum Release der 4080 über Monate hinweg nur die 4090 zu kaufen. Das würde keinen Sinn ergeben.
Die 4090 wird es somit parallel zu den unter 1000EUR Ampere-Grakas zu kaufen geben vermute ich mal. :mad:
prinz_valium_2
2022-07-30, 01:32:02
Kurze Zwischenfrage wegen 4070 = 3090. Abgesehen von den lustigen 10GB haben wir eine Differenz in der Speicherbandbreite von 360GB/s vs 932GB/s.
Ja, da haben eine 1080 mit OC mehr^^
iamthebear
2022-07-30, 10:03:33
Ich denke hier wird man in der Praxis sehen wie sich die geringere Bandbreite bzw. stattdessen der zusätzliche Cache auswirken.
Als Vergleich kann man hier denke ich die 6600 XT hernehmen. Diese hat auch nur die Speicherbandbreite einer 5500 XT trotz nur 32MB Infinity Cache.
Mit 1080p ist noch alles wunderbar. Mit 1440p sieht man schon um die 5% Einbrüche und mit 4K um die 20%. RT macht auf AMD nicht viel Sinn zu vergleichen aber hier wird sich die Speicherbandbreite vermutlich extrem bemerkbar machen.
Ich kann mir gut folgende Segmentierung vorstellen:
4070: 1440p oder 4K+DLSS
4080: 4K oder 5K+DLSS oder 4K+DLSS+RT
4090: 5K oder 8K+DLSS oder 4K+RT
Ich denke jedoch, dass Nvidia als Zwischenlösung noch eine 4070 Ti rein schieben werden mit 12GB und 192Bit.
Thunder99
2022-07-30, 11:47:21
Ich bezweifle ganz stark, dass Nvidia einen Chip so hart hochprügelt, dass mal eben der Effizienfortschritt von mehr als einem Fullnodesprung aufgefressen wird. Das wäre komplett gestört.
Leider traue ich das Nvidia zu. Was sie mit Ampere gemacht haben scheint nur der Anfang. Immer höhere Leistungsaufnahme weil man es kann und an HW sparen kann.
Ich rechne da mit dem schlimmsten...
reaperrr
2022-07-30, 11:49:19
Leider traue ich das Nvidia zu. Was sie mit Ampere gemacht haben scheint nur der Anfang. Immer höhere Leistungsaufnahme weil man es kann und an HW sparen kann.
Ich rechne da mit dem schlimmsten...
Und eher die TDPs um 80% explodieren lässt, als die Schmach einer Niederlage gegen RDNA3 in Kauf zu nehmen.
Niemals unterschätzen, wieviel Schiss NV vor dem Verlust der Leistungskrone hat.
Troyan
2022-07-30, 11:53:24
Natürlich wird eine 4070 bei 3090-Performance keine 300W verbraten.
Bei 10GiB GDDR6 (300W) vs. 24GiB GDDR6X (350W) wäre das trotz TSMC N5 vs. Samsung 8nm ein Rückschritt bei der Effizienz. Also bitte.
Natürlich wird die Karte es, wenn der Chip irgendwas um 200mm^2 groß. Laut den Specs hätte die 4090 2,28x mehr Rechenleistung und 2,8x mehr Bandbreite.
BlacKi
2022-07-30, 12:00:07
Natürlich wird die Karte es, wenn der Chip irgendwas um 200mm^2 groß. Laut den Specs hätte die 4090 2,28x mehr Rechenleistung und 2,8x mehr Bandbreite.bei 600w hat die 4090 aber nicht nur 19xxx punkte.
irgendwas stimmt da nicht. also entweder hat die 4070 keine 10000punkte oder der verbrauch liegt nicht bei 300w. 12000+ punkte wären realistischer bei 300w.
Linmoum
2022-07-30, 12:04:52
Natürlich wird die Karte es, wenn der Chip irgendwas um 200mm^2 groß. Laut den Specs hätte die 4090 2,28x mehr Rechenleistung und 2,8x mehr Bandbreite.Nvidia bringt also trotz Samsungs 8nm vs. TSMC N5 eine Karte mit Effizienzregression? Cool, dass du das so siehst.
300W bei 3090-Performance mit aber nur 10GiB GDDR6 sind albern und wir es in der Konstellation nicht geben. Das wäre unter Berücksichtigung des Prozesssprungs ein Fail, den es so schon lange nicht mehr gegeben hat.
BlacKi
2022-07-30, 12:12:12
warum soll eine 3090 bei 350w effizienter sein als eine 4070 mit 300w bei gleicher leistung(imho falsch)?
es ist doch eine verbesserung?
Linmoum
2022-07-30, 12:21:01
Schrieb ich doch, warum: Die 3090 muss noch 14GiB mehr mitschleppen und das auch noch in Form von GDDR6X. Die 4070 wird auf normalen GDDR6 setzen und nur 10GiB haben.
Ist mir schon klar, dass die reine Wattzahl niedriger ist. Aber das ist halt eben auch nur die halbe Wahrheit, wenn man sich nicht nur mit reiner Balkenlänge befassen will. Wie sehr GDDR6X bei Ampere auch noch saugt, sieht man an der 3070Ti.
Wie gesagt: Wenn die 4070 mit nur 10GiB GDDR6 auf dem Performancelevel einer 350W 3090 liegt, die aber noch +14GiB und GDDR6X mitschleppen muss - und man den Sprung von Samsung 8nm auf TSMC N5 im Hinterkopf hat - dann wäre das einfach... Whew. Schlecht.
Platos
2022-07-30, 12:47:53
Aus Kundensicht hätte das Produkt weniger Watt bei gleicher Leistung und das wars. Mehr interessiert nicht. Balkenlänge... Eher wohl Fakten. Spielt doch keine Rolle, wieso das so ist.
Wenn du es aus technischer Sicht betrachten willst, dann bitte richtig und auch die Anzahl SMs miteinbeziehen und auch nicht nur den Betriebszustand im Auslieferungszustand, sondern eben ne ganze Kurve betrachten. Dann kannst du etwas über die Effizienz aussagen.
Aber wie gesagt, es wird wohl irgendwas nicht stimmen an der Sache. Nie und nimmer bräuchte die 4700 so viel Strom, um diese Leistung zu erreichen. Da stimmt was nicht. Aber abgesehen davon kann man die Karte sowieso gleich in den Eimer werfen, wenn sie wirklich nur 10GB hat. Auch wenn sie 12GB hat, ist sie maximal als 1440p Karte tauglich und nicht zukunftssicher für 4k.
BlacKi
2022-07-30, 12:51:11
rein auf den chip gesehen wäre das ein rückschritt. auf die karte gesehen aber nicht.
Aus Kundensicht hätte das Produkt weniger Watt bei gleicher Leistung und das wars. Mehr interessiert nicht.
preis. 300w hab ich schon bei der 2070super gehabt. und auch die 3070ti verbraucht fast soviel, übrigens performancetechnisch und effizienztechnisch vergleichbar zur 2080ti, minimal besser.
es wäre also nichts neues.
eine 3090 liegt aber genau wie eine 2080ti vom boostverhalten näher am effizienten boostbereich, die kleinen karten mit viel powertarget nicht. deshalb bietet sich ein vergleich generationenübergreifend garnicht an.
Troyan
2022-07-30, 13:11:28
Nvidia bringt also trotz Samsungs 8nm vs. TSMC N5 eine Karte mit Effizienzregression? Cool, dass du das so siehst.
300W bei 3090-Performance mit aber nur 10GiB GDDR6 sind albern und wir es in der Konstellation nicht geben. Das wäre unter Berücksichtigung des Prozesssprungs ein Fail, den es so schon lange nicht mehr gegeben hat.
Einfach mal denken, hilft: 200mm^2 bis 230mm^2 auf 5nm gegen 628mm^2 auf 8nm. Wäre 2,7x bis 3x bessere Leistung pro Fläche. Ja, das schafft man nur massiven Effizienzsprung.
Platos
2022-07-30, 13:19:39
rein auf den chip gesehen wäre das ein rückschritt. auf die karte gesehen aber nicht.
preis. 300w hab ich schon bei der 2070super gehabt. und auch die 3070ti verbraucht fast soviel, übrigens performancetechnisch und effizienztechnisch vergleichbar zur 2080ti, minimal besser.
es wäre also nichts neues.
eine 3090 liegt aber genau wie eine 2080ti vom boostverhalten näher am effizienten boostbereich, die kleinen karten mit viel powertarget nicht. deshalb bietet sich ein vergleich generationenübergreifend garnicht an.
Zum 1: Nein, auf den CHIP bezogen, wäre das eben nicht (zwingend) einen Rückschritt. Wenn man den Chip technisch betrachten will bzw. die Architektur, dann kann man logischerweise nicht nur einen einzigen Betriebspunkt anschauen, sondern muss die ganze Kurve ansehen. Ebenfalls muss man bedenken, wie viele SMs die Chips haben.
Will man etwas technisch betrachten, dann muss man natürlich eine Kurve erstellen.
zum 2: Ja, der Preis ist natürlich sehr wohl wichtig. Ich meinte jetzt nur bezogen auf Effizienz. Und mit dem Boostbereich: Siehe Kurve erstellen oben. Der Defaultzustand ist nur ein kleiner Punkt auf ner riesen Kurve. Für die Bewertung der Karte ist das der entscheidende Punkt. Für eine technische Bewertung aber nicht.
Nazar
2022-07-30, 18:02:34
Nvidia bringt also trotz Samsungs 8nm vs. TSMC N5 eine Karte mit Effizienzregression? Cool, dass du das so siehst.
300W bei 3090-Performance mit aber nur 10GiB GDDR6 sind albern und wir es in der Konstellation nicht geben. Das wäre unter Berücksichtigung des Prozesssprungs ein Fail, den es so schon lange nicht mehr gegeben hat.
4070 auf 3090 Niveau, bei geringer Bandbreite und weniger Verlustleistung = Rückschritt? :confused:
Das mit dem Speicher ist für diese Art der Performancegegenüberstellung erst einmal nicht wichtig.
Und wenn man den Speicher als wichtigen Punkt mit einbezieht, dann waren, bzw. sind alle Ampere Generationen unterhalb der 3090 ein massiver Rückschritt. nVidia bleibt sich treu? :wink:
aufkrawall
2022-07-30, 18:21:34
Schlechtes Gedächtnis? Es war mal normal, dass der 104er Chip der neuen Gen ca. die Leistung des 100er/110er Chips der alten bei fast der Hälfte des Verbrauchs erreicht hat.
ChaosTM
2022-07-30, 18:24:30
Bei 1080p oder maximal 1440p kann sie vielleicht (halbwegs) mithalten mit der mageren Bandbreite. Bei 4k geht der 4070er dann wohl die Luft- und früher oder später auch der Speicher aus.
Linmoum
2022-07-30, 18:33:20
Schlechtes Gedächtnis? Es war mal normal, dass der 104er Chip der neuen Gen ca. die Leistung des 100er/110er Chips der alten bei fast der Hälfte des Verbrauchs erreicht hat.Früher ist aber auch schon wieder einiges her. :D
Aber sei es wie es sei: Die 3090 hat einen GPU-only Verbrauch von 230W (bei 350W TGP). Wenn die TGP der 4070 mit nur noch 10GiB GDDR6 schon bei 300W liegen soll, dann sind das GPU-only sicherlich nicht >70W weniger. Wo soll das herkommen? Das ist für Samsungs 8nm vs. TSMC N5 einfach völlig unglaubwürdig. Entweder Nvidia hat da irgendwas völlig versemmelt, oder sie prügeln das Teil tatsächlich aus komplett unerklärlichen Gründen über die Kotzgrenze hinaus. Oder die Kombination 300W = 3090-Performance ist schlicht Quatsch. Wahrscheinlich letzteres.
BlacKi
2022-07-30, 19:01:11
es dürften schon 50w sein das gddr6x mehr braucht,
a6000 gddr6 vs 3090 gddr6x
die 3090 boostet vermutlich etwas höher und mit minimal anderer voltage curve. aber die doppelte speichermenge hat wohl ebenso einen verbrauchs nachteil.
https://youtu.be/1PNka8UjAMk?t=446
die 4070 wird bei 300w so oder so ganz weit weg vom sweetspot sein. jenseits von 3ghz. von daher ist das auch nicht zu vergleichen.
AffenJack
2022-07-30, 19:08:17
Früher ist aber auch schon wieder einiges her. :D
Aber sei es wie es sei: Die 3090 hat einen GPU-only Verbrauch von 230W (bei 350W TGP). Wenn die TGP der 4070 mit nur noch 10GiB GDDR6 schon bei 300W liegen soll, dann sind das GPU-only sicherlich nicht >70W weniger. Wo soll das herkommen? Das ist für Samsungs 8nm vs. TSMC N5 einfach völlig unglaubwürdig. Entweder Nvidia hat da irgendwas völlig versemmelt, oder sie prügeln das Teil tatsächlich aus komplett unerklärlichen Gründen über die Kotzgrenze hinaus. Oder die Kombination 300W = 3090-Performance ist schlicht Quatsch. Wahrscheinlich letzteres.
Seh ich genauso. Ne 4090 soll bei 450W gegenüber 350W der 3090 etwa 2x so schnell sein, aber ne 4070 soll gleichviel wie ne 3090 verbrauchen? Das ergibt keinen Sinn. Am Ende dürfte sich herausstellen, dass 300W wahrscheinlich das Limit der Boards sind und Custom OC 4070 300W haben, während ne normale bei 250W oder so ist.
Nebenbei, auch wenn ich bei kopite mittlerweile skeptisch bin:
kopite7kimi
@kopite7kimi
Antwort an
@VideoCardz
Even AD106 and AD107. ��
https://twitter.com/kopite7kimi/status/1553399154298454016
Damit wäre die gesamte Reihe im Labor und bis auf zu viele RTX30er sollte nichts gegen einen Launch des gesamten Lineups in Q1 23 sprechen.
bbott
2022-07-30, 21:46:00
Seh ich genauso. Ne 4090 soll bei 450W gegenüber 350W der 3090 etwa 2x so schnell sein, aber ne 4070 soll gleichviel wie ne 3090 verbrauchen? Das ergibt keinen Sinn. Am Ende dürfte sich herausstellen, dass 300W wahrscheinlich das Limit der Boards sind und Custom OC 4070 300W haben, während ne normale bei 250W oder so ist.
Doch wenn man Chpfläche gegen Takt eintauscht. AD102 als Effizenz "Wunder" vermarktet, achtet deutlich weniger bei AD104 usw. drauf.
Beispiel RX6800 vs RX6700XT auch 4090 450W vs. 4080 420W sagen das gleiche, von der 30W wird einiges vom RAM verursacht. Die 4070 wird wohl gegen die 3070 Ti GDDR6X gestellt, um besser darzustehen :D
BlacKi
2022-07-30, 22:04:37
Doch wenn man Chpfläche gegen Takt eintauscht. AD102 als Effizenz "Wunder" vermarktet, achtet deutlich weniger bei AD104 usw. drauf.
Beispiel RX6800 vs RX6700XT auch 4090 450W vs. 4080 420W sagen das gleiche, von der 30W wird einiges vom RAM verursacht. Die 4070 wird wohl gegen die 3070 Ti GDDR6X gestellt, um besser darzustehen :Ddas geht deshalb nicht, weil die 4070 die hälfte der performance der 4090 bringen soll. die hälfte der 450w sind 225w. 225w aber ohne gddr6x, das macht 200w, ok etwas höherer takt, das macht keine 300w, egal wie.
Thunderburne
2022-07-30, 22:26:15
Bei 300W kann man sich jetzt auch gleich eine 3090 im ab Abverkauf schiessen oder ne 3080 Ti .
So hat man 14 GB oder 2GB mehr Speicher und kann sich das warten sparen 😂
Ich glaub mit den 300W ist man auf dem Holzweg!
Thunder99
2022-07-30, 23:33:18
So siehst es aus. Einzig die bessere RT Leistung würde für die neue Karte sprechen.
iamthebear
2022-07-30, 23:48:26
Vor einiger Zeit hat AGF 2 Taktpunkte der 3090 gepostet (siehe https://twitter.com/XpeaGPU/status/1543887719729807360?s=20&t=-BMG1elkyoTN1Hq1ErZmFA):
.) 2780MHz bei 450W
.) 3020MHz bei 550W
Ich habe das einmal etwas analysiert.
Wenn wir davon ausgehen, dass wie bei der 3090 Ti 100W von nicht mit dem GPU Takt skalierenden Einheiten wie Speicher inkl. Controller, IO etc. kommen sind das:
8,6% mehr Takt
für 28,5% mehr Verbrauch
bzw. 8,8% mehr Spannung
Als Vergleich habe ich dieselbe Rechnung für die RTX3090 gemacht auf Basis der von Geldmann3 geposteten Werte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12963231#post12963231
Hier habe ich 120W für das "sonstige" angenommen. Die 20W mehr kommen von den zusätzlichen VRAM Chips auf der Rückseite.
Durch Hochrechnen der Lücken bin ich auf folgende Stelle gekommen, die sich gleich verhält:
RTX 3090 320W vs. 275W
Für den GPU only Anteil:
200W vs. 155W = 29% mehr
für 1698Mhz vs. 1560MHz = 8,8% mehr Takt
bzw. 8,85% mehr Spannung
Dies würde darauf hindeuten, dass die 4090 echt verdammt niedrig getaktet ist und selbst 550W in der Taktkurve immer noch sehr weit unten liegen würden.
Daraus würden sich folgendes ergeben:
a) Ada braucht am selben Punkt 44% mehr W/SM. Pro TFlop brauch Ada vermutlich um die 19% weniger (23% bessere Energieeffizienz). Das ist jedoch nur ein sehr grober Richtwert, da der Heaven Benchmark von Geldmann3 anscheinend sehr energieintensiv war, wie die 2780MHz ermittelt wurden wissen wir nicht. Ich würde also eher von etwas weniger Taktvorteil und somit niedriger Energieeffizienz von Ada ausgehen.
b) Würde Nvidia "das Beast" in etwa so takten wie die 3090 (350W gesamt) ergäbe das:
.) 350W GPU Only * 230W GPUOnly (3090@350W) / 155W GPUOnly (3090@275W) * 142SM/128SM + 100W Fixed = 676W Verlustleistung
.) 2780MHz (4090@450W) * 1768MHz (3090@350W) / 1560MHz (3090@275W) = 3150MHz Takt
c) Würde die 4080 so getaktet werden wie die 3090 ergäbe das:
.) 350 * 230/155 * 80/128 + 70W Fixed = 395W Verlustleistung
.) 3150MHz Takt
d) Würde die 4080 so getaktet werden wie die 4090 ergäbe das:
.) 350*80/128+70 = 289W
.) 2780MHz Takt (bedeutet 12% weniger Performance bzw. knapp über 13K in TSE)
e) Bei der 4070 käme man vermutlich in etwa auf 200W hinunter. Das wären dann von der Performance in etwa 9K in TSE bzw. 3080 Niveau.
Felixxz2
2022-07-31, 10:11:33
Kurze bisschen OT Frage: wann könnten wir mit den Mobile Varianten rechnen?
Troyan
2022-07-31, 10:18:11
CES 2023 im Januar.
Seh ich genauso. Ne 4090 soll bei 450W gegenüber 350W der 3090 etwa 2x so schnell sein, aber ne 4070 soll gleichviel wie ne 3090 verbrauchen? Das ergibt keinen Sinn. Am Ende dürfte sich herausstellen, dass 300W wahrscheinlich das Limit der Boards sind und Custom OC 4070 300W haben, während ne normale bei 250W oder so ist.
AD102 -> 600mm1^2 = GA102
AD104 -> <=230mm^2 < (1/3) GA102
Es verschiebt sich unter AD102 alles eine Stufe höher. Und sollten die angeblichen Taktraten von 3000MHz möglich sein, kommt die 4070 mit 25%+ mehr Takt.
iamthebear
2022-07-31, 12:06:50
Wo hast du das mit den 230mm² her? Ich würde das einmal stark anzweifeln.
Wenn wir nicht von der Fläche sondern den tatsächlich nutzbaren SMs ausgehen:
128SM (4090) vs. 56SM (4070) = 2.3x
Taktunterschied dürften um die 10-15% sein. Dieser wird jedoch wahrscheinlich durch die mehr als 2.3x niedrigere effektive Speicherbandbreite wieder aufgefressen also grob geschätzt 2.2-2.3x theoretische Performance zwischen 3090 und 4090, was wohl in etwa 2x TSE entspricht.
Troyan
2022-07-31, 13:05:12
Erstmal ist Fläche relevant und nichts anderes. Und da scheint nVidia die Speichercontroller und Compute-Units zu reduzieren und gleicht es mit mehr Takt und mehr L2 Cache aus.
Hopper hat 100 Mio Transistoren pro mm^2. Doppelte Packdichte gegenüber Gaming-Ampere packt einen 230mm^2 bei ca. 20 Mrd (~88 Mio/mm^2). Mit besser packenden Cache anstelle von Speichercontroller (5 gegen 12), kann man da schon sehr tief gehen.
Auch nur mal so als Fun Fakt: Hopper hat fast 4x mehr Transistoren als Volta. Nimmt man das selbe Verhältnis, läge ein 280mm^2 5nm Lovelace Chip bei 26 Mrd. Transistoren. Das ist klar zu hoch für 160bit und 56 (58?) ComputeUnits.
iamthebear
2022-07-31, 13:25:33
Also laut kopite hat AD102 mit 144SM:
600mm²
70-80 Mrd. Transistoren was einer Dichte von 117-133 Mio/mm² entspricht und er scheint sich bei den Transistoren ziemlich sicher zu sein. Ich nehme in der Rechnung einmal den Mittelwert von 75Mrd. bzw. 125Mio/mm² an.
Das würde bedeuten:
.) AD102 520Mio/SM vs. GA102 326Mio/SM also 60% mehr.
Die zusätzlichen Transistoren wurden vermutlich zum Teil in den größeren L2 und zum Teil in die höhere Taktfrequenz investiert.
Wenn man das Zanze linear hochrechnen würde:
.) AD103:
350mm²
43.7 Mrd.
.) AD104
250mm²
31.2Mrd.
Das sind also die theoretischen Minimalwerte. In der Praxis werden die Chipflächen bzw. Transistoren etwas höher liegen, da es auch Teile gibt, die nicht oder nicht so stark mit der SM Anzahl skalieren z.B. IO, L2, SI etc.
P.S.: Wenn du die Chipfläche berechnen willst musst du immer vom vollständigen Die ausgehen d.h. bei AD104 60SM und 192Bit SI. Deaktivierte Einheiten machen den Chip ja nicht kleiner.
Thunderburne
2022-08-01, 08:11:26
https://videocardz.com/newz/full-nvidia-rtx-40-ad104-gpu-with-7680-cores-and-400w-tdp-to-match-rtx-3090-ti-in-performance
dargo
2022-08-01, 08:28:38
AD104 mit 400W? :ucrazy3:
Das wird echt noch interessant wie man diese absurde Abwärme (was zieht die GPU alleine dann? ~300W?) von so einer kleinen Fläche abführen will.
Na ist doch klar, das sind halt die Maximalausführungen der kleineren Chips. AD103 wird ja auch an die Kotzgrenze getrieben.
4070 -> 10GB -> Fail
4070Ti -> 400W -> Epic Fail
4080 -> 420W -> Fail
also ich würd mir davon mal nix kaufen. Die 4090 ist effizient, da würd ich auch ein Auge darauf werfen. Ich warte noch auf die 4080Ti mit AD103 Full @ 500W.
Thunderburne
2022-08-01, 09:28:48
AD104 mit 400W? :ucrazy3:
Das wird echt noch interessant wie man diese absurde Abwärme (was zieht die GPU alleine dann? ~300W?) von so einer kleinen Fläche abführen will.
Was ich interessant finde ist wie doll muss NV die 4090 in Ketten legen um die bei 450W zu halten ?
Das ist natürlich gut für das OC wen man genug PT frei machen kann was dann natürlich den Verbrauch massiv steigern würde !
Linmoum
2022-08-01, 09:30:10
Was kopite da schreibt, ergibt aber mal wieder auch keinen Sinn.
Wenn eine 4070 mit 300W die 3090 erreichen soll, dann kommt so eine 4070Ti in der Form sicherlich nicht nur auf ~3090Ti-Performance.
Und weniger als 300W für die 4070 wären vor dem Hintergrund erst recht absurd. Gibt nur zwei Möglichkeiten:
a) kopite schreibt erneut Stuss
b) Nvidia ist unter Drogen und kann nicht klar denken
Ich nehme a).
Thunderburne
2022-08-01, 09:31:42
Na ist doch klar, das sind halt die Maximalausführungen der kleineren Chips. AD103 wird ja auch an die Kotzgrenze getrieben.
4070 -> 10GB -> Fail
4070Ti -> 400W -> Epic Fail
4080 -> 420W -> Fail
also ich würd mir davon mal nix kaufen. Die 4090 ist effizient, da würd ich auch ein Auge darauf werfen. Ich warte noch auf die 4080Ti mit AD103 Full @ 500W.
Jo nice Zusammen gefasst.
Gehe mal dann davon aus das die 4090 sehr niedrig taktet man aber wen genug PT für OC hat noch mal ordentlich nachlegen kann bei der Leistung und der Leistungsaufnahme.
The_Invisible
2022-08-01, 09:50:45
Dieses Wattrennen ist langsam schon absurd...
Interessant wird da eher ob man eine 4090 zb auch mit 300W betreiben kann ohne das die rumspinnt was ja Ampere Karten mit zu niedriger PT tun...
Troyan
2022-08-01, 10:21:30
Also laut kopite hat AD102 mit 144SM:
600mm²
70-80 Mrd. Transistoren was einer Dichte von 117-133 Mio/mm² entspricht und er scheint sich bei den Transistoren ziemlich sicher zu sein. Ich nehme in der Rechnung einmal den Mittelwert von 75Mrd. bzw. 125Mio/mm² an.
Hopper ist der größte Chip mit der besseren Packdichte. Von dort wird es nur runtergehen.
26 Mrd. Transistoren sind High-End. Klingt vielleicht nicht viel bei 5nm, aber jeder Transistor muss überprüft werden. Das ist ein immenser Prozess und auch ein Grund, wieso AMD eben mit ihrem Design nur Teile auf 5nm produzieren wird.
Jo nice Zusammen gefasst.
Gehe mal dann davon aus das die 4090 sehr niedrig taktet man aber wen genug PT für OC hat noch mal ordentlich nachlegen kann bei der Leistung und der Leistungsaufnahme.
Ich würd mir sogar wünschen, dass, wenn Hersteller ein Dual-BIOS verbauen, dieser völlig sinnlose OC-Mode einfach weggelassen würden und stattdessen ein Eco-Mode mit angeboten wird stattdessen. Aber viele Chinesen stehen offenbar auf diese Sinnlos-OC-BIOSse. Leider wird das mit Ada jetzt auf die Spitze getrieben, da NV die Powerlimits nach oben hin ja sehr liberal handhaben wird - das wird ne Vollkatastrophe aus meiner Sicht. Ich hätt gerne ne Eco-Variante mit astreiner Bauteilbestückung (effizienze SPS in möglich geringer Anzahl und möglichst wenig, sehr hochwertiger Spulen mit geringer Fehlertoleranz) und maximal Referenzverbrächen und Optional-BIOS für 50W weniger Verbrauch. Das wär ein echt tolle Produkt.
BlacKi
2022-08-01, 11:09:25
Interessant wird da eher ob man eine 4090 zb auch mit 300W betreiben kann ohne das die rumspinnt was ja Ampere Karten mit zu niedriger PT tun...
naja, das problem kann man umgehen wenn man die voltage curve festlegt. z.b. 2ghz bei 0,75v. aber bitte ohne powerlimit begrenzung, das kann dann wirklich probleme machen, weil base ja angeblich schon . dann hat man möglicherweiße einen verbrauch schwankend zischen 250 und 350w.
300w sind halt schon weniger als die hälfte des maximalen powerlimits.
solange man das von ampere übernehmen kann.
wie gesagt, ein hohes powerlimit ist ein feuture.
was haltet ihr von der these, das die genannten powerlimits powerlimits sind, die OC spielraum schon beinhalten?
4070-> 300w x0,8333 (+20%powerlimit) = 250w
Thunderburne
2022-08-01, 11:21:44
Ich würd mir sogar wünschen, dass, wenn Hersteller ein Dual-BIOS verbauen, dieser völlig sinnlose OC-Mode einfach weggelassen würden und stattdessen ein Eco-Mode mit angeboten wird stattdessen. Aber viele Chinesen stehen offenbar auf diese Sinnlos-OC-BIOSse. Leider wird das mit Ada jetzt auf die Spitze getrieben, da NV die Powerlimits nach oben hin ja sehr liberal handhaben wird - das wird ne Vollkatastrophe aus meiner Sicht. Ich hätt gerne ne Eco-Variante mit astreiner Bauteilbestückung (effizienze SPS in möglich geringer Anzahl und möglichst wenig, sehr hochwertiger Spulen mit geringer Fehlertoleranz) und maximal Referenzverbrächen und Optional-BIOS für 50W weniger Verbrauch. Das wär ein echt tolle Produkt.
Ach wie war das noch schön wo man sein Bios bei der 980Ti selbst gebastelt hat!
Thunder99
2022-08-01, 11:56:31
naja, das problem kann man umgehen wenn man die voltage curve festlegt. z.b. 2ghz bei 0,75v. aber bitte ohne powerlimit begrenzung, das kann dann wirklich probleme machen, weil base ja angeblich schon . dann hat man möglicherweiße einen verbrauch schwankend zischen 250 und 350w.
300w sind halt schon weniger als die hälfte des maximalen powerlimits.
solange man das von ampere übernehmen kann.
wie gesagt, ein hohes powerlimit ist ein feuture.
was haltet ihr von der these, das die genannten powerlimits powerlimits sind, die OC spielraum schon beinhalten?
4070-> 300w x0,8333 (+20%powerlimit) = 250w
Ist dennoch für einige zu viel Arbeit oder es ist nicht stabil bei den mittleren Lasten.
Man kann doch nicht beliebig nach unten skalieren. Der eine braucht für 2GHz 0.75V, der andere 0.85V und schon braucht der mehr Energie.
BlacKi
2022-08-01, 12:29:12
Ist dennoch für einige zu viel Arbeit oder es ist nicht stabil bei den mittleren Lasten.
Man kann doch nicht beliebig nach unten skalieren. Der eine braucht für 2GHz 0.75V, der andere 0.85V und schon braucht der mehr Energie.
nein das ist nicht so, es ist kein undervolten wenn einem der boosttable ausgeht. denn es ist übervolten, wenn man mehr volt gibt als notwendig ist.
wenn die 4080 bei 1.025v 3ghz boostet mit stock voltage curve, dann dürftenbei 2ghz eigentlich 0,650v reichen, was aber nicht geht. man muss mindestens 0,7v geben, was schon übervolten ist. es kann auch sein, das der neue gddr6x damit er nicht runtertaktet auch mehr als 0,7 oder 0,75 braucht. vl braucht er 0,9v. dann ist es massives übervolten, der stock voltage curve nach.
und trotzdem wird weniger verbraucht.
aber das wir da nicht optimalen bereich liegen ist klar, die karte verliert effizienz zu gunsten vom maximalen verbrauch.
es ist nur eine notlösung, falls der boosttable das nciht zulässt.
wahrscheinlich wird big ad102 bei 400w die höchste effizienz haben, weil es darunter zu overvolting wird.
Ghost1nTh3GPU
2022-08-01, 15:23:24
Immerhin wird da einem nicht mehr kalt im Winter, wenn man mir der heißen Ada spielen kann:
https://www.golem.de/news/statt-heizluefter-kauft-lieber-server-2208-167288.html
;)
Statt der Green Edition, gibt es bald die Heat Edition.
prinz_valium_2
2022-08-01, 15:40:13
Naja. Eine 4070Ti mit 12GB ist immer noch besser als eine 4070 mit 10GB.
Aber nicht mit 100W mehr.
bbott
2022-08-01, 17:01:45
Aber nicht mit 100W mehr.
Scheint (zuvielen) egal zu sein.
Linmoum
2022-08-01, 17:14:07
Hätte ich bis vor einem halben Jahr auch gesagt. In der aktuellen Situation wäre ich mir da aber gar nicht mal mehr so sicher.
prinz_valium_2
2022-08-01, 17:49:04
Aber nicht mit 100W mehr.
Undervolting lässt grüßen.
Wenn die GDDR6X und die andere nur GDDR6 bekommt, dann wird es auch ein realer Mehrverbrauch. Ansonsten ist es nur eine Zahl.
robbitop
2022-08-01, 18:53:42
Betriebspunkt selbst einstellen und glücklich sein. Ein hoher gewählter Betriebspunkt zwingt nicht dazu das auch so zu betreiben. TDP runter und die f/v Curve optimieren.
unl34shed
2022-08-01, 18:56:45
Aber warum dann überhaupt die teure Karte kaufen und nicht die deutlich günstigere Nummer kleiner? Die werden ja nach den hochgeprügelten Specs eingereist.
DSD512
2022-08-01, 19:04:21
Aber warum dann überhaupt die teure Karte kaufen und nicht die deutlich günstigere Nummer kleiner? Die werden ja nach den hochgeprügelten Specs eingereist.
Das jeweilige Topp-Modell UV\PL setzen ... und damit hat man dann die effizienteste Karte. Ganz einfach.
Siehe 3090 Ti@300 Watt (Igor).
Linmoum
2022-08-01, 19:18:19
Wenn die Vollausbaufetischisten auch noch den neuerlichen Tweet von kopite bzgl. des L2 lesen, dann wird NV mit der 4090 immer weniger Adressaten finden. ;D
Was ich mich frage, wo sind die 250%+ Leo? Es bleibt ein Überbleibsel von Max. 70% über, ohne RT! Da lediglich an der Rasterizing-Performance gedreht wurde, bleibt ein stabiles Konstrukt über, aber gegen RDNA3? Sieht böse aus…
Das jeweilige Topp-Modell UV\PL setzen ... und damit hat man dann die effizienteste Karte. Ganz einfach.
Siehe 3090 Ti@300 Watt (Igor).
Da reichen gar 270w! Die 3090Ti ist wahrscheinlich die beste Karte, welche NV je veröffentlicht hat! Und hätte nie bringen dürfen, wenn ich mir das 4xxx Lineup so anschaue 😂😂😂
robbitop
2022-08-01, 20:01:30
Energieeffizienz ist Perf/W. Egal wie viele Watts es sind wenn die Perf stärker steigt. Und davon ist auszugehen bei neuer uArch und fast 2 fullnodeshrinks.
Tesseract
2022-08-01, 20:10:01
ich rechne eigentlich damit, dass die leaker (mal wieder) am holzweg sind und diese wattage angaben für load spikes sind die das netzteil wegstecken können muss ohne die schulzschaltung auszulösen, nicht der realverbraucht der karten.
ich rechne eigentlich damit, dass die leaker (mal wieder) am holzweg sind und diese wattage angaben für load spikes sind die das netzteil wegstecken können muss ohne die schulzschaltung auszulösen, nicht der realverbraucht der karten.
Wohl kaum, bzw. währe mir das neu. Die Peaks wurden in Leaks noch nie „berücksichtigt“!
fondness
2022-08-01, 20:27:08
Wohl kaum, bzw. währe mir das neu. Die Peaks wurden in Leaks noch nie „berücksichtigt“!
Irgendwas stimmt da jedenfalls nicht imo. Ich meine wir reden hier fast von zwei full node shriks. Da muss mehr drinnen sein.
Thunderburne
2022-08-01, 20:37:11
ich rechne eigentlich damit, dass die leaker (mal wieder) am holzweg sind und diese wattage angaben für load spikes sind die das netzteil wegstecken können muss ohne die schulzschaltung auszulösen, nicht der realverbraucht der karten.
Maximale Powertarget könnte vielleicht noch passen!
Neurosphere
2022-08-01, 20:49:12
Ich hab hier eher das Gefühl das NV und AMD sich hier gegenseitig Finten hinwerfen. Bei AMD ist es ziemlich still und so richtig weiß keiner was kommt und bei NV eher so das man nach oben hin (die 800 Watt) alles machen kann zum kontern.
Was Kimi so raushaut kann er eigentlich auch nur wissen wenn er ziemlich dicht dran ist an NV. Bei AMD sieht es er so aus als hätten einige Infos über Dritte die eher richtung Halbwahrheit gehen. Ich meine, Kimi weiß sogar die Chipcodes (wenn sie denn stimmen natürlich). Entweder er ist bei einem der Hersteller oder direkt bei NV. Frage ist auch ob man eigentlich was dagegen hat solche Infos zu streuen.
Ich hab hier eher das Gefühl das NV und AMD sich hier gegenseitig Finten hinwerfen. Bei AMD ist es ziemlich still und so richtig weiß keiner was kommt und bei NV eher so das man nach oben hin (die 800 Watt) alles machen kann zum kontern.
Was Kimi so raushaut kann er eigentlich auch nur wissen wenn er ziemlich dicht dran ist an NV. Bei AMD sieht es er so aus als hätten einige Infos über Dritte die eher richtung Halbwahrheit gehen. Ich meine, Kimi weiß sogar die Chipcodes (wenn sie denn stimmen natürlich). Entweder er ist bei einem der Hersteller oder direkt bei NV. Frage ist auch ob man eigentlich was dagegen hat solche Infos zu streuen.
Ich denke eher es geht bei den GPUs um Leben und Leben lassen. Einen dritten ernsthaften Beschleuniger, kann weder AMD noch NV gebrauchen! Und obwohl Raja da an Spitze hockt und Hardware entwirft, welche kaum zu programmieren ist, denn wer weiß…
Rampage 2
2022-08-01, 22:27:11
Wenn die Vollausbaufetischisten auch noch den neuerlichen Tweet von kopite bzgl. des L2 lesen, dann wird NV mit der 4090 immer weniger Adressaten finden. ;D
Wie soll das denn überhaupt technisch möglich sein, wenn 16MB L2-Cache pro 64Bit-Memorycontroller Architektur-bedingt bereits fix sind und die 4090 ein volles 384Bit-SI hat!? Oder hat Nvidia 25% eines L2-Slice mutwillig deaktiviert (12 statt 16MB) so dass sich bei 6 64Bit-Channels 6x12MB = 72MB ergeben? Und warum/wozu sollte NV so etwas machen? Mit welchem Zweck? :|
Ergibt für mich absolut keinen Sinn...
R2
iamthebear
2022-08-01, 22:59:06
Achtung wilde Spekulation meinerseits:
.GA102 hatte 48 slices je 128KB. Wenn bei AD102 nur die Größe pro Slice erhöht wurde so wären das 48x2MB.
GDDR6X hat 32Bit Controller d.h. es wäre daheliegend, dass pro 32Bit Controller 4 Slices zu je 2MB verbaut wurden.
Angenommen es ist ein Defekt im L2 Cache. Dann will Nvidia den Die sicher nicht entsorgen, sondern muss 1 Slice deaktivieren.
Jetzt stellt sich mir die Frage: Macht es überhaupt Sinn wenn 11 Controller 8MB L2 bekommen und der 12. Controller nur 6MB? Limitiert dann nicht sowieso immer der Controller mit den 6MB?
Könnte es vielleicht deshalb sein, dass sich Nvidia deshalb zu entschlossen hat gleich bei allen Controllern 2MB zu deaktivieren?
Es könnte aber auch sein, dass Nvidia hier künstlich mehr Abstand zwischen 3090 und 3090 Ti schaffen wollte bzw. weniger Abstand zwischen 4080 und 4090. Das wäre jedoch ein Zeichen dafür dass 4080 und 4090 auch preismäßig etwas näher zusammenrücken.
Fragman
2022-08-02, 09:05:48
Irgendwas stimmt da jedenfalls nicht imo. Ich meine wir reden hier fast von zwei full node shriks. Da muss mehr drinnen sein.
Wenn die Leistung und Wattangaben stimmen hat man keinen Vorteil aus den Prozessverbesserungen ziehen können und auch die Shaderperformance ist gleich im Mid und High End Bereich.
Einzig die schmalere Bandbreite kann man hier als Verbessrung sehen und das man höher Takten kann.
Was zur Folge hat, wie ich schonmal unter einer News schrieb, das eigentlich nur die beiden Top Modelle dann echte Verbesserungen sind, weil die dann ordentlich Strom ziehen dürfen um Leistung zu liefern? :confused:
Oder was lässt das aktuelle Gesamtbild glaubwürdig erscheinen?
Sinn ergibt das alles nicht.
Leonidas
2022-08-02, 11:58:01
Was ich mich frage, wo sind die 250%+ Leo?
Bitte fair bleiben. Die 2,5fachen waren immer nur das oberste Ende von Prognosen. Und dies von alten Prognosen, die längst durch bessere ersetzt wurden.
BlacKi
2022-08-02, 12:03:30
er muss irgendwie seinen 3090ti kauf rechtfertigen, er tut mir irgendwie leid, aber auf der anderen seite nicht.
Platos
2022-08-02, 13:55:20
ich rechne eigentlich damit, dass die leaker (mal wieder) am holzweg sind und diese wattage angaben für load spikes sind die das netzteil wegstecken können muss ohne die schulzschaltung auszulösen, nicht der realverbraucht der karten.
Naja, bei AMD solls ja auch 375Watt sein mit 450W für Customs bei dem Topmodell. Bei nvidia ist es vlt. genau so. 450W einfach als erlaubte Obergrenze. Möglicherweise erreicht diese ja nvidia mit der Foundersedition gleich selbst.
ChaosTM
2022-08-02, 14:03:45
Auf jeden Fall deute sehr viel (4070 etc) auf eine "Brute Force" Generation hin, aber mal abwarten ob AMD da deutlich drunter bleiben wird. Denke eher nicht..
Platos
2022-08-02, 14:14:42
Wenn AMD mit 375W und bei Customs mit bis zu 450W kommt ja wohl eher nicht.
ChaosTM
2022-08-02, 14:27:38
Ich hab aber von deren Seite noch nichts bezüglich 600 Watt (Refresh 4090ti) oder gar 800 Watt Beastern gehört.
Eine 7700er mit 400 watt ist auch eher unwahrscheinlich aber man weiß ja nie. :)
basix
2022-08-02, 15:20:31
Irgendwas stimmt da jedenfalls nicht imo. Ich meine wir reden hier fast von zwei full node shriks. Da muss mehr drinnen sein.
Wenn die Leistung und Wattangaben stimmen hat man keinen Vorteil aus den Prozessverbesserungen ziehen können und auch die Shaderperformance ist gleich im Mid und High End Bereich.
Einzig die schmalere Bandbreite kann man hier als Verbessrung sehen und das man höher Takten kann.
Was zur Folge hat, wie ich schonmal unter einer News schrieb, das eigentlich nur die beiden Top Modelle dann echte Verbesserungen sind, weil die dann ordentlich Strom ziehen dürfen um Leistung zu liefern? :confused:
Oder was lässt das aktuelle Gesamtbild glaubwürdig erscheinen?
Sinn ergibt das alles nicht.
Takterhöhungen sind extreme Effizienzkiller. Ist immerhin ein U2*f Verhältnis und somit ~kubisch. Wenn Nvidia ihre Karten nun >1.5x taktet, wird sich das automatisch in schlechterer Energieffizienz niederschlagen.
Beispiel 4090 vs. 3090 Ti (mit groben Richtwerten als Zahlen):
- ~2x Performance bei 450W und gleichzeitig ~2.7 GHz anstatt ~2.0 Ghz Takt
- 2.7 / 2.0 = 1.35
- 1.353 = 2.5
- Effektiv macht man einen grossen Effizienzsprung (Architektur, grosser L2$, Process-Node) --> Oder anders gesagt: Bei 2.0 GHz wäre man (2*2.5)/1.35= ~3.7x effizienter als GA102
Beispiel 4080 vs. 3090 (mit groben Richtwerten als Zahlen):
- ~1.5x Performance bei 420W und gleichzeitig ~3.0 GHz anstatt ~1.8 Ghz Takt
- 3.0 / 1.8 = 1.67
- 1.673 = 4.6
- (1.5*4.6)/(1.67*420W/350W)= ~3.4x effizienter
Ergo:
Lovelace wäre anhand der Daten bei Iso-Takt ~3.5x effizienter wie Ampere. Die schlechtere Energieffizienz-Steigerung von ~1.5...2.0x der Karten ist dem erhöhten Takt geschuldet
Das sind aber nur grobe Richtwerte. Lovelace wird aber schon deutlich effizienter als Ampere sein. Nur halt nicht bei ~3GHz Takt. Aber das selbe Spiel sahen wir ja schon mal auf Nvidia Folien: Ampere vs. Turing Effizienzvergleich ;D Nur sind es hier neu 3-4x anstatt 1.9x ;)
https://www.notebookcheck.com/fileadmin/Notebooks/NVIDIA/Ampere/ampere_perf_w.jpg
Leonidas
2022-08-02, 15:32:11
Auf die Lovelace-Effizienz-Folien "freue" ich mich schon. Der Folien-Macher bei nVidia vermutlich genauso (aus unterschiedlichen Gründen).
Tesseract
2022-08-02, 15:38:06
@basix: diese rechnungen ergeben keinen sinn. soll U die spannung sein? warum rechnest du dann f³? spannung skaliert nicht linear mit takt.
dargo
2022-08-02, 16:28:56
Wenn AMD mit 375W und bei Customs mit bis zu 450W kommt ja wohl eher nicht.
Nein? Was glaubst du wohl was die Customs der 4090 saufen werden wenn schon die Referenz 450W braucht? Willkommen bei ~600W. :rolleyes:
AMD wird auch 450W verbraten - aber nur bei der 7975XT. Die anderen Modelle sind mMn weit darunter - die 7950XT dürfte schon nur noch bei 350W liegen, die 7900XT (wie auch die 7800XT) bei 300W, wie man am Seasonic Leak sehen konnte (gleiche Empfehlungen wie bei der 6800XT/6900XT). Leider sind die Verbräuche bei NV so extrem hoch, was leider an den hochgeprügelten kleineren Chips liegt - der Tradeoff ist Chipfläche gegen Power und Takt. Man muss ja die 600W-Customs nicht kaufen. Es gibts ja auch genug Customs, die auf Referenztakt laufen, von daher sehe ich die 450W bei der 4090 auch überhaupt nicht kritisch. Wenn es sich lohnt ist die 4090 mMn die beste Karte im Ada-Lineup.
basix
2022-08-02, 16:47:46
@basix: diese rechnungen ergeben keinen sinn. soll U die spannung sein? warum rechnest du dann f³? spannung skaliert nicht linear mit takt.
CMOS = CV2f = CU2f --> U ist halt europäischer ;)
Ja, Spannung ist nicht ganz linear mit der Frequenz. Näherungsweise ist es aber nicht grundfalsch, im noch gut skalierenden Frequenzbereich. Umso näher am Limit, desto überproportionaler die nötige SPannung. Und: Weils einfacher zu rechnen ist ;) Wir kennen die Spannungen überhaupt nicht, die Taktraten immerhin als Gerüchte. Die Kapazität C ist natürlich ebenfalls relevant (welche als Prozessparameter in N5 tiefer sein sollte als Samsung 8nm).
RTX 3090:
- 700mV ~1250MHz
- 800mV ~1530MHz
--> +15% Spannung, +22% Takt
--> 1.1x differenz, falls man es mit f3 oder U2f rechnet (relativer Fehler nimmt bei grösseren Faktoren natürlich zu ;))
https://bjorn3d.com/2020/10/undervolting-the-rtx-3080-and-the-rtx3090/
https://cdn.bjorn3d.com/wp-content/uploads/2020/10/24114826/Skarmklipp-1.png
Fragman
2022-08-02, 17:08:22
Das sind aber nur grobe Richtwerte. Lovelace wird aber schon deutlich effizienter als Ampere sein. Nur halt nicht bei ~3GHz Takt.
Danke.
Die Effizienz ist schon deutlich gestiegen.
Also rennt man gegen eine Taktwand, wenn man das so nennen will bzw muss den Takt fahren um auf die Leistung zu kommen. Das der Takt soviel auffrisst war mir nicht bewusst.
Platos
2022-08-02, 17:30:50
Naja, dass die Architektur effizienter wird, hat man ja schon vor Monaten gesehen bei den schon vorgestellten Karten. Das ist schon lange bekannt. Nur Architektur und Betriebszustand sind nunmal 2 völlig verschiedene Dinge.
w0mbat
2022-08-02, 18:00:48
Ich denke da ist mit den Gerüchten noch einiges im Argen, mMn werden wir überrascht werden.
nordic_pegasus
2022-08-02, 20:37:52
@basix
Deine Formeln sind für eine Physiker etwas verwirrend.
Die Verlustleistung P = C * U^2 * f
=> Der Verbrauch steigt linear mit der Frequenz und quadratisch mit der Spannung. Darum bringt z.B. Undervolting mehr Einsparung Runtertakten. Andersrum steigt der Verbrauch beim Übertakten nur moderat mit Mehrtakt, aber stark mit Mehrspannung. Die Kapazität C ist vereinfacht betrachtet konstant für den jeweiligen Transistor bzw. Prozessor. In Realität spielt insbesondere noch die Temperatur mit.
Deine Ausführungen zu f^3 kann ich nicht nachvollziehen ;-)
Zossel
2022-08-02, 21:27:12
Die Kapazität C ist vereinfacht betrachtet konstant für den jeweiligen Transistor bzw. Prozessor. In Realität spielt insbesondere noch die Temperatur mit.
Die Gatekapazität muss für höhere Frequenzen auch schnell genug auf die Threshold Spannung geladen werden können damit der FET durch schaltet.
Und das geht halt schneller wenn man mehr Spannung ans Gate anlegt.
iamthebear
2022-08-02, 21:47:20
Das Ganze ist etwas komplizierter.
Zuerst einmal zur Formel. Diese lautet näherungsweise:
P = C * U^2 * f + K
Im Fall der 3090:
C = ca. 160W/GHz/V² wobei dies je nach Spiel schwankt
U = Die Spannung (um die 900mV
f = Die Frequenz (um die 1800MHz)
K = ca. 120W (fixer Verbrauch aller nicht mit der Spannung bzw. dem Takt skalierenden Komponenten z.B. VRAM, Speicherinterface, IO etc.)
Was die Spannung angeht:
Dass diese proportional zum Takt verläuft ist nur eine sehr grobe Faustregel. Diese ist bei der 3080 ca. im Bereich von 800mV korrekt. Unter 800mV steigt bzw. sinkt der Takt stärker als die Spannung. Besonders unter 700mV der Takt extrem schnell ein. Über 800mV hingegen steigt der Takt langsamer als die Spannung und ab 900mV schon sehr viel langsamer.
Hier auf dem Screenshot sieht man sehr gut die Spannungskurve.
https://cdn.bjorn3d.com/wp-content/uploads/2020/10/24114826/Skarmklipp-1.png
Für die Effizienzbetrachtung des Dies an sich ist es vollkommen egal, wieviel Spannung ein hypothetischer GA102 bei 3GHz brauchen würde. Wie man gut an der Kurve sieht wird dieser ohne heftige Minusgrade kaum über 2.5GHz hinaus kommen auch wenn man ihn mit 1,5V grillt.
Ein Großteil des Taktsprungs kommt durch Änderungen an der Architektur zu Stande. Die Fertigung alleine kann keine 50% mehr Maximaltakt erklären.
Die entscheidende Frage ist:
Wo liegt die 4090 bei 450W in der Spannungskurve:
a) Es könnte sein, dass Ada grundlos bis auf Anschlag hochgetrieben wurde (entsprechend einer 3090 bei 1.2V) ähnlich wie es AMD früher mit seinen Karten gemacht hat (siehe 5700 XT).
b) Die bisherigen Leaks deuten jedoch eher darauf hin, dass die 4090 sogar sehr gemütlich getaktet wurde entsprechend ca. einer 3090 mit 800mV bzw. 270-300W d.h. mit mehr Verlustleistung ist noch deutlich mehr Takt als die 2,7GHz drin, umgekehrt bedeutet dies jedoch auch, dass der Takt sehr stark einbrechen wird wenn man versucht die Verlustleistung deutlich unter die 450W zu senken.
BlacKi
2022-08-02, 22:08:40
ich hoffe der vram bekommt eine eigene vrm leitung und bei core hoffentlich die möglichkeit unter 0,7v zu gehen.
edit: hoffe dann auf 4070 bei 150w und 2,7ghz@0,6v und 3090 ti performance^^
iamthebear
2022-08-02, 22:15:39
Also wenn die 4070 mit 300W nicht an die 3090 Ti heran kommt, dann wird es eine 4070 Ti mit ganzen 4 SMs und 32Bit SI mehr bei 150W schon gar nicht schaffen.
2,7GHz bei 600mV sind auch unrealistisch. Ich denke bei 800mV können wir darüber reden. Bei 600mV wären 2GHz schon toll im Notebook.
BlacKi
2022-08-02, 23:01:35
habs nochmal ergänzt
wenn 3,0 ghz bei 1.025v stock sind, dann gehen verm. auch 3.0 ghz bei 0,85-0,9v. 0,7v halte ich bei 2,7ghz für realistisch und hoffe sogar auf weniger.
0,7v gehen bei ampere so 1650-1700mhz, das entspricht schon etwa 2,7ghz bei ada.
basix
2022-08-02, 23:17:01
Deine Ausführungen zu f^3 kann ich nicht nachvollziehen ;-)
Wie gesagt, f3 stimmt physikalisch nicht (und wird es nie ;)). Näherungsweise kann man U2*f aber mit f3 gleichsetzen (+/- Abweichungen), um eine grobe Abschätzung der Leistungsaufnahme vornehmen. Zumindest bei allen Chips, die mir in den letzten 10 Jahren so untergekommen sind (5960X, 5950X, HD7950, GTX 780, GTX 980 Ti, RTX 2080 Ti, ...). Mal benötigen +10% Takt +15% Spannung, mal sind es +15% Takt bei +10% Spannung. Höher ist die Abweichung eigentlich nie gewesen. Bei 10-20% Takt, wo man sich mit OC und/oder UV bewegt, ist der relative Fehler der Rechnung nicht wahnsinnig daneben. +/-10% bei z.B. +15% Takt und obigen Abweichungen bei der Spannungsskalierung, im Mittelwert stimmen die ~1.5x Effizienzunterschied normalerweise relativ gut. Sobald man natürlich in Richtung 50% Taktunterschied geht, wird es deutlich ungenauer. Abhängig von der Spannungsskalierung des Chips. Vielleicht sind es dann 1.3x Spannung bei 1.5x Takt (was sehr, sehr gut wäre), dann ist die Effizienz bei 2.54x anstatt 3.38x. Ist der Unterschied gross? Ja, 1.33x. Die Stossrichtung ist aber nicht so verkehrt.
Was die Spannung angeht:
Dass diese proportional zum Takt verläuft ist nur eine sehr grobe Faustregel.
Exakt, grobe Faustregel trifft den Nagel auf den Kopf.
iamthebear
2022-08-04, 08:07:45
4070 sieht nun doch nach 12GB/192Bit aus:
https://twitter.com/kopite7kimi/status/1555053945151975425?s=20&t=4mc1s78wsJda5qcQIAoL_Q
Fragman
2022-08-04, 08:09:51
Mal schauen ob wir bis zum Release noch die 16GB schaffen mit 256bit. :D
The_Invisible
2022-08-04, 09:30:49
Die 4070 soll jetzt auch schon G6X bekommen? Da sind die 300W eh gändig dann :D
Thunder99
2022-08-04, 09:45:56
Eventuell gibt es ja die Möglichkeit den VRAM zu untervolten;D
Nvidia muss sich wohl an die Verträge halten, obwohl es mittlerweile bessere Lösungen gibt mit GDDR6
Cubitus
2022-08-04, 09:52:11
Wenn die Leistung einer 470er der einer 3090 entspricht, könnte man auch noch mit der 3090 gut auskommen, welche dank des Speichers die bessere Karte ist. Bzw. Nvidia soll die 4070 ruhig mit nur 12 GB ausstatten, dann könnte ich für meine "gebrauchte" 3090er auch mehr verlangen :D
dildo4u
2022-08-04, 09:56:40
Die Gerüchte sind das 3 Gen RT Cores deutlich schneller sind 3090 Speed wird sich vermutlich auf Raster Performance beziehen.
Troyan
2022-08-04, 10:18:00
Mit den Cores und vielleicht 3GHz hätte die 4070 die doppelte Rechenleistung zur 3070TI. :cool:
Cyberfries
2022-08-04, 10:50:13
Manche Menschen scheinen sehr vergesslich zu sein...
... auch kopite, der setzt er uns die gleichen Daten zweimal vor mit einem kleinen Unterschied.
1.August:
As I have mentioned before, there is an AD104 SKU with a 400W limit.
PG141-SKU331
a full-fat AD104 with 7680FP32
21Gbps 12G GDDR6X
It can easily match RTX 3090 Ti.
4.August:
There is an update of RTX 4070.
PG141-SKU331
7680FP32
12G 21Gbps GDDR6X
300W
TSE >11000
Linmoum
2022-08-04, 10:53:48
:D Wie schnell Nvidia ihre SKUs updatet. Herrlich. Schade, dass er nicht mehr so verlässlich und zielgerichtet ist wie noch damals bei Ampere.
Slipknot79
2022-08-04, 11:57:41
Vorallem erstaunlich wie flexibel NV ist während die Massenproduktion schon laufen soll. (y)
Thunderburne
2022-08-04, 12:17:14
https://wccftech.com/nvidia-geforce-rtx-4070-graphics-card-now-7680-cores-12-gb-gddr6x-memory-300w-tdp-matches-rtx-3090-ti-rumor/
Also so wie ich mir dachte doch 12 GB für die 4070 !
300W auf 3090Ti Level ginge dann auch in Ordnung!
y33H@
2022-08-04, 12:24:59
Vorallem erstaunlich wie flexibel NV ist während die Massenproduktion schon laufen soll.Das lässt sich ja per Microcode bzw Firmware regeln ... wichtig ist nur, dass die Yield-Rate für eine Vollausbau-SKU passt.
dargo
2022-08-04, 12:25:10
https://wccftech.com/nvidia-geforce-rtx-4070-graphics-card-now-7680-cores-12-gb-gddr6x-memory-300w-tdp-matches-rtx-3090-ti-rumor/
Also so wie ich mir dachte doch 12 GB für die 4070 !
300W auf 3090Ti Level ginge dann auch in Ordnung!
Was ist denn daran in Ordnung bitte? Nur weil ne 3090TI säuft wie ein Loch sieht plötzlich eine 4070 mit 300W gut aus? Verkehrte Welt. :freak:
btw.
Das ganze mal von einer anderen Seite betrachtet... bei CB liegt die 3090TI in 4k 14% vor der 6900XT.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen
Das würde im Umkehrschluss bedeuten, dass eine 4070 ca. 14% schneller als eine 6900XT bei gleichen Verbrauch ist, was für ein Fortschritt. :lol:
BlacKi
2022-08-04, 12:40:00
Das lässt sich ja per Microcode bzw Firmware regeln ... wichtig ist nur, dass die Yield-Rate für eine Vollausbau-SKU passt.ich ergänze:
das bios/tdp kann man bis kurz vor dem einpacken ändern. die karten bekommen aus bis dahin absichtlich kein bios, weil sonst leaks massenhaft aus dem boden schießen würden.
man lotet das maximum aus und dann kann man sich aussuchen wieviel takt, vieviel shader, wieviel tdp die letzte karte bekommt.
Linmoum
2022-08-04, 12:45:11
Man kann sich aber nicht noch aussuchen, dass die Karte spontan mehr SM bekommt. Was hier der Fall wäre, da kopite der 4070 plötzlich den Vollausbau zuschreibt.
Oder seine vorherigen 4070 tweets waren dann einfach völliger Unsinn.
BlacKi
2022-08-04, 12:48:05
warum nicht? es würde nur bedeuten, das nv vorhätte gute chips zu salvagen, zumindest in der ersten oder zweiten charge. das ist nichmal abwegig. die salvage chips die man jetzt nicht nutzen kann kommen dann in die 3 welle und danach, wenn man vorhat mit den sm runter zu gehen. falls man sich entscheidet die 4070 als fullchips zu bringen, bunkert man die salvage chips für die 4060.
Troyan
2022-08-04, 13:05:04
Der Typ hat Zugriff auf Infos von den internen Test. Welche Yields erreicht werden, weiß nVidia anhand von Simulationen doch schon längst. Was jetzt passiert, ist die Produkterstellung.
Platos
2022-08-04, 13:11:55
4070 mit 12GB ist nur leider immer noch zu wenig.
Die 300W sind eben die Kotzgrenze aufgrund des "kleinen" Chips. Sehr viel effizienter wie Ampere/RDNA2 wird man die Karte sicherlich betreiben können. Das ist ja klar.
BlacKi
2022-08-04, 13:54:42
man kann alles schlecht reden indem man hochtaktende neue modelle mit alten karten vergleicht die stark begrenzte tdp limits haben.
mal angenommen die werte stimmen überhaupt.
Troyan
2022-08-04, 13:57:17
Nun, die 3070TI taktet bei 290W niedriger als die 3070FE mit 220W. Also sollten die angepassten Werte stimmen und der Chip läuft mit 3000MHz und GDDR6X, wäre das deutlich effizienter als die 3070TI. So lange kann es ja nicht mehr dauernd.
Thunderburne
2022-08-04, 14:02:36
Was ist denn daran in Ordnung bitte? Nur weil ne 3090TI säuft wie ein Loch sieht plötzlich eine 4070 mit 300W gut aus? Verkehrte Welt. :freak:
btw.
Das ganze mal von einer anderen Seite betrachtet... bei CB liegt die 3090TI in 4k 14% vor der 6900XT.
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen
Das würde im Umkehrschluss bedeuten, dass eine 4070 ca. 14% schneller als eine 6900XT bei gleichen Verbrauch ist, was für ein Fortschritt. :lol:
Ähm es gab ja das Gerücht eine 4070 Ti mit 400W und 12GB bei 3090-3090Ti Leistung liegt und das wäre absolute Fail.
Da die 4070 12GB aber jetzt im Bereich einer 3090Ti sein soll bei 300W ist es für mich völlig in Ordnung .
Immerhin 150W weniger .
prinz_valium_2
2022-08-04, 14:03:37
Geht doch. Falls! die 4070 so kommen sollte, ist sie ein gutes und rundes Produkt.
Dann muss nur noch der Preis stimmen.
$499 ist okay, wenn auch immer noch teuer.
Die sollen den 10GB, 160bit salvage mit 18Gbps Ram einfach als eine 4060Ti rausbringen
Thunderburne
2022-08-04, 15:16:01
Geht doch. Falls! die 4070 so kommen sollte, ist sie ein gutes und rundes Produkt.
Dann muss nur noch der Preis stimmen.
Die sollen den 10GB, 160bit salvage mit 18Gbps Ram einfach als eine 4060Ti rausbringen
Hab ja mal vor Paar Wochen das hier gepostet.
64Bit =4GB 4050
96Bit =6GB 4050Ti
128Bit =8GB. 4060
160Bit =10GB 4060Ti
192Bit =12GB 4070
224Bit =14GB 4070Ti
256Bit =16GB 4080
320Bit =20GB 4080Ti
384Bit =24GB 4090/ Ti
384Bit =48GB Titan
Platos
2022-08-04, 15:21:42
Du meinst also, die 4070Ti ist eine abgespeckte 4080?
Thunderburne
2022-08-04, 15:27:59
Du meinst also, die 4070Ti ist eine abgespeckte 4080?
Jup !so wie 4070 auch eine abgesteckte ist !
4080 10240 Shader
4070 Ti 8960 Shader
4070 7680 Shader
4060Ti 6400 Shader alles mit einem Chip nur unterschiedlich frei geschaltet z.b
aufkrawall
2022-08-04, 15:42:41
4070 mit 12GB ist nur leider immer noch zu wenig.
Ich würde es eher als das Minimum des Akzeptablen bezeichnen. Könnte gut sein, dass kein UE5-Spiel das auf Jahre in 1440p knacken wird.
Platos
2022-08-04, 15:47:53
Jup !so wie 4070 auch eine abgesteckte ist !
4080 10240 Shader
4070 Ti 8960 Shader
4070 7680 Shader
4060Ti 6400 Shader alles mit einem Chip nur unterschiedlich frei geschaltet z.b
Laut dem neuesten Gerücht soll ja aber genau die 4070 nicht abgespeckt sein. Und du schreibst ja selbst 192Bit und 7680 Shader, was ein Vollausbau ist.
Ich würde es eher als das Minimum des Akzeptablen bezeichnen. Könnte gut sein, dass kein UE5-Spiel das auf Jahre in 1440p knacken wird.
Ja, bei 1440p würde ich 12GB als ne gute Basis bezeichnen, aber 3090Ti Perfomance ist definitv nicht ungeeignet für 4k und ich meinte das bezogen auf 4k. Da ist 12GB einfach eher gerade so ok, wenn man sie gleich in der darauf folgenden Generation wieder auswechselt (und selbst dann hat man ein paar wenige Abstriche).
Thunderburne
2022-08-04, 16:01:30
Das wird meiner Meinung nach nur falsch interpretiert.
Die RTX 4080 hat nen Kleineren Chip und der wird verhackstückelt soweit es rentabel ist!
224Bit 14GB für die 4070Ti mit 8960Shader zum Beispiel von 10240 .
https://videocardz.com/newz/nvidia-geforce-rtx-4070-specs-have-again-changed-now-rumored-with-more-cores-and-faster-memory
Thunder99
2022-08-04, 16:06:39
Ein 70er SKU hatte Mal 150W als TBP. Das waren noch gute Zeiten. Alles danach schmerzt immer mehr.
Wie man 300W bei einer 70er gut heißen kann, kann ich nicht verstehen. Entwicklung geht immer mehr in die falsche Richtung...
Wenn man keine Wahl mehr hat muss man wirklich in die bittere Pille schlucken und selbst optimieren auf die Grenze die man haben will sofern es geht
Platos
2022-08-04, 16:51:40
Ein 70er SKU hatte Mal 150W als TBP. Das waren noch gute Zeiten. Alles danach schmerzt immer mehr.
Wie man 300W bei einer 70er gut heißen kann, kann ich nicht verstehen. Entwicklung geht immer mehr in die falsche Richtung...
Wenn man keine Wahl mehr hat muss man wirklich in die bittere Pille schlucken und selbst optimieren auf die Grenze die man haben will sofern es geht
Ja, soweit ist es leider gekommen. Ich gurke hier mit einer 6 Jahre alten Grafikkarte rum und nochmals 2 Jahre warten, will/kann ich nicht. Da muss schon der Preis überhaupt nicht stimmen, so dass ich was anderes kaufe (gebraucht dann oder gar nichts).
Allerdings für mich 16GB minimum, ergo bei nvidia gibts anscheinend für mich nur ne 4080. AMD kommt für mich leider nicht (mehr) in Frage aufgrund von Software, die nvidia braucht.
Daher gibts eig. nur eine GPU, die in Frage kommt, was nicht gerade eine gute Situation für mich ist :D
Platos
2022-08-04, 16:54:44
Das wird meiner Meinung nach nur falsch interpretiert.
Die RTX 4080 hat nen Kleineren Chip und der wird verhackstückelt soweit es rentabel ist!
224Bit 14GB für die 4070Ti mit 8960Shader zum Beispiel von 10240 .
https://videocardz.com/newz/nvidia-geforce-rtx-4070-specs-have-again-changed-now-rumored-with-more-cores-and-faster-memory
Aha, naja ich habe nix dagegen, wenn die 4080 einen grösseren Chip hat, die ist sowieso die einzige Karte, die für mich in Frage kommt.
Wenn die 4070 ein Vollausbau vom AD 104 ist, kann natürlich die 4080 gar nicht anders, als einen grösseren Chip zu haben. 14GB bei ner 4070Ti (oder gar 16GB) wären ja auch ne gute Sache und würde ich als rundes Paket bezeichnen (wenn der Preis stimmt).
Edit: Ups, 2 Posts
prinz_valium_2
2022-08-04, 16:58:27
Ein 70er SKU hatte Mal 150W als TBP. Das waren noch gute Zeiten. Alles danach schmerzt immer mehr.
Wie man 300W bei einer 70er gut heißen kann, kann ich nicht verstehen. Entwicklung geht immer mehr in die falsche Richtung...
Wenn man keine Wahl mehr hat muss man wirklich in die bittere Pille schlucken und selbst optimieren auf die Grenze die man haben will sofern es geht
Das ist leider so. Was soll man tun? Auf eine X50er Karte umsteigen nur damit man wieder bei 150Watt ist?
Fühlt sich auch falsch an.
Die x70er sind ja heute schon noch mehr so High End wie damals als es nur die x80er drüber gab und dann noch Titan, die keiner guten Gewissens gekauft hat.
bbott
2022-08-04, 17:28:49
Nvidia: mission completed! 450W statt 350W Grafikkarte als Referenz zu etablieren!
Realer Vergleich:
3090 (24GB RAM) 350W vs. 4070 (10-12GB RAM) 300W
Alleine die zusätzlichen 12GB dürften schon einen beachtlichen Teil der 50W Differenz ausmachen!
Dann steht es 8nm (Samsung) vs. 4N (TSMC), was lt. einigen Forenteilnehmern ein gigantischer Unterscheid ist. Ich sehe bei diesen Zahlen quasi keinen.
Das sieht falls es so kommt nach einem BIG FAIL aus, da NV wohl an Chipfläche gespart hat und massiv Effizienz geopfert.
Auch das UV, ist nett aber keine Garantiert wie viel geht, der zusätzliche Arbeitsaufwand. Und man muss größer Kaufen als man bräuchte, das bei den erst schon hohen Preisen, was das ganze noch teurer macht.
Wie kann man sich das nur so schön reden?
Platos
2022-08-04, 17:30:23
Das ist leider so. Was soll man tun? Auf eine X50er Karte umsteigen nur damit man wieder bei 150Watt ist?
Fühlt sich auch falsch an.
Die x70er sind ja heute schon noch mehr so High End wie damals als es nur die x80er drüber gab und dann noch Titan, die keiner guten Gewissens gekauft hat.
Das hat nichts mit falsch anfühlen zu tun, es hat schlicht damit zu tun, dass der Leistungssprung dann minimal ausfällt. Nicht aber, weil der Fortschritt miserabel ist, sondern einfach deshalb, weil der Betriebspunkt im Auslieferungszustand der oberen Karten miserabel ist.
Thunderburne
2022-08-04, 17:34:33
Ein 70er SKU hatte Mal 150W als TBP. Das waren noch gute Zeiten. Alles danach schmerzt immer mehr.
Wie man 300W bei einer 70er gut heißen kann, kann ich nicht verstehen. Entwicklung geht immer mehr in die falsche Richtung...
Wenn man keine Wahl mehr hat muss man wirklich in die bittere Pille schlucken und selbst optimieren auf die Grenze die man haben will sofern es geht
Ja das scheint sich alles zu verschieben mit der 3090 hat man ja auch ne neue Klasse eröffnet nach der Titan nun kam noch eine 3090 Ti .
Jetzt gibt es eventuell eine Titan 4090 Ti 4090 4080 Ti 4080 eine 4070 Ti 4070 4060 Ti 4060 usw bei der 20er 1000 Serie sah das alles anders aus !
Gut heißen tu ich das nicht zuvor hat man für 3090Ti Leistung 400W in den Ring geschmissen nun sollen es doch 300 sein .
Wer weis vielleicht sind es am Ende ja auch 250-275 w
Dovregubben
2022-08-04, 18:49:11
Das ganze mal von einer anderen Seite betrachtet... bei CB liegt die 3090TI in 4k 14% vor der 6900XT.
Bei so einer Karte will man nicht auf Raytracing verzichten und möglichst auch nicht auf 4k (wobei das schon eher dank DLSS).
https://abload.de/img/cbj1ka7.png
Die 10GB Karten müssen halt nur verschwinden.
w0mbat
2022-08-04, 18:57:46
Es gibt immer noch eher wenig spiele mit RT, also kein guter Vergleich.
aufkrawall
2022-08-04, 19:06:33
Es gibt immer noch eher wenig spiele mit RT, also kein guter Vergleich.
Es sind aber die Spiele, wo man die Leistung am nötigsten braucht...
Dovregubben
2022-08-04, 19:13:47
Es sind aber die Spiele, wo man die Leistung am nötigsten braucht...
Bei AAA kommen sie inzwischen gefühlt in die Überzahl. Die alten Spiele sind auch nicht relevant für die nächsten 2 Jahre. Man muss ja nur die UE5 aufmachen und die Performance und Qualität anschauen. So interessant Software-Lumen ist, aber in Innenräumen ist es gegen Hardwareraytracing nicht konkurrenzfähig. Wir werden in den nächsten Jahren mit UE5 Spielen überschwemmt werden.
Thunderburne
2022-08-04, 19:22:26
Es gibt immer noch eher wenig spiele mit RT, also kein guter Vergleich.
Wird halt Zukünftig auch immer mehr kommen ja auch super viele Spiele mit der UE5 Engine.
Zumindest sollte man man Raster und Raytracing Leistung Mitteln und nicht nur mit der Rasterleistung versuchen den Leistungsstand zu beziffern.
Wie das gerade jemand versucht hat mit der 6900XT darzustellen!
Die Konsolen zeigen ja auch das es immer Thema wird!
Ich denke auch AMD wird da mehr nachlegen mit der 7000ner Serie .
Gruß
horn 12
2022-08-04, 19:25:53
Dann wäre die 4070 auf RTX 3090 Level
und die 4080 so um die 35 bis 40% schneller als eine RTX 3090 /max. einer 3090 TI
Nicht wirklich so prickelnd und erst eine RTX 4090 knapp 85% schneller als 3090
Wenn es denn so kommen sollte :-)
Thunderburne
2022-08-04, 19:31:39
Dann wäre die 4070 auf RTX 3090 Level
und die 4080 so um die 35 bis 40% schneller als eine RTX 3090 /max. einer 3090 TI
Nicht wirklich so prickelnd und erst eine RTX 4090 knapp 85% schneller als 3090
Wenn es denn so kommen sollte :-)
Laut der neuen News wäre die 4070 mit den 7680 shadern und dem hohen Takt knapp schneller wie die 3090 Ti .
bbott
2022-08-04, 20:05:21
Es sind aber die Spiele, wo man die Leistung am nötigsten braucht...
Bei Zukünftigen Spielen wird man bei der 3080/3090(ti) RT abschalten müssen, weil auch mit DLSS nicht mehr ausreichen FPS für 4K @ >=60Hz erreicht werden.
Linmoum
2022-08-04, 20:09:53
Das schafft eine 3090Ti schon in vielen aktuellen bzw. "älteren" RT-Titeln nicht, dafür braucht es nicht erst Spiele in der Zukunft.
In FHD oder WQHD natürlich egal, aber dafür würde ich mir auch nie eine >$1500 Grafikkarte kaufen...
Platos
2022-08-04, 20:58:29
War schon die letzten 2 Gens so, dass die 70-er das Ti/TopDog Modell erreicht hat. Wer mehr Rechenleistung erwartet hat, ist ein Träumer und steigt auf Twitter-Hypertrains auf.
dargo
2022-08-04, 21:43:26
Pfff... dieser Hypertrain kommt doch schon alleine aus diesem Forum hier. Ich sag nur zwei Fullnodes. 111elf
bbott
2022-08-04, 22:33:42
War schon die letzten 2 Gens so, dass die 70-er das Ti/TopDog Modell erreicht hat. Wer mehr Rechenleistung erwartet hat, ist ein Träumer und steigt auf Twitter-Hypertrains auf.
Der Hypertrain kam auch dadurch zustande, dass viele (vielleicht) dachten, dass durch die neue Konkurrenzsituation zwischen AMD und Nvidia, beide Hersteller benötigt sich genötigt sehen mehr zu liefern als sonst üblich.
Dovregubben
2022-08-04, 22:39:57
Pfff... dieser Hypertrain kommt doch schon alleine aus diesem Forum hier. Ich sag nur zwei Fullnodes. 111elf
Ist nur der Gegenhype zu "Nvidia wird doppelt so viel Strom bei halber Leistung brauchen und von AMD vernichtet werden" :freak:
BlacKi
2022-08-04, 23:00:13
welcher hypetrain? erst wird nv kein fortschritt unterstellt und jetzt sind die werte die genannt werden zu hoch gegriffen.
amd fraktion at its best.
DrFreaK666
2022-08-04, 23:09:56
Die 4070 mit 12GB wären eine gute Sache
Linmoum
2022-08-04, 23:10:41
Welcher Hypetrain. Lol.
Gefühlt war der in der Vergangenheit wie jetzt bei Ada noch nie so groß. Was sind da alles für Erwartungen durch Leaker geschürt worden. Allen voran der liebe kopite. Und mittlerweile kommt man immer weiter Weg von dem, was anfangs noch als in Stein gemeißelt angesehen wurde.
Dovregubben
2022-08-05, 01:17:11
Selbst wenn jemand live die eigenen Zahlen von Nvidia/AMD posten würde, wäre das nicht genauer. Da kommt kein Chip rein und man hat am nächsten Tag genau die vorhergesagte Leistung am laufen. Alleine schon die Treiberoptimierung bei solchen Architekturänderungen hat große unvorhersehbare Potentiale. Für die Hardware muss man sich für verschiedene Szenarien aufstellen und mit der Zeit werden es immer weniger mögliche Varianten. Die endgültigen Entscheidungen fallen dann direkt vor Produktionsstart und genaue Taktraten/Verbrauch sicherlich erst direkt vorm Release.
dargo
2022-08-05, 06:11:04
Lol... als ob paar hundert Mhz in die eine oder andere Richtung signifikant am Leistungsindex was ändern würden. :tongue: Zumal wir uns hier eh schon im hohen Ghz Bereich bei der neuen Gen befinden.
Ist nur der Gegenhype zu "Nvidia wird doppelt so viel Strom bei halber Leistung brauchen und von AMD vernichtet werden" :freak:
Kannst du mir bitte verlinken wer sowas behauptet hat? Bisher ist nur bekannt, dass AMD weniger als NV verbrauchen wird. Nicht mehr und nicht weniger.
Edit:
Wobei selbst das noch nicht eindeutig geklärt ist. Möglicherweise dreht AMD auch am Rad und bringt eine "Sonderedition" von N31 die völlig an der Kotzgrenze läuft wenn beide ursprünglich geplanten Topdogs performancemäßig nah bei einander liegen und AMD hier eine Chance sieht die Performancekrone zu übernehmen.
Nazar
2022-08-05, 09:12:34
Bei so einer Karte will man nicht auf Raytracing verzichten und möglichst auch nicht auf 4k (wobei das schon eher dank DLSS).
https://abload.de/img/cbj1ka7.png
Die 10GB Karten müssen halt nur verschwinden.
Was man will und was man kann, sind zwei vollkommen unterschiedliche Paar Schuhe. ;)
Die meisten müssen RT abschalten, um keine BQ Einbußen in Kauf nehmen zu müssen und um hohe FPS haben zu können.
Selbst wenn die RT-Leistung der nächsten Generation um den Faktor 3 verbessert wird, wird vermutlich nur die 4090 in der Lage sein ohne Kompromisse mit RT spielen zu können, falls der RT-Anteil in Spielen nicht erneut erhöht wird. Aber das kann man schon fast als gesetzt ansehen, denn die Entwickler wollen das Mehr an RT Power auch nutzen, und somit wird es ein Hase-Igel Spiel. Und wenn dem so ist, müssen selbst die 12 GB Karten endlich verschwinden.
4070 mit 12 GB VRAM für eine GPU auf/über 3090Ti Niveau? Was für ein böser Witz, besonders wenn dann RT ins Spiel kommt. Die zu kaufen, unter der Prämisse mit RT Spielen zu wollen, wäre so, als ob man sich selber mit einem Vorschlaghammer auf die Nüsse klopft. :freak:
BlacKi
2022-08-05, 09:35:47
Welcher Hypetrain. Lol.
Gefühlt war der in der Vergangenheit wie jetzt bei Ada noch nie so groß. Was sind da alles für Erwartungen durch Leaker geschürt worden. Allen voran der liebe kopite. Und mittlerweile kommt man immer weiter Weg von dem, was anfangs noch als in Stein gemeißelt angesehen wurde.
bloß nicht konkret werden, sonst würde man sich schmutzig machen:wink:
Thunderburne
2022-08-05, 10:47:34
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores
https://wccftech.com/nvidia-geforce-rtx-4080-graphics-card-9728-cores-16-gb-gddr6x-memory-420w-tbp-35-percent-faster-rtx-3090-ti-rumor/
basix
2022-08-05, 10:51:59
Bei AAA kommen sie inzwischen gefühlt in die Überzahl. Die alten Spiele sind auch nicht relevant für die nächsten 2 Jahre. Man muss ja nur die UE5 aufmachen und die Performance und Qualität anschauen. So interessant Software-Lumen ist, aber in Innenräumen ist es gegen Hardwareraytracing nicht konkurrenzfähig. Wir werden in den nächsten Jahren mit UE5 Spielen überschwemmt werden.
Wobei ich hier aber anmerken muss, dass RDNA2 mit der UE5 auch inkl. HW-RT recht ordentlich performt. Zumindest mit Global Illumination = High (Konsolen Setting):
https://gamegpu.com/test-video-cards/the-matrix-awakens-demo-test-gpu-cpu
Radeonfreak
2022-08-05, 10:54:53
Ich bin da doch ein bissel frustriert, 12GB ist mir zu wenig aber 420-450 Watt geht eigentlich gar nicht. ;(
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.