Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
aceCrasher
2022-08-05, 11:16:18
Ich bin da doch ein bissel frustriert, 12GB ist mir zu wenig aber 420-450 Watt geht eigentlich gar nicht. ;(
Dann wird es Zeit deinem Namen wieder gerecht zu werden ;D
Leonidas
2022-08-05, 11:20:38
Vorallem erstaunlich wie flexibel NV ist während die Massenproduktion schon laufen soll. (y)
Wer sagt das? Massenfertigung an Chips - womöglich. Den Chips ist es egal, auf welche Grafikkarte sie später kommen. Massenfertigung an Grafikkarten? Bislang nicht gehört. Wenn dann allerhöchstens für die 4090. Für 4080 & 4070 noch zu früh (kommen erst 2023).
Thunder99
2022-08-05, 11:59:58
4070 mit 12GB ist eine Runde Sache auf Level der 3090Ti.
Besser als die 3070 vorher...
Mit nur 10GB, das wäre übel aber Nvidia zuzutrauen
BlacKi
2022-08-05, 12:06:14
n31 wird auch grob +-400w verbraten, vl mehr. das wollte sie doch nicht. wenn man sich die 2080ti mit ihren 270w ansieht, dann wirds mit n32 auch einen höheren verbrauch geben, aber wohl mehr vram als 12gb.
Dovregubben
2022-08-05, 12:09:44
Wobei ich hier aber anmerken muss, dass RDNA2 mit der UE5 auch inkl. HW-RT recht ordentlich performt. Zumindest mit Global Illumination = High (Konsolen Setting):
https://gamegpu.com/test-video-cards/the-matrix-awakens-demo-test-gpu-cpu
Wird man sehen wie sich das entwickelt. Momentan ist für viele teils drastische Probleme die einzige Lösung, dass man Hardware Raytracing anschaltet und die Settings hochschraubt. Für vieles davon wird man in den nächsten Versionen hoffentliche effizientere Lösungen finden. Die Matrix Demo ist da in vielen Punkten nichtmal sonderlich anspruchsvoll und schifft um die Problemfälle drumrum.
Thunderburne
2022-08-05, 13:39:04
4070 mit 12GB ist eine Runde Sache auf Level der 3090Ti.
Besser als die 3070 vorher...
Mit nur 10GB, das wäre übel aber Nvidia zuzutrauen
Jo mit 12 GB lässt es sich noch gerade so arbeiten !
Für 4K ist man auf längere Sicht mit 16 GB besser aufgestellt wen man etwas nach vorne schaut.
10 wären einfach zu wenig für die Power.
Platos
2022-08-05, 13:47:11
Jo mit 12 GB lässt es sich noch gerade so arbeiten !
Für "gerade noch so" gibt man doch nicht mehrere Hundert Euro/Dollar oder was auch immer aus.
Thunderburne
2022-08-05, 13:49:42
Für "gerade noch so" gibt man doch nicht mehrere Hundert Euro/Dollar oder was auch immer aus.
Na klar ist das auf die Auflösung bezogen!
WQHD vielleicht auch noch 3440*1440 sollte kein Thema sein !
Auf lange Sicht für 4K würde ich nicht unter 16+ kaufen !
Die 4070Ti könnte man später gut für 4K nutzen mit 14 GB .
dargo
2022-08-05, 14:12:51
Ich bin da doch ein bissel frustriert, 12GB ist mir zu wenig aber 420-450 Watt geht eigentlich gar nicht. ;(
Willkommen in der neuen Realität bei Grafikkarten. ;D Nee... eigentlich nicht lustig.
Dovregubben
2022-08-05, 15:24:55
10 wären einfach zu wenig für die Power.
Das ist doch Quatsch. Die 70er Serie wird keine 4K Karte werden. Neue Spiele werden einfach die zusätzliche Rechenleistung wegschlucken und auch die 4080/4090 wird mit 4K zu kämpfen haben.
High FPS Masterrace Gamer bekommen Leistung eh immer weg.
Fragman
2022-08-05, 15:38:18
High FPS Masterrace Gamer bekommen Leistung eh immer weg.
Die heulen seit Jahren weil es nichts vernünftiges gibt.
Das wird sich mit mit der 4000er Serie nicht ändern.
Thunderburne
2022-08-05, 17:43:02
Das ist doch Quatsch. Die 70er Serie wird keine 4K Karte werden. Neue Spiele werden einfach die zusätzliche Rechenleistung wegschlucken und auch die 4080/4090 wird mit 4K zu kämpfen haben.
High FPS Masterrace Gamer bekommen Leistung eh immer weg.
Ah ja also ist die 3090Ti und 3090 und 3080Ti derzeit keine Karte für 4K?
Was für ein Quatsch !
Wen man einer 4070 die Leistung einer 3090 Ti gibt dann kann man die 4070 genauso für 4K verwenden würde aber mit 10 GB Fail sein mit 12 erstmal okay aber auf längere Sicht nicht optimal!
Gute Texturen müssen nicht viel Leistung kosten sogar gar keine aber Speicher schon !
mr coffee
2022-08-05, 18:52:52
derzeit <> zukünftig
iamthebear
2022-08-05, 19:38:55
Es müssen ja nicht zwangsweise immer alle Details auf Ultra stehen. 4K High sieht auch hübsch aus vor allem wenn man gezielt die Einstellungen runter schaltet die viel kosten aber wenig bringen.
BlacKi
2022-08-05, 19:44:38
Ah ja also ist die 3090Ti und 3090 und 3080Ti derzeit keine Karte für 4K?
Was für ein Quatsch !
Wen man einer 4070 die Leistung einer 3090 Ti gibt dann kann man die 4070 genauso für 4K verwenden würde aber mit 10 GB Fail sein mit 12 erstmal okay aber auf längere Sicht nicht optimal!
Gute Texturen müssen nicht viel Leistung kosten sogar gar keine aber Speicher schon !ich werd sie in 4k betreiben, aber wenn man sie so konfiguriert das die 90 fps+ anliegen sollen dann werden vermutlich auch 10gb reichen. für die maxed out fraktion ist das natürlich nichts, aber für die ist die karte auch mit 10gb nicht gedacht.
keine frage, ich hätte auch lieber 12gb als 10, aber vom kauf absehen würde ich deshalb nicht.
y33H@
2022-08-05, 20:04:04
Was hat eine vorgegebene Framerate mit der Menge an Videospeicher zu tun? genau nichts ...
BlacKi
2022-08-05, 20:08:51
warum nicht? ich reduziere details oder und setze dlss so ein das die leistung passt. das hat auswirkungen auf den vram verbrauch. selbst mit der 3090 die ich einige zeit hatte, habe ich details reduziert. wer maxed out spielt ist selber schuld. da fehlt mir schon grundlegend die diskussionsgrundlage.
Linmoum
2022-08-05, 20:11:30
Warum kauft man sich Grafikkarten mit dem Wissen, Details reduzieren zu müssen, damit man etwaigen Speicherproblemen aus dem Weg geht? Das ist doch komplett bescheuert und Hersteller fühlen sich durch so ein Kaufverhalten darin bestätigt, damit weiterzumachen.
ChaosTM
2022-08-05, 20:44:19
Das ist doch Quatsch. Die 70er Serie wird keine 4K Karte werden. Neue Spiele werden einfach die zusätzliche Rechenleistung wegschlucken und auch die 4080/4090 wird mit 4K zu kämpfen haben.
High FPS Masterrace Gamer bekommen Leistung eh immer weg.
Jop - Der "RTX" Schachzug NVs war ein absolutes Meisterstück was Marketing betrifft. Ein, zwei neue "Effekte" und selbst die schnellste Karte wird in die Knie gezwungen. Damit hat man "Munition" für viele Jahre, um uns Enthusiasten zu noch teureren Karten zu "überreden".
Nicht wieder falsch verstehen. RTRT ist prinzipiell was gutes. :)
prinz_valium_2
2022-08-05, 20:57:11
4070 vom salvage zum vollausbau und die 4080 vom vollausbau zum salvage?
I like that.
RoNsOn Xs
2022-08-05, 21:08:33
Warum kauft man sich Grafikkarten mit dem Wissen, Details reduzieren zu müssen, damit man etwaigen Speicherproblemen aus dem Weg geht? Das ist doch komplett bescheuert und Hersteller fühlen sich durch so ein Kaufverhalten darin bestätigt, damit weiterzumachen.
Genau, warum gibt es nicht nur eine einzige GPU? Damit wäre allen geholfen! :smile:
BlacKi
2022-08-05, 21:12:15
Warum kauft man sich Grafikkarten mit dem Wissen, Details reduzieren zu müssen, damit man etwaigen Speicherproblemen aus dem Weg geht? Das ist doch komplett bescheuert und Hersteller fühlen sich durch so ein Kaufverhalten darin bestätigt, damit weiterzumachen.
hab ich nicht gesagt und auch nicht sagen wollen. aber das wundert mich auch nicht bei dir.
Thunderburne
2022-08-05, 21:36:31
Genau, warum gibt es nicht nur eine einzige GPU? Damit wäre allen geholfen! :smile:
Konsole
arcanum
2022-08-05, 21:38:31
Ah ja also ist die 3090Ti und 3090 und 3080Ti derzeit keine Karte für 4K?
Was für ein Quatsch !
in CP2077 mit RT ist nichtmal die 3090TI annährend eine 4k karte, selbst dann wenn nicht alles am anschlag läuft. DLSS Quali = mit ach und krach 40+ fps wenn man auf sichtbare downgrades verzichtet. wie immer hängt es nicht an der verfügbaren hardware sondern daran, wieviel die entwickler ausreizen wollen und dürfen aber die richtung für die nächsten 1-2 jahre ist klar, vor allem sobald UE5 titel mit RT erscheinen (Matrix demo).
ChaosTM
2022-08-05, 21:39:40
Ist momentan ganz eindeutig die intelligenteste Option was Preis/Qualität betrifft.
Und das kommt von einem PC Enthusiasten, der früher Tombman-like crazy unterwegs war.
RoNsOn Xs
2022-08-05, 23:14:01
Konsole
Controller.
Gute Nacht.
ChaosTM
2022-08-05, 23:18:07
Controller.
Gute Nacht.
Das war einmal. Da gibt es genug Lösungen mittlerweile. Die Kastln sind nix anderes als abgespeckte PCs
Und man kann dazu lernen - hat keine Stunde gedauert bei Killzone 2 damals um mit dem Kontroller zu treffen..
Slipknot79
2022-08-06, 00:29:03
Wer sagt das? Massenfertigung an Chips - womöglich. Den Chips ist es egal, auf welche Grafikkarte sie später kommen. Massenfertigung an Grafikkarten? Bislang nicht gehört. Wenn dann allerhöchstens für die 4090. Für 4080 & 4070 noch zu früh (kommen erst 2023).
Es ist erstaunlich, wie oft kopite oder wie der heißt, die specs von den GPUs ändert, auch von der 4090, obwohl da schon was in Massenproduktion sein soll. (y)
Das mit der Massenproduktion habe ich irgendwo aufgeschnappt (angeblich im August, wenn man Sept/Okt launchen will), weiß nicht mehr wo. Can sein, dass es auch ein bekannter "Leaker" war.
lilgefo~
2022-08-06, 00:56:35
Es sind alles infos von irgendwelchen Twitter Accounts. Nvidia wird die Specs nicht 3 mal am Tag ändern... Sollte eigentlich jedem klar sein.
Slipknot79
2022-08-06, 01:27:02
Es sind die Infos nicht von "irgendwelchen" Twitter Accounts, sondern von den üblichen Verdächtigen Accounts.
Meine Aussage soll aufzeigen, dass nicht mal diese "Leaker" eine Ahnung haben, wo man sich noch am ehesten akurate Infos erwarten könnte. In Wirklichkeit passt gar nix zusammen und ist unstimmig.
Das ist nun keine Überraschung.
Die Überraschung ist, warum man darüber diskutiert. Und warum sind es immer die selben "Leaker", wenn die Infos selbst von denen offensichtlich völlig beliebig sind. oO
Troyan
2022-08-06, 07:23:13
Warum kauft man sich Grafikkarten mit dem Wissen, Details reduzieren zu müssen, damit man etwaigen Speicherproblemen aus dem Weg geht? Das ist doch komplett bescheuert und Hersteller fühlen sich durch so ein Kaufverhalten darin bestätigt, damit weiterzumachen.
Wow, endlich übst du mal Kritik an AMD. ;D
dargo
2022-08-06, 07:29:32
Wow, endlich übst du mal Kritik an AMD. ;D
Unser Trojaner wieder... man kann mit einer RTX 3050 auch so wunderbar alle Games auf Anschlag inkl. RT spielen. ;D
Edit:
Achja... die 8GB und 10GB Karten von Nvidia gehen in manchen Games in 4k inkl. Raytracing mal so richtig ab. ;D ;D ;D
https://abload.de/img/rt6cet7.jpg
btw.
Hier hast du mal den aktuellen Stand mal außerhalb der Topdogs und Preise in DE.
12ZmOPZex1k
DrFreaK666
2022-08-06, 09:01:50
...
Hier hast du mal den aktuellen Stand mal außerhalb der Topdogs und Preise in DE.
https://youtu.be/12ZmOPZex1k
309€ vs 385€.
Fairer Vergleich sieht anders aus.
Die 3060 gibt es ab 389€
dargo
2022-08-06, 09:03:15
Arbeite mal an deiner Lesekompetenz, im Video gehts nicht um Preise in DE.
Edit:
Ich helfe dir gern auf die Sprünge...
RTX 3050 = min. 300$ (schwer zu dem Preis zu bekommen, sonst ab 325$)
RX 6600XT = min. 310$ (ohne Rabatt 330$)
Linmoum
2022-08-06, 09:24:19
Wow, endlich übst du mal Kritik an AMD. ;DWenn AMD eine GPU bei 6900XT-Perf bringt mit nur 8 GiB, kriegen sie dafür zurecht auf den Deckel. Dasselbe bei NV, wenn sie irgendeinen Salvage-AD104 bringen, der 3090-Perf aber nicht mal halb so viel Speicher hat.
Kritik hat unabhängig vom Hersteller zu sein. Ich kann es, du nicht. Wissen wir alle hier. ;)
DrFreaK666
2022-08-06, 09:55:37
Arbeite mal an deiner Lesekompetenz, im Video gehts nicht um Preise in DE.
Edit:
Ich helfe dir gern auf die Sprünge...
RTX 3050 = min. 300$ (schwer zu dem Preis zu bekommen, sonst ab 325$)
RX 6600XT = min. 310$ (ohne Rabatt 330$)
Mir sind US-Preise in Deutschland egal. Dort mag der Vergleich in Ordnung sein, hier nicht.
BlacKi
2022-08-06, 10:10:25
btw: fast full ad102 2,4x bei 600w und 24000+ punkte in TSE siehe hauptseite.
was zufällig meinen 25%+ ggü. 4090 entspricht, die ich erwartet habe vom full chip.
Es sind alles infos von irgendwelchen Twitter Accounts. Nvidia wird die Specs nicht 3 mal am Tag ändern... Sollte eigentlich jedem klar sein.
das ist der sinn von testboards.
iamthebear
2022-08-06, 10:10:57
Warum kauft man sich Grafikkarten mit dem Wissen, Details reduzieren zu müssen, damit man etwaigen Speicherproblemen aus dem Weg geht? Das ist doch komplett bescheuert und Hersteller fühlen sich durch so ein Kaufverhalten darin bestätigt, damit weiterzumachen.
a) Weil die Shaderpower bei maximalen Details sowieso nicht für die Frameraten ausreicht die ich haben will.
b) Die Hersteller dann um dasselbe Geld bereits den nächsthöheren Die verbauen können.
Arbeite mal an deiner Lesekompetenz, im Video gehts nicht um Preise in DE.
Edit:
Ich helfe dir gern auf die Sprünge...
RTX 3050 = min. 300$ (schwer zu dem Preis zu bekommen, sonst ab 325$)
RX 6600XT = min. 310$ (ohne Rabatt 330$)
In dem Video geht es nicht um Preise "außerhalb von Deutschland" sondern nur um die Preise in den USA. Warum es diese Differenzen gibt kann ich nicht sicher sagen aber ich vermute einmal, dass der Großteil der Nvidia Hersteller noch von Trumps China Zoll betroffen ist, die AMD Hersteller aber nicht.
Das bedeutet nicht, dass sich das Ganze auf den Rest der Welt übertragen lässt.
Achja... die 8GB und 10GB Karten von Nvidia gehen in manchen Games in 4k inkl. Raytracing mal so richtig ab. ;D ;D ;D
https://abload.de/img/rt6cet7.jpg
Glückwunsch. Du hast genau das eine Spiel gefunden, wo VRAM tatsächlich einen Unterschied macht und das auch nur, da dies ein AMD Sponsored Titel ist und die Entwickler anscheinend etwas Geld dafür bekommen haben, damit die max Einstellung auf Nvidia Karten schei*e läuft.
Das Problem ist: VRAM ist derzeit genauso teuer wie die Dies selbst.
Eine 3060 kostet in der Produktion mehr als eine 3070.
Aber kein Kunde ist bereit den VRAM auch zu bezahlen, wenn er in 90% der Benchmarks keinen Unterschied sieht.
Ex3cut3r
2022-08-06, 13:35:11
a)
Glückwunsch. Du hast genau das eine Spiel gefunden, wo VRAM tatsächlich einen Unterschied macht und das auch nur, da dies ein AMD Sponsored Titel ist und die Entwickler anscheinend etwas Geld dafür bekommen haben, damit die max Einstellung auf Nvidia Karten schei*e läuft.
Das Problem ist: VRAM ist derzeit genauso teuer wie die Dies selbst.
Eine 3060 kostet in der Produktion mehr als eine 3070.
Aber kein Kunde ist bereit den VRAM auch zu bezahlen, wenn er in 90% der Benchmarks keinen Unterschied sieht.
:confused: Das liegt doch nicht am VRAM in FC6, die 3090 Ti hat übrigens 8GB mehr VRAM als die komplette RDNA 2 Riege. Ist eher wie du sagt ein Spiel was auf AMD Karten ein klein wenig besser läuft. Allerdings ist das RT optisch auch so das mieseste was es bisher in einem Spiel mit RT auch gab.
Die Realität ist das RDNA 2 Karten in Spielen mit "richtigen" RT kein Land gegen GA102 sehen, die sind schon ohne DLSS oft 50-70% langsamer. Mit DLSS dann nochmal ein gutes Stück.
Eigentlich sind RDNA 2 Nutzer mit 1200€ Karten und satten 16GB ständig am Details reduzieren, da Sie für RT einfach nicht taugen!
Das nächste große RT Game wird wohl Spider-Man remastered. Wahrscheinlich taugen RDNA 2 Karten wieder nicht für RT in diesem Spiel, vermutlich muss man erstmal auf die Primitiven Shader warten...achneee....sry, falsche Architektur. ^^
DrFreaK666
2022-08-06, 13:47:10
Spiderman ist kein RT-Game. Das ist ein PS4-Spiel mit ein paar RT-Effekten (Reflexionen und Schatten, das wars).
ChaosTM
2022-08-06, 13:57:05
Es gibt keine "RT-Games". Nur solche mit ein paar Effekten, die mit RTRT erzeugt wurden.
BlacKi
2022-08-06, 13:59:26
Spiderman ist kein RT-Game. Das ist ein PS4-Spiel mit ein paar RT-Effekten (Reflexionen und Schatten, das wars).
das ändert nichts an der sache, worauf er hinaus wollte.
3070 vs 6900xt XD
https://cdn.mos.cms.futurecdn.net/PtxTBusLtWCS5yUzUKfsL9-1200-80.jpg
DrFreaK666
2022-08-06, 14:08:21
Schon klar worauf er hinaus wollte.
Das macht es aber nicht zu einem großem RT-Game. Das ist eine verbesserte PS5-Version, wie fast alle PC-Versionen im Vergleich zu den Konsolen verbessert sind
ChaosTM
2022-08-06, 14:11:14
Der grafische Unterschied ist aber im Vergleich zum enormen Aufwand minimal..
Platos
2022-08-06, 14:11:27
Die Empfehlung der Grafikkarten sagt ja trotzdem alles aus, oder ?
DrFreaK666
2022-08-06, 14:15:00
jup, irgendwie fehlt die 4000er-Reihe in der Tabelle (Wink mit dem Zaunpfahl)
Platos
2022-08-06, 14:26:04
Der grafische Unterschied ist aber im Vergleich zum enormen Aufwand minimal..
Gerade bei Spiderman ist das definitiv NICHT der Fall.
ChaosTM
2022-08-06, 14:34:17
Beispiele ?
YT genügt..
BlacKi
2022-08-06, 14:34:32
Schon klar worauf er hinaus wollte.
Das macht es aber nicht zu einem großem RT-Game.
das ändert halt nichts. RT ist RT und der leistungsdrop von ampere zu rdna2 ist vorhanden. welcher vermutlich auch bei ada und rdna3 vorhanden bleibt. naja, dafür bleiben die karten billiger:biggrin:
ChaosTM
2022-08-06, 14:47:10
das ändert halt nichts. RT ist RT und der leistungsdrop von ampere zu rdna2 ist vorhanden. welcher vermutlich auch bei ada und rdna3 vorhanden bleibt. naja, dafür bleiben die karten billiger:biggrin:
Das ist unbestritten, aber das "it always works" Killer Feature der Lederjacke ist es leider nicht.
(ich ärgere mich schon fast den mobilen 16GB 3080er gekauft zu haben, wenn da nicht DLSS wäre)
davidzo
2022-08-06, 14:49:36
Irgendwie finde ich die Performanceprognosen zu AD104 überhaupt nicht realistisch. Wie kann das sein dass man in TSE eine 3090 schlägt?
60SM bei 2,8Ghz+ mögen ja reichen um Rechenleistungsmäßig in Richtung der 3090 zu kommen, aber wie geht das ganze bei der Speicherbandbreite auf?
Bei 160bit sind das lediglich mickrige 360GB/s, gerademal ein drittel der Speicherbandbreite einer 3090. Bei 192bit wären es auch nur 432gb/s, da gewinnt man immer noch keinen Blumentopf mit.
Die 48mb L2 Cache sind kaum mehr als der kleine Navi 23 zur Verfügung hat. Die Hitrate ist damit nur ausreichend für 1080p.
Selbst für WQHD liegt man noch unter 50%.
N22 ist als designierte WQHD Karte bereits mit 96MB ausgestattet um 69% Hitrate zu erreichen und hat sehr vergleichbare 360gb/s
Entweder nvidia hat den heiligen Grahl der Bandbreiteneffizienz entdeckt, oder TSE ist ein besonderer edge-Case der praktisch gar nicht mit der Bandbreite skaliert. :confused:
arcanum
2022-08-06, 15:10:24
Die 3090 macht mit moderatem takt (<2000mhz) und alder lake auch 11k in TSE. Mit älteren CPU Generationen sind 10k eher realistisch. Vermute auch, dass die 3090 in höheren Auflösungen meist knapp vor der 4070 liegen wird.
Platos
2022-08-06, 15:13:46
Beispiele ?
YT genügt..
https://www.youtube.com/watch?v=36IhTB6AZcA
Mal so als Beispiel. RT hat in einer "Glas-"Stadt (Hochhäuser) eigentlich immer einen unheimlichen Mehrwert, gerade bei Nacht, wenns viele Lichter hat.
Ex3cut3r
2022-08-06, 15:15:25
Da es auf der PS5 welches ja äquivalent zu einer 6700 XT oder Non XT ist, hoffe ich dass es auch auf dem PC mit RT Reflections @ Medium oder Low ähnlich auf RDNA 2 Karten laufen müsste, allerdings ist die RT Auflösung der Spiegelungen auf der PS5 schon ziemlich Low Resoultion. Weiß nicht ob dass der Maßstab für eine 6950XT ist, welche auch Sau Teuer ist, aber gut.
Ohne die RT Spiegelungen wurde ich das gar nicht spielen wollen. Die Cubemaps sind grade bei den Hochhäusern einfach sau dämlich, machen einfach keinen Sinn bzw. hässlich.
Platos
2022-08-06, 15:17:30
Das auf der PS5 welches ja äquivalent zu einer 6700 XT oder Non XT ist, hoffe ich dass es auch auf dem PC mit RT Reflections @ Medium oder Low ähnlich auf RDNA 2 Karten laufen müsste, allerdings ist die RT Auflösung der Spiegelungen auf der PS5 schon ziemlich Low Resoultion. Weiß nicht ob dass der Maßstab für eine 6950XT ist, welche auch Sau Teuer ist, aber gut.
Klar, aber auf dem PC anscheinend nicht, wenn die Empfehlungen für's Maximum bei einer 3080 liegt. Muss dann wohl doch etwas mehr möglich sein, wie auf der PS5. Wer hätte das gedacht ;)
Und ich denke, hier gehts nicht wirklich um Medium oder Low oder High. Es ging ja darum, dass die AMD-Grafikkarten hinterherhinken.
iamthebear
2022-08-06, 15:31:57
:confused: Das liegt doch nicht am VRAM in FC6, die 3090 Ti hat übrigens 8GB mehr VRAM als die komplette RDNA 2 Riege. Ist eher wie du sagt ein Spiel was auf AMD Karten ein klein wenig besser läuft. Allerdings ist das RT optisch auch so das mieseste was es bisher in einem Spiel mit RT auch gab.
Es liegt an 2 Dingen:
a) FC6 nutzt nur sehr schwache RT Effekte die selbst auf den AMD Karten nicht viel Performance kosten.
b) CB hat hier nicht mit dem normalen Spiel getestet, sondern sich noch ein optionales HD Texture Pack installiert, das in 4K nur 12GB VRAM richtig läuft. Ohne das Paket reichen selbst 8GB für 4K@Ultra+RT vollkommen aus und hier schlägt selbst die 3060 Ti eine 6700 XT sowohl bei avg als auch 0.2% Low siehe https://www.computerbase.de/2021-10/far-cry-6-benchmark-test/3/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd_mit_raytracing_update
ChaosTM
2022-08-06, 15:34:10
https://www.youtube.com/watch?v=36IhTB6AZcA
Mal so als Beispiel. RT hat in einer "Glas-"Stadt (Hochhäuser) eigentlich immer einen unheimlichen Mehrwert, gerade bei Nacht, wenns viele Lichter hat.
da steht nur 4k/PS5 - was wann läuft weiß niemand.. daher - der Unterschied ist minimal zwischen Konsole und PC so wie es scheint
DrFreaK666
2022-08-06, 16:08:22
...Und ich denke, hier gehts nicht wirklich um Medium oder Low oder High. Es ging ja darum, dass die AMD-Grafikkarten hinterherhinken.
Um genau zu sein geht es hier um "Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", H2/2022)"!
Tobt euch hier weiter aus
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13060775#post13060775
ChaosTM
2022-08-06, 16:13:20
Die Linda Lovelace GPU steht natürlich immer noch im Vordergrund, aber Vergleiche sollten doch erlaubt sein.
DrFreaK666
2022-08-06, 16:16:58
wo sind die Lovelace-Vergleiche? RT-"Gerede" (mal nett ausgedrückt) gehört in den RT-Thread. Das ist hier höchst Offtopic
Für RT haben wir doch den Thread
ChaosTM
2022-08-06, 16:20:58
Lovelace könnte punkto RTRT überlegen sein. Wir wissen es noch nicht.
DrFreaK666
2022-08-06, 16:24:48
Jetzt versuch das nicht schönzureden. Die üblichen Verdächtigen haben hier z. B. die 6700XT erwähnt, die hier wirklich nichts zu suchen hat.
Ja, auch ich war beteiligt.
Aber back 2 topic wäre nicht verkehrt
dargo
2022-08-06, 16:44:31
Glückwunsch. Du hast genau das eine Spiel gefunden, wo VRAM tatsächlich einen Unterschied macht und das auch nur, da dies ein AMD Sponsored Titel ist und die Entwickler anscheinend etwas Geld dafür bekommen haben, damit die max Einstellung auf Nvidia Karten schei*e läuft.
Achso... du meinst also wenn die Entwickler Geld von Nvidia bekommen damit Game XYZ auf Radeon schei*e läuft ist die Welt in Ordnung? ;D Schon eine steile These wo Nvidia im Portfolio 12GB und 24GB Grafikkarten hat.
davidzo
2022-08-06, 16:54:54
Die 3090 macht mit moderatem takt (<2000mhz) und alder lake auch 11k in TSE. Mit älteren CPU Generationen sind 10k eher realistisch. Vermute auch, dass die 3090 in höheren Auflösungen meist knapp vor der 4070 liegen wird.
Höhere Auflösungen als 1080p also :freak:?
Dass die Rechenleistung zustande kommt mag ich ja noch glauben, mit 7680FP32 Alus + dedizierten int32 Alus und über 2,8Ghz Takt.
Aber wie soll man mit 1/3 der Speicherbandbreite und mickrigen 48MB Cache die 3090 erreichen? Und das noch mit nur 10GB an 160bit, die schon heute bei WQHD+RT zum Flaschenhals werden können. Wie gesagt, für WQHD hat Navi22 immerhin 96mb. Diese Hitrates erreichen die Lovelaces nicht, selbst die 4090 nicht.
Platos
2022-08-06, 16:55:38
da steht nur 4k/PS5 - was wann läuft weiß niemand.. daher - der Unterschied ist minimal zwischen Konsole und PC so wie es scheint
Wenn du das nicht siehst, bist du eben blind, sorry.
Und ne, da steht nicht nur 4k. Da steht "Ray tracing in action" und Fidelity Mode. Also eigentlich alles, was man bei einer Konsole angeben kann. Doppelt blind?
Aber lass mich raten, du hast das Video nicht angeschaut ?
BlacKi
2022-08-06, 17:22:04
Höhere Auflösungen als 1080p also :freak:?
Dass die Rechenleistung zustande kommt mag ich ja noch glauben, mit 7680FP32 Alus + dedizierten int32 Alus und über 2,8Ghz Takt.
Aber wie soll man mit 1/3 der Speicherbandbreite und mickrigen 48MB Cache die 3090 erreichen? Und das noch mit nur 10GB an 160bit, die schon heute bei WQHD+RT zum Flaschenhals werden können. Wie gesagt, für WQHD hat Navi22 immerhin 96mb. Diese Hitrates erreichen die Lovelaces nicht, selbst die 4090 nicht.
also eine 3090 mit 320bit verliert kaum leistung (3,5%) selbst eine 3090 mit 192bit verliert nicht die hälfte sondern hat immernoch über 77% ihrer leistung. auch in einem RT spiel in wqhd.
https://youtu.be/SbQQMc5WLrM?t=338
wenn daher 48mb reichen um grob die hälfte der bandbreite einzusparen, dann dürfte das grob aufgehen.
da die hitrate mit der größe über 48mb, gerade in wqhd, anfängt abzunehmen, wird 48mb wohl ein sweetspot sein den nv für ihre karte sieht. cache skaliert nicht besonders gut mit kleineren strukturgrößen.
https://diit.cz/sites/default/files/rdna_2_deep_dive_infinity_cache_01.png
dargo
2022-08-06, 17:42:38
das ändert nichts an der sache, worauf er hinaus wollte.
3070 vs 6900xt XD
https://cdn.mos.cms.futurecdn.net/PtxTBusLtWCS5yUzUKfsL9-1200-80.jpg
Wurden die PC Specs ausgewürfelt? ;D
Eine RTX 3080 ist bis zu 37% schneller als eine RTX 3070 während eine RX 6950XT nur 6% schneller ist als eine RX 6900XT. :lol: Und, dass eine RTX 3070 ohne RT mit einer RX 6800XT gleichgestellt wird sagt schon alles. :tongue:
btw.
Und der absolute Brüller sind die Angaben bei 4k @30fps mit RT high wo eine RX 6900XT benötigt wird und gleichzeitig bei 4k @60fps mit RT very high eine RX 6950XT reicht. ;D ;D ;D
BlacKi
2022-08-06, 17:51:04
und gleichzeitig bei 4k @60fps mit RT very high eine RX 6950XT reicht. ;D ;D ;D
was schnelleres gibts halt von amd nicht^^
man sieht doch anhand von non rt angaben, das der teil auch ohne RT auf nv karten schneller ist. RT verschlimmert das dann.
dargo
2022-08-06, 18:17:04
Was ein bullshit, man sieht rein gar nichts ohne Benches, völlige Kotangaben seitens der DEVs. Die CPU-Angaben sind genauso hirnverbrannt. Wäre mal interessant zu erfahren welcher Praktikant diese Tabelle erstellen musste. ;D
DrFreaK666
2022-08-06, 18:48:34
War der mögliche Downgrade der 4080 hier schon Thema?
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores
Thunderburne
2022-08-06, 18:58:20
War der mögliche Downgrade der 4080 hier schon Thema?
https://videocardz.com/newz/nvidia-geforce-rtx-4080-rumored-specs-downgraded-to-9728-cuda-cores
Jup
Gipsel
2022-08-06, 19:00:23
Hier jetzt der ganz offizielle Aufruf, die sinnlosen Grabenkämpfe sowie irgendwelche Offtopic-Diskussionen zu unterlassen bzw. in den passenden Threads zu führen und sich bitte wieder etwas näher am Thema des Threads zu orientieren.
Danke.
rentex
2022-08-07, 08:18:09
Wenn die AIBs erst jetzt ihre Arbeit angefangen haben, werden wir wohl erst im Oktober was sehen.
Thunderburne
2022-08-07, 08:47:46
Wenn die AIBs erst jetzt ihre Arbeit angefangen haben, werden wir wohl erst im Oktober was sehen.
Wen die Situation in Taiwan nicht eskaliert…ja !
horn 12
2022-08-07, 08:51:22
Ja, dies steht alles in den Sternen
Selbst der QD Oled 3423DW kommt nicht mehr an
RTX 4070 um 3090 Performance und die 4080 dann wie gesagt 35 bis maximal 40% Obendrauf.
So prickelnd hört sich dies nicht an und NV will wohl Alle Karten bis Jahresanfang 2023 an den Mann gebracht haben.
und nun die Situation in Taiwan, wenn dies nicht alles nach hinten losdrescht :-(
Troyan
2022-08-07, 10:59:14
eVGA verscherbelt schonmal die 3090TI in Amerika: https://www.evga.com/products/ProductList.aspx?type=0&family=GeForce+30+Series+Family&chipset=RTX+3090+Ti
Ist billiger als die 3090. :eek:
Sollte also bald mit Lovelace losgehen.
iamthebear
2022-08-07, 11:49:28
Tja die haben wohl etwas zu viele davon produziert. Lange Zeit sind die 3090er ja weggegangen wie die warmen Semmeln, da man sich die Hälfte des Kaufpreises ohne LHR relativ schnell mit Mining zurückholen konnte.
Was die 3090 Ti angeht: Diese hat ganze 2 SMs mehr als die 3090. Der Rest wird nur über die TDP erreicht. Das wäre mir keinen Aufpreis wert ähnlich wie bei der 3070 Ti.
Was Lovelace wird es viel davon abhängen wie stabil der Takt ist wenn man sie mit weniger TDP betreibt, denn 400W 24/7 will ich sicher nicht im Zimmer haben im Sommer.
OgrEGT
2022-08-08, 08:24:16
(...)
RTX 4070 um 3090 Performance und die 4080 dann wie gesagt 35 bis maximal 40% Obendrauf.
So prickelnd hört sich dies nicht an und NV will wohl Alle Karten bis Jahresanfang 2023 an den Mann gebracht haben.
(...)
Die Frage ist wohl eher was erwartet wird...
Fragman
2022-08-08, 08:36:18
Die Frage ist wohl eher was erwartet wird...
Das eine 4070 FE zumindest deutlich schneller ist als eine Custom 3080.
Das muss man laut aktuellen Gerüchten ja schon in Frage stellen. :D
Deshalb kann man die Gerüchte zur Performance eigentlich vergessen.
OgrEGT
2022-08-08, 08:44:12
Das eine 4070 FE zumindest deutlich schneller ist als eine Custom 3080.
Das muss man laut aktuellen Gerüchten ja schon in Frage stellen. :D
Deshalb kann man die Gerüchte zur Performance eigentlich vergessen.
Den derzeitigen Gerüchten zufolge kommt AD104 in die Nähe der 3090 und AD102 bei ggf. bis zu +100% zur 3090... je nach Betriebspunkt mit mehr oder weniger Leistung...
Adam D.
2022-08-08, 08:52:59
Den derzeitigen Gerüchten zufolge kommt AD104 in die Nähe der 3090 und AD102 bei ggf. bis zu +100% zur 3090... je nach Betriebspunkt mit mehr oder weniger Leistung...
Bis zu 100% erscheint mir weiterhin eher unwahrscheinlich. In 4k liegt die 3090Ti 70% vor der 3070, die eh schon verdammt große Lücke soll jetzt nochmal vergrößert werden?
basix
2022-08-08, 09:01:43
Bis zu 100% erscheint mir weiterhin eher unwahrscheinlich. In 4k liegt die 3090Ti 70% vor der 3070, die eh schon verdammt große Lücke soll jetzt nochmal vergrößert werden?
60 vs. 144 SMs des Chips sprechen halt für ~2x Differenz. Neu gibt es dazwischen ja noch GA103 ;)
Fragman
2022-08-08, 09:47:55
Bis zu 100% erscheint mir weiterhin eher unwahrscheinlich.
Wenn wir eine 3090 FE bei deren Release annehmen könnte das stimmen.
TSE war damals noch knapp unter 10k.
Die Frage ist ja auf was sich diese genannten Vergleichswerte beziehen.
Hoffentlich auf den Releasezustand und darauf, das die Customs deutlich zulegen werden.
dargo
2022-08-08, 10:31:46
Bis zu 100% erscheint mir weiterhin eher unwahrscheinlich. In 4k liegt die 3090Ti 70% vor der 3070, die eh schon verdammt große Lücke soll jetzt nochmal vergrößert werden?
Ampere ist da ein schlechter Anhaltspunkt. Bei Ampere hat NV den GA102 noch für die RTX 3080 verwendet. Bei Ada ist das nicht mehr der Fall, die RTX 4080 bekommt eine eigene SKU @AD103. Die RTX 4070 ist dann wieder eine eigene SKU @AD104. Soll heißen... der Abstand bei der Performance zwischen RTX 4090 und RTX 4070 wird diesmal größer ausfallen als bei Ampere.
dildo4u
2022-08-08, 11:07:54
Dafür wird die 4070 nicht mher mit 8GB Limitiert denke nicht das man dort so genaue Aussagen treffen kann, gerade mit Raytracing werden die zusätzlichen 4GB Gold Wert sein.
Die 3070 verliert oft sogar zur 6800 in 4k mit RT was in 1440p weniger der Fall ist.
Thunderburne
2022-08-08, 12:16:38
https://videocardz.com/newz/micron-24-gbps-gddr6x-memory-for-geforce-rtx-40-series-is-now-in-production
Könnte auch für die ganzen Ti-Varianten interessant werden.
OgrEGT
2022-08-08, 17:49:48
60 vs. 144 SMs des Chips sprechen halt für ~2x Differenz. Neu gibt es dazwischen ja noch GA103 ;)
Genau :)
Wenn man nicht von 100% Skalierung ausgehend von 60SMs ausgeht ggf. alleine durch TDP Begrenzung dann würde ich bei noch halbwegs vernünftiger TDP (?) auf bis zu +100% für die 128SM SKU tippen, die 144SM SKU +x% OnTop abhängend vom TDP Limit ...
Thunderburne
2022-08-09, 07:58:45
https://videocardz.com/newz/nvidia-announces-weaker-q2-gaming-gpu-sales-now-working-with-channel-partners-to-adjust-prices
Man scheint weiter anpassen zu müssen für um den Weg für die neuen 4000ner frei zu machen
vinacis_vivids
2022-08-09, 09:33:27
https://videocardz.com/newz/nvidia-announces-weaker-q2-gaming-gpu-sales-now-working-with-channel-partners-to-adjust-prices
Man scheint weiter anpassen zu müssen für um den Weg für die neuen 4000ner frei zu machen
Die Begeisterung der Gamer für NV ist ja nicht gerade groß. Ampere hat da einfach zu viele Schwächen: Alte Fertigung, überteuert, schwache Taktraten, BQ hat abgenommen, schwierige Kühlung, wenig innovativ, zu viel Verbrauch, Hitzeprobleme, schlechte Auslastung, miese VRAM-Bestückung.
Die Entscheidung auf Samsung zu setzen und viele Profite zu machen, klappte nur wegen ETH-Mining und dem breiten SI. Ansonsten wäre Ampere ein absolutes Desaster.
Ich sage Ampere ist eines der schlechtesten Ausführungen von NV was Gaming angeht. Hoffe Huang zeigt da auch etwas mehr Einsicht und verbessert massiv mit Ada, ansonsten sehe ich einen langsamen Untergang bei NV und jahrelanger Rückstand im Gaming-Bereich.
Linmoum
2022-08-09, 09:35:25
Meine Fresse, das hat rein gar nichts mit irgendeiner fehlenden Begeisterung oder dergleichen zu tun. Muss man wirklich permanent jedes Mal irgendwelche unwahren Behauptungen von sich geben, um sein eigenes - und falsches - Narrativ aufrechtzuerhalten? Das ist nur noch absurd.
DrFreaK666
2022-08-09, 10:18:27
... BQ hat abgenommen...
Redest du hier von DLSS, oder was genau meinst du?
iamthebear
2022-08-09, 12:47:02
Bis zu 100% erscheint mir weiterhin eher unwahrscheinlich. In 4k liegt die 3090Ti 70% vor der 3070, die eh schon verdammt große Lücke soll jetzt nochmal vergrößert werden?
Nvidia hat die Namen (und vermutlich auch die Preise) der Karten um eine Stufe angehoben.
Bei Ampere:
GA102: 84SM
3080: 68SM also 1.23x weniger
3070: 46SM bzw. 1.83x weniger
3060 Ti: 38SM bzw. 2.2x weniger
3060: 28SM bzw. 3x weniger
AD102: 144SM
4090: 128SM also 1.12x weniger, dafür aber heftig bei TDP und L2 beschnitten, entspricht also in etwa dem was die 3080 war
4080: 80SM also 1.8x weniger, entspricht in etwa der 3070
4070: 56SM also 2.57x weniger, entspricht einer Mischung aus 3060 und 3060 Ti
Die Begeisterung der Gamer für NV ist ja nicht gerade groß. Ampere hat da einfach zu viele Schwächen: Alte Fertigung, überteuert, schwache Taktraten, BQ hat abgenommen, schwierige Kühlung, wenig innovativ, zu viel Verbrauch, Hitzeprobleme, schlechte Auslastung, miese VRAM-Bestückung.
Alte Fertigung: stimmt
Überteuert: Finde den UVP der 3080 voll OK, das Problem sind die Straßenpreise und die Modelle, die Nvidia nachträglich nachgeschossen hat wie die 3080 Ti.
Schwache Taktraten: Ist mir eigentlich egal. Auf die Endperformance kommt es an.
BQ hat abgenommen: WTF?
Schwierige Kühlung: Eigentlich nur bei der 3090. Beim Rest kein Problem. Müssen die AIBs halt ordentliche Kühler verbauen
Wenig innovativ: Weiß nicht was du hier erwartest. Ich sehe bei RTX/DLSS mehr Innovation als bei AMD
Zu viel Verbrauch: Stimmt zwar aber man kann ja jederzeit ein paar Watt bei der TDP zurückschrauben
Hitzeprobleme: Außer bei der 3090: Nein
Schlechte Auslastung: Der 3080 aufwärts fehlen denke ich ein paar ROPs aber nicht weiter tragisch. Man darf sich nicht von den "verdoppelten" FP32 Einheiten verwirren lassen aber das ist ein eigenes Thema.
Miese VRAM Bestückung: Die ist vollkommen angemessen. Mehr VRAM verhindert konkurrenzfähige Preise.
Die Entscheidung auf Samsung zu setzen und viele Profite zu machen, klappte nur wegen ETH-Mining und dem breiten SI. Ansonsten wäre Ampere ein absolutes Desaster.
TSMC hätte die benötigte Kapazität sowieso nicht gehabt. Von daher ist die Diskussion über den Preis sinnlos.
Ich sage Ampere ist eines der schlechtesten Ausführungen von NV was Gaming angeht. Hoffe Huang zeigt da auch etwas mehr Einsicht und verbessert massiv mit Ada, ansonsten sehe ich einen langsamen Untergang bei NV und jahrelanger Rückstand im Gaming-Bereich.
Ich bin eher positiv überrascht wie gut Ampere mit RDNA2 mithalten kann obwohl AMD einen Node vorne ist.
Gott1337
2022-08-09, 12:53:28
Die Begeisterung der Gamer für NV ist ja nicht gerade groß. Ampere hat da einfach zu viele Schwächen: Alte Fertigung, überteuert, schwache Taktraten, BQ hat abgenommen, schwierige Kühlung, wenig innovativ, zu viel Verbrauch, Hitzeprobleme, schlechte Auslastung, miese VRAM-Bestückung.
Die Entscheidung auf Samsung zu setzen und viele Profite zu machen, klappte nur wegen ETH-Mining und dem breiten SI. Ansonsten wäre Ampere ein absolutes Desaster.
Ich sage Ampere ist eines der schlechtesten Ausführungen von NV was Gaming angeht. Hoffe Huang zeigt da auch etwas mehr Einsicht und verbessert massiv mit Ada, ansonsten sehe ich einen langsamen Untergang bei NV und jahrelanger Rückstand im Gaming-Bereich.
Dafür das die Begeisterung so gering ist frage ich mich, warum AMD nur 20% Marktanteil hat ;D deine Aussagen sind wie immer lächerlich.
ChaosTM
2022-08-09, 13:28:58
@vinacis_vivids
Das macht so was von gar keinen Sinn, sorry.
NV könnte leichte Absatzprobleme mit der derzeitigen Generation haben wie schon nach dem letzten Krypto Crash, ansonsten steht man mehr als solide da. Lovelace wird sich verkaufen wie geschnitten Brot*.
Nebenbei verliert die Konsumer-Graka Sparte immer mehr an Bedeutung für die Firma.
Eine kleine Umsatz-Delle im 3. Quartal in dem Bereich tut ihnen also nicht weh.
*ich setzte mal voraus, das man sich leistungsmäßig auf oder über RDNA3 Niveau einordnen wird.
Troyan
2022-08-09, 14:46:43
https://videocardz.com/newz/nvidia-geforce-rtx-4080-and-4070-get-new-lower-power-specs-mysterious-20gb-model-also-mentioned
Bald hat der Kopi-Typ alles durch und wird richtig liegen.
Linmoum
2022-08-09, 14:50:20
So sehr hat sich echt noch kein Leaker zur Lachnummer gemacht. Ehrlich jetzt, ist ihm das nicht selbst zu blöd, gefühlt alle 5 Tage zu schreiben, dass sich irgendwas geändert hat?
BlacKi
2022-08-09, 14:55:54
er kann doch auch nur weitergeben was er mitbekommt. wer sich zu diesem zeitpunkt schon festlegt und ihm die schuld daran gibt, hat vom letzten mal nichts gelernt. das sind alles testboards, die so kommen "könnten".
prinz_valium_2
2022-08-09, 15:32:29
Das sind halt alles die möglichen Varianten, die jemals getestet und validiert werden.
Nicht mehr und nicht weniger.
Aber nur so entstehen doch überhaupt die Leaks, auf die man dann zum finalen Produkt schließen kann.
Es wir nur ein zu großes Fass darum auf gemacht. Wie damals bei der Xbox Series und PS5 auch.
GrimReaper85
2022-08-09, 15:35:04
Na ist doch klar, das sind halt die Maximalausführungen der kleineren Chips. AD103 wird ja auch an die Kotzgrenze getrieben.
4070 -> 10GB -> Fail
4070Ti -> 400W -> Epic Fail
4080 -> 420W -> Fail
also ich würd mir davon mal nix kaufen. Die 4090 ist effizient, da würd ich auch ein Auge darauf werfen. Ich warte noch auf die 4080Ti mit AD103 Full @ 500W.
https://videocardz.com/newz/nvidia-geforce-rtx-4080-and-4070-get-new-lower-power-specs-mysterious-20gb-model-also-mentioned
Viel besser jetzt. 4080 könnte sogar die preisgünstigste Karte dieser Generation sein.
rentex
2022-08-09, 15:44:36
Das wäre ja glatt ein vernünftiger Verbrauch.
https://videocardz.com/newz/nvidia-geforce-rtx-4080-and-4070-get-new-lower-power-specs-mysterious-20gb-model-also-mentioned
Viel besser jetzt. 4080 könnte sogar die preisgünstigste Karte dieser Generation sein.
Jo mit 320W wäre die Karte echt super, das denke ich auch. Die 4080Ti könnte in der Konstellation (AD102 250) 350W bekommen und die effizienteste Karte im Lineup werden. Da würde ich jedenfalls sofort zuschlagen, wenn AMD nichts besseres hat.
Troyan
NV wird erst jetzt herumrechnen, wie das Lineup konkret aussehen soll. Das kann sich auch wärend der Kartendesigns bei den Herstellern auch immer noch verändern. NV weiss schließlich noch nicht lange, wie gut die Yields sind und welchen Chip man wo im Lineup bringen kann, damit das für NV günstig wird. Aber die Speichermengen sehen auf jeden Fall gut aus in dieser Generation, das kann man sicherlich so sagen.
Fragman
2022-08-09, 16:40:40
Die Karte wäre eigentlich eher eine xx70, mit 320 Watt daher zu hoch.
Die aktuelle 3070 braucht 220.
Wären dann 100 Watt, also über 40%, mehr in dieser Kategorie.
1070 150 Watt
2070 175Watt
3070 220 Watt
4070 aka 4080 320 Watt
Wäre dann eine ordentliche Steigerung.
Die 3070 ist auch schon aufgrund der Fertigung etwas höher ausgefallen.
Daher würde man eigentlich wieder eine kleinere Wattsteigerung erwarten bei den Fertigungsvorteilen.
Also erwartbar vielleicht 280 Watt? Dann hätten wir 40 Watt fürs prügeln durch den Takt?
Keine Ahnung, ist etwas müßig drüber zu spekulieren. :D
dargo
2022-08-09, 16:46:58
https://videocardz.com/newz/nvidia-geforce-rtx-4080-and-4070-get-new-lower-power-specs-mysterious-20gb-model-also-mentioned
Bald hat der Kopi-Typ alles durch und wird richtig liegen.
;D ;D ;D
Aber immerhin passen die 320W der 4080 jetzt besser. So sieht es eher danach aus, dass nur die 4070 stärker bei den Frequenzen gekeult wird. Bis zum nächsten Leak. :D
https://videocardz.com/newz/nvidia-geforce-rtx-4080-and-4070-get-new-lower-power-specs-mysterious-20gb-model-also-mentioned
Viel besser jetzt. 4080 könnte sogar die preisgünstigste Karte dieser Generation sein.
Wat? Du meinst die 4080 wird günstiger sein als die 4070/4060? :ulol: Eins kannst du dir definitiv sicher sein... die 4080 wird mit 16GB GDDR6x bestimmt nicht günstig.
arcanum
2022-08-09, 17:11:02
die 3080 wurde, unabhängig vom sich anbahnenden mining boom, bei release als günstig wahrgenommen für ~700€. weniger als 800€ für die 4080 kann ich mir aktuell auch dank ungünstigem wechselkurs nicht vorstellen. ich hatte ja ursprünglich mit >=1000€ gerechnet aber fraglich ob sich nvidia in der aktuellen situation solche preise leisten kann (volle lager mit 3000er chips die wahrscheinlich abgeschrieben werden und stark gesunkene nachfrage im desktop bereich).
AffenJack
2022-08-09, 17:42:03
So sehr hat sich echt noch kein Leaker zur Lachnummer gemacht. Ehrlich jetzt, ist ihm das nicht selbst zu blöd, gefühlt alle 5 Tage zu schreiben, dass sich irgendwas geändert hat?
Das lächerliche ist, dass man seine Aussagen in den Medien so für voll nimmt. Es ist zwar klar, dass er interne Infos bekommt, aber am wahrscheinlichsten ist, dass er Zugriff auf Infos von einem Testlabor hat. Nur testet man eben x Konfigurationen. Für ihn ist das dann jedesmal eine Anpassung der GPU, das ist einfach lächerlich. Auch die TDPs passen genau dazu, TDPs von Testboards, die aber immer höher sind.
iamthebear
2022-08-09, 23:05:56
Er postet halt immer jede Info über Testboards, die er bekommt. Natürlich schwanken die Spezifikationen hier immer etwas aber auf Dauer zeichnet sich dann halt doch ein Trend ab. Bei der 4090 können wir uns denke ich schon ziemlich sicher sein, dass diese um die 450W landen wird.
Die Frage, die sich mir stellt ist jedoch:
Wurden die >15K TSE mit der 4080 auf 420W oder 320W durchgeführt?
GrimReaper85
2022-08-09, 23:18:36
Die Frage, die sich mir stellt ist jedoch:
Wurden die >15K TSE mit der 4080 auf 420W oder 320W durchgeführt?
https://twitter.com/HaM1dkhann/status/1556977796240400384
Will there be any performance change?
@kopite7kimi: Not much. The original power consumption limit is too loose which means great overclocking potential.
Wat? Du meinst die 4080 wird günstiger sein als die 4070/4060? :ulol: Eins kannst du dir definitiv sicher sein... die 4080 wird mit 16GB GDDR6x bestimmt nicht günstig.
Bester Wert ist was ich meinte. Wie jetzt 3080 12 GB. Wahrscheinlich noch besser wird 4080 Ti 20GB sein, wenn es jemals herauskommt.
4070 - TSE 11000, $600-700, $55-64/TSE 1000
4080 - TSE 15000, $800-1000, $53-67/TSE 1000
4090 - TSE 19000, $1500, $79/TSE 1000
DrFreaK666
2022-08-09, 23:20:24
Dann ist sich Nvidia wohl sicher AMD auch mit niedrigem Verbrauch schlagen zu können!?
BlacKi
2022-08-09, 23:29:46
@grim
? verstehe ich nicht. wenn das höhere limit keine große performance gewinne bringt, dann heißt das für mich, das die karte ihren boosttakt bereits mit 320 fast voll ausfährt. dabei dachte ich die karte würde doch schon 3ghz boosten? auch die TSE punktzahl und der anzahl shader deuten auf einen hohen takt hin. die 4090 hat weeeesentlich mehr shader. wie kommen die relativ hohen TSE punkte der 4080 sonst zusammen? über 60% mehr shader aber nur 33% mehr leistung? klar muss die 4080 deutlich höher takten für das ergebniss.
rentex
2022-08-10, 06:06:25
Dann ist sich Nvidia wohl sicher AMD auch mit niedrigem Verbrauch schlagen zu können!?
Ich ahne Ungemach für AMD...höherer Verbrauch bei leicht niedrigerer Performance.
Nightspider
2022-08-10, 06:10:37
Dann ist sich Nvidia wohl sicher AMD auch mit niedrigem Verbrauch schlagen zu können!?
Oder der Shitstorm ist zu groß geworden, was den Verbrauch betrifft. :D
DrFreaK666
2022-08-10, 07:16:11
Oder der Shitstorm ist zu groß geworden, was den Verbrauch betrifft. :D
Das denke ich auch. Heutzutage muss ja alles grün sein.
Die Boardpartner können dann immer noch hochgeprügelte Karten veröffentlichen
dargo
2022-08-10, 07:30:05
Ich ahne Ungemach für AMD...höherer Verbrauch bei leicht niedrigerer Performance.
Was du so alles ahnst... ;D
GrimReaper85
2022-08-10, 07:44:15
Wahrscheinlich noch besser wird 4080 Ti 20GB sein, wenn es jemals herauskommt.
4070 - TSE 11000, $600-700, $55-64/TSE 1000
4080 - TSE 15000, $800-1000, $53-67/TSE 1000
4090 - TSE 19000, $1500, $79/TSE 1000
Ich kann schon erahnen:
4080 Ti - TSE 18000, $1100-1200, $61-67/TSE 1000
Ziemlich gute Preisleistung, wer noch ein Jahr warten will.
Plötzlich sind wir von Epic Fail zu Epic.
DrFreaK666
2022-08-10, 07:53:12
Für alle 3DMark-Spieler kommen goldene Zeiten.
Ich warte mal auf interessantere Benchmarks
iamthebear
2022-08-10, 08:20:31
Man sollte nicht vergessen, dass hohe Powerlimits auch die Kosten der Karten ganz schön in die Höhe treiben für Kühler und diverse elektrische Komponenten.
Auch die Kompatibilität mit normalen Durchschnittsgehäusen ist ein Problem.
Das alles will man im 700$ Massenmarkt nicht wirklich haben.
Was die 19K TSE angeht: Ich bin mir ziemlich sicher, dass die nicht stimmen. Meine Vermutung:
4070 285W: 10-11K
4080 320W: 13-14K
4090 450W: 20-22K
4090 Ti 600W/140SM: 24K (laut AGF)
Die Aussage von kopite, dass die TDP Reduzierung nicht viel Performance kostet spießt sich etwas mitbden von AGF geposteten Taktpunkten der 4090 mit 2780@450W vs. 3020@550W. Da hat die 4090 noch relativ gut mit der Spannung skaliert und wird auch stärker einbrechen wenn die Spannung fehlt.
Ich habe jedoch das Gefühl, dass der 4N Custom Prozess generell ein etwas größeres Taktfenster erlaubt ähnlich wie bei CPUs. Da kann auch von 0.7-1.3V der gesamte Bereich ausgenutzt werden.
Fragman
2022-08-10, 08:26:56
Die 4080 FE darf nicht mehr als 799 kosten und selbst das ist eigentlich schon zu viel sollten wir es hier wirklich mit einer xx70 Kategorie zu tun haben.
Wenn man sich die UVP der "Vorgängermodelle" anschaut:
1070 499,-
2070 529,-
3070 499,- -549,-
Liegt die 4080 zwischen der xx70 und der xx80 und bildet damit eine neue Kategorie, wären die 799,- schon hoch gegriffen, aufgrund der Inflation aber vielleicht noch vertretbar.
Thunderburne
2022-08-10, 09:22:38
https://wccftech.com/nvidia-geforce-rtx-4070-2-8-ghz-clocks-285w-tgp-more-tflops-than-rtx-3090-ti/
Man stelle sich vor bei der 4090 gäbe es auch solche Taktraten!
Hikaru
2022-08-10, 09:24:25
Für alle 3DMark-Spieler kommen goldene Zeiten.
Ich warte mal auf interessantere Benchmarks
Dann wird sich zeigen ob ein (bestenfalls) halb so breites SI der 4070 mit dickem L2 Cache einer 3090 das Wasser reichen kann.
Troyan
2022-08-10, 09:32:48
Neue Tweets ansehen
Unterhaltung
kopite7kimi
@kopite7kimi
·
4. Aug.
There is an update of RTX 4070.
PG141-SKU331
7680FP32
12G 21Gbps GDDR6X
300W
TSE >11000
kopite7kimi
@kopite7kimi
base 2310
boost 2610
max >2800
TGP 285W
https://twitter.com/kopite7kimi/status/1557182816630480896?cxt=HHwWgIDRua_hnJwrAAAA
Wäre doppelte Rechenleistung zur 3070TI beim selben Verbrauch.
dargo
2022-08-10, 09:33:29
https://wccftech.com/nvidia-geforce-rtx-4070-2-8-ghz-clocks-285w-tgp-more-tflops-than-rtx-3090-ti/
Man stelle sich vor bei der 4090 gäbe es auch solche Taktraten!
Wo ist das Problem? Wenn du der 4090 600+W erlaubst kommt sie auch so hoch. ;)
Die 4080 FE darf nicht mehr als 799 kosten und selbst das ist eigentlich schon zu viel sollten wir es hier wirklich mit einer xx70 Kategorie zu tun haben.
Wenn man sich die UVP der "Vorgängermodelle" anschaut:
1070 499,-
2070 529,-
3070 499,- -549,-
Liegt die 4080 zwischen der xx70 und der xx80 und bildet damit eine neue Kategorie, wären die 799,- schon hoch gegriffen, aufgrund der Inflation aber vielleicht noch vertretbar.
Jo vernünftiger Gedanke. Ich würde aber sogar sagen, bei dem erwartbarem Marktumfeld und der Tatsache, dass es auch noch Konkurrenz geben wird, wird man größtenteils bei den Ampere UVPs bleiben.
Linmoum
2022-08-10, 10:01:26
Bei den Ampere UVPs wird man aber nicht nur aufgrund des teureren TSMC N5 im Vergleich zu Samsungs 8nm geringere Margen haben. Würde mich stark überraschen, wenn Nvidia das in Kauf nimmt.
Slipknot79
2022-08-10, 10:20:14
Das denke ich auch. Heutzutage muss ja alles grün sein.
Die Boardpartner können dann immer noch hochgeprügelte Karten veröffentlichen
Na na na, hochprügeln wollen immer noch wir User. :redface:
Dovregubben
2022-08-10, 12:09:47
Die 4080 FE darf nicht mehr als 799 kosten und selbst das ist eigentlich schon zu viel sollten wir es hier wirklich mit einer xx70 Kategorie zu tun haben.
Was für ein absurder Gedankengang ist das denn schon wieder? Warum soll die 80er eine 70er Serie sein?
Platos
2022-08-10, 12:32:20
Neue Tweets ansehen
Unterhaltung
kopite7kimi
@kopite7kimi
·
4. Aug.
There is an update of RTX 4070.
PG141-SKU331
7680FP32
12G 21Gbps GDDR6X
300W
TSE >11000
kopite7kimi
@kopite7kimi
base 2310
boost 2610
max >2800
TGP 285W
https://twitter.com/kopite7kimi/status/1557182816630480896?cxt=HHwWgIDRua_hnJwrAAAA
Wäre doppelte Rechenleistung zur 3070TI beim selben Verbrauch.
Ist doch gut, auch die 4080 "reicht" mir. 320W heisst, dass 200W easy erreichbar sind. Natürlich ist es weiterhin absurd hoch im Auslieferungszustand, aber als jemand, der selber tweakon kann, kann man damit leben.
Jo vernünftiger Gedanke. Ich würde aber sogar sagen, bei dem erwartbarem Marktumfeld und der Tatsache, dass es auch noch Konkurrenz geben wird, wird man größtenteils bei den Ampere UVPs bleiben.
War doch aber auch vorher klar, dass es keine absurde Preise gibt, wie von manchen hier gesagt. +10-20% halte ich aber für möglich, glaube aber, dass es sich in etwa gleich wie bei AMpere verhaltet (ab 4080 abwärts).
r3ptil3
2022-08-10, 12:51:54
Aktuell spricht eher einiges dafür, dass die Preise ähnlich wie bei der RTX 30 Vorstellung eher "tief" sein werden.
Zudem macht die Gaming-Kundschaft aktuell genau das richtige: Sie kauft praktisch nichts mehr.
RTX 4070: 519-579$
RTX 4080: 699-729$
RTX 4090: 1199-1399$
Wird aber insbesondere von AMD abhängen. Wenn die AMD Produkte richtig gut sind, dann weiss das Nvidia sowieso schon und geht gezwungenermassen eine aggressivere Preispolitik ein.
Und wenn man die Aussagen von AMD selber noch berücksichtigt (geringer TDP nötig als die Konkurrenz etc.), dann siehts auch so aus.
Ohne AMD wären die Nvidia-Preise locker 30-50% höher.
dargo
2022-08-10, 13:09:55
War doch aber auch vorher klar, dass es keine absurde Preise gibt, wie von manchen hier gesagt.
Du kennst die Preise schon? Erzähle mehr...
Aktuell spricht eher einiges dafür, dass die Preise ähnlich wie bei der RTX 30 Vorstellung eher "tief" sein werden.
Aha... was denn genau?
Wird aber insbesondere von AMD abhängen. Wenn die AMD Produkte richtig gut sind, dann weiss das Nvidia sowieso schon und geht gezwungenermassen eine aggressivere Preispolitik ein.
:facepalm:
r3ptil3
2022-08-10, 13:23:10
@Dargo
Tiefe Preise:
- Mining-Kundschaft praktisch nicht mehr vorhanden (das sind nicht 5-10%)
- massiver Umsatzrückgang bei Nvidia siehe News der letzten Tage
- Konkurrenz
Für dich zur Aufklärung zum zweiten Zitat:
Bei AMD und Nvidia handelt es sich nicht um zwei lokale PC-Bastelbuden, sondern um Milliarden-Unternehen und zudem weltweit führende Grössen.
Denkst du Nvidia wartet auf den AMD Release und schaut sich die Vorstellung über Youtube an und handelt dann entsprechend?
Insiderinfos, Beziehungen zu Lieferanten, Spitzel, Industriespionage...
Literaturempfehlung:
"Wirtschafts- und Industriespionage: Informationsgewinnung – Management – Kompetenz"
Linmoum
2022-08-10, 13:34:33
Noch mal: ähnlich tiefe Preise heißt deutlich niedrigere Margen. Wie wahrscheinlich das bei Nvidia ist, kann sich jeder selbst denken
Dir nützen die besten Margen nix, wenn du keinen Umsatz machst, weil die Dinger wie Blei im Regal liegen ;). Das ist also sehr wahrscheinlich.
ChaosTM
2022-08-10, 13:36:58
Wenn es der Markt nicht diktiert, passiert das sicher nicht. Wären ja blöd..
Und genau das tut er ja ;) (bzw. die Kundschaft).
bardh
NV weiss nicht wie gut die AMDs sind.
Thunderburne
2022-08-10, 13:40:21
Wo ist das Problem? Wenn du der 4090 600+W erlaubst kommt sie auch so hoch. ;)
Ja ist klar halt nur die Kühlung wird interessant 🤪
r3ptil3
2022-08-10, 13:40:43
Noch mal: ähnlich tiefe Preise heißt deutlich niedrigere Margen. Wie wahrscheinlich das bei Nvidia ist, kann sich jeder selbst denken
Spielt eigentlich keine Rolle, der Break Even verschiebt sich dadurch nur, was aber nicht bedeutet, dass der Gewinn zwingend kleiner wird.
Tiefere Preise = höherer Absatz
Sowas muss ein Unternehmen halt abwägen.
Linmoum
2022-08-10, 13:49:52
Dir nützen die besten Margen nix, wenn du keinen Umsatz machst, weil die Dinger wie Blei im Regal liegen ;). Das ist also sehr wahrscheinlich.Da ist gar nichts wahrscheinlich dran. Wenn 4080 und 4090 jeweils $300 mehr Kosten, wird man die Dinger trotzdem gut los, weil der Leistungssprung groß sein wird.
Intel zieht sogar die Preise in den nächsten Monaten hoch. Warum? Um den ASP anzuheben. Da gibt's keine Preissenkungen, weil gerade weniger verkauft wird. So funktioniert das nicht...
mboeller
2022-08-10, 13:59:33
bardh
NV weiss nicht wie gut die AMDs sind.
doch, das sollten sie inzwischen wissen. Beide sind ja ähnlich weit und die Kartenhersteller sollten deshalb GPUs von beiden Herstellern haben (zumindest die, die für beide Hersteller Karten machen). Und dort gibt es dann bestimmt eine Möglichkeit informell (beim Kaffee, beim Rauchen, etc...) an Infos zu kommen.
Linmoum
2022-08-10, 14:05:33
Wenn AMD im November launcht, haben die AiB sicherlich noch keine Samples geschweige denn handfeste Performanceinfos.
Bei Nvidia gab es jetzt am Wochenende das Gerücht, dass die AiBs auch erst ab dieser Woche so langsam loslegen (können).
Gott1337
2022-08-10, 14:23:32
Noch mal: ähnlich tiefe Preise heißt deutlich niedrigere Margen. Wie wahrscheinlich das bei Nvidia ist, kann sich jeder selbst denken
dann zählt das erst recht für AMD, 800€ für einen 5950 der 1/10 einer 3090 kostet in der Herstellung...
Wenn AMD im November launcht, haben die AiB sicherlich noch keine Samples geschweige denn handfeste Performanceinfos.
Bei Nvidia gab es jetzt am Wochenende das Gerücht, dass die AiBs auch erst ab dieser Woche so langsam loslegen (können).
Die bekommen ja keinen funktionsfähigen Treiber, NV weiss nicht, wie die AMDs performen und umgekehrt, selbst wenn die schon Karten produzieren.
Zossel
2022-08-10, 14:41:01
Die bekommen ja keinen funktionsfähigen Treiber, NV weiss nicht, wie die AMDs performen und umgekehrt, selbst wenn die schon Karten produzieren.
Also können die Hersteller erst ziemlich spät mit Tests anfangen?
Dann sollte man wohl besser erst ein paar Monate warten bevor man zu diesen Produkten greift.
dargo
2022-08-10, 15:20:22
@Dargo
Tiefe Preise:
- Mining-Kundschaft praktisch nicht mehr vorhanden (das sind nicht 5-10%)
Was willst du mit deinem Mining? Mining hatte überhaupt nichts an den UVPs geändert. Und darum gehts hier die ganze Zeit. Nicht um Straßenpreise die aufgrund von Nachfrage/Angebot durchgeknallt sind.
Dir nützen die besten Margen nix, wenn du keinen Umsatz machst, weil die Dinger wie Blei im Regal liegen ;).
Und jetzt erkläre uns mal warum die Dinger wie Blei im Regal liegen bleiben sollten wenn praktisch das gesamte Portfolio irgendwo grob um den Faktor 2 schneller wird als die alte Gen?
prinz_valium_2
2022-08-10, 15:38:37
Das Problem wenn man viele Produkte gleichzeitig auf den Markt bringt ist, dass sich Kunden aussuchen können was das beste P/L hat.
Früher gab es eine x70 und dazu eine überteuerte x80, die dann der full chip war mit recht wenig Performance delta. Das war es, bevor die Midrange mit x60 kam.
Heute hast du zwischen 4070, 4080 und 4090 3 verschiedene dies.
Die 4070 muss eigentlich für $499 kommen, was wohl leider trotzdem 579€ werden.
Folgende Preispolitik würde ganz böse für nVidia enden.
4070 $699
4080 $999
4090 $1499
dargo
2022-08-10, 16:03:22
Das Problem wenn man viele Produkte gleichzeitig auf den Markt bringt ist, dass sich Kunden aussuchen können was das beste P/L hat.
Da kann ich dir Entwarnung geben, wird mit Ada nicht passieren.
Was willst du mit deinem Mining? Mining hatte überhaupt nichts an den UVPs geändert. Und darum gehts hier die ganze Zeit. Nicht um Straßenpreise die aufgrund von Nachfrage/Angebot durchgeknallt sind.
Und jetzt erkläre uns mal warum die Dinger wie Blei im Regal liegen bleiben sollten wenn praktisch das gesamte Portfolio irgendwo grob um den Faktor 2 schneller wird als die alte Gen?
Z.B. wenn Kunden aufgrund einer etwaigen Inflation einfach keine teuren Grafikkarten kaufen? :freak:
1+1=2 und so...
prinz_valium_2
2022-08-10, 17:21:49
Da kann ich dir Entwarnung geben, wird mit Ada nicht passieren.
Naja. 3 ist mehr als 2. Wobei es auch wieder einen staggered Launch geben soll.
Die RX6000 Serie hatte mich sehr verwundert mit der Masse an Karten.
Das war schon zu viel des Guten, weil alle im oberen Bereich.
arcanum
2022-08-10, 17:22:23
Aktuell spricht eher einiges dafür, dass die Preise ähnlich wie bei der RTX 30 Vorstellung eher "tief" sein werden.
Zudem macht die Gaming-Kundschaft aktuell genau das richtige: Sie kauft praktisch nichts mehr.
RTX 4080: 699-729$
die 3080 war trotz der vielen unkenrufe für 699$/€ quasi nicht kaufbar. warum sollte nvidia den gleichen fehler nochmal machen und die chips verschenken?
+8GB= +100€
+wechselkurs = +100€
für 800€ würde die karte nur so aus den regalen fliegen für mindestens 2-3 monate, vor allem mit den scalpern die wieder am start sein werden um sie für 1000+ zu verkaufen. mein tipp: 900-1000€ dürfte der sweep spot sein, unabhängig vom usd straßenspreis. das hat die 3080 auch lange zeit auf ebay erzielt bevor mit mining alles durch die decke ging. wenn die karte tatsächlich 800€ oder weniger kostet, sollte man direkt zuschlagen weil man sonst monate auf eine bezahlbare karte warten müssen wird.
r3ptil3
2022-08-10, 17:22:45
Was willst du mit deinem Mining? Mining hatte überhaupt nichts an den UVPs geändert. Und darum gehts hier die ganze Zeit. Nicht um Straßenpreise die aufgrund von Nachfrage/Angebot durchgeknallt sind.
UVP: Unverbindliche Preisempfehlung
RTX 3090 Ti: 2'249 Euro UVP
Grund: Miningkundschaft bzw. reale Preise der Grafikkarten
dargo
2022-08-10, 17:31:23
Z.B. wenn Kunden aufgrund einer etwaigen Inflation einfach keine teuren Grafikkarten kaufen? :freak:
1+1=2 und so...
Preise später senken kann man immer noch falls der Plan nicht aufgeht, wieder anheben wird schwieriger.
btw.
Ich habe das Gefühl du verstehst meinen Standpunkt nicht. Eine 4090 für 1799$ UVP würde genau wem weh tun in diesem Segment? Das sind nur 20% Aufschlag vs. alte Gen. Ein anderes Beispiel... die 4080 bekommt eine UVP von 849$ (21% Preisaufschlag vs. alte Gen). Wer kauft die in diesem Segment nicht wenn das Teil sogar schneller als die 3090TI ist? Psychologie und so. ;) Bei der 4080 würden mich nicht mal 999$ wundern da das Teil mit 16GB kommen soll. Wir reden hier nicht mehr von einem 10GB Krüppel wie bei Ampere. Und nicht vergessen... wir reden hier von 320W (angeblich) vs. 450W. Wieder ein nicht unerheblicher Punkt psychologisch. ;) Nüchtern betrachtet nimmst du mit 999$ bei der 4080 jeden 3080TI Besitzer mit. Die 4080 wird spürbar schneller sein, nicht mehr verbrauchen und mehr Speicher haben. Ich würde das sogar auf die 3090 übertragen. Für diese Karte haben die Leute mindestens 1500€ bezahlt. Da erscheinen 1000€ für eine deutlich schnellere 4080 wie ein Schnäppchen. Die 8GB weniger Vram werden keinem Spieler weh tun. Die 24GB waren eh Overkill.
Von der 4090 rede ich nicht. Das ist was anderes, aber alle Karten bis 4080Ti werden recht moderat ausfallen. Ne 4090 wird keinesfalls über 900€ kosten beispielsweise, eher um die 700€ maximal.
TheCounter
2022-08-10, 18:58:16
Ne 4090 für 900€? Da kauf ich gleich 2 :D
Würde meine 3080 aber gerne durch ne 4090 ersetzen.
Meridian12
2022-08-10, 20:23:03
1499 Euro für die 4090 wäre schon Top würde ich sagen. Aber glaube ich nicht dran.
Die 4080 sehe ich bei 999 Euro
Merkor
2022-08-10, 20:33:38
Wat?! Leute! Macht euch keine Illusionen. Die 4090 hat ne 2 vorn und die 4080 ist eher 1499 als irgendetwas anderes. 4070 könnte ne Option unter 1000 von Schrottherstellern oder der Founders sein, bin da aber auch eher bei vierstellig. Die lassen sich ihre aktuellen Einbußen von den Early Adoptern der neuen Generation bezahlen und schaffen gleichzeitig damit Raum für die Performance- und Preispositionierung darunter für die weiterhin käuflichen 30xx.
ALLE Preispositionierungen darunter werden noch lange von den 30xx im Überfluss gestellt. Die 3090 wird dann dreistellig und das vermutlich zeitnah. Aber es gibt noch immer Boons, welche durch Käufe die längst fälligen Senkungen herauszögern.
wolik
2022-08-10, 20:43:02
Wat?! Leute! Macht euch keine Illusionen. Die 4090 hat ne 2 vorn und die 4080 ist eher 1499 als irgendetwas anderes.
Da bin ich mir nicht sicher... man sollte sich an die goldene RTX Titan für 2,5K erinnern, die überall wie Blei liegen geblieben.
In ganz 3DC hat die Karte nur Tobi (wenn ich mich richtig erinnere) gehabt.
Und schleppende Verkäufe mit der neuen Generation werden für Nvidia ein Desaster sein.
Ja. Und da noch ATI AMD in Nacken...
Linmoum
2022-08-10, 20:45:03
+100% Performance bei nur +40% höherem Preis lässt sich doch gut vermarkten. Und in der Region reden wir sowieso von Enthusiasten, die das nicht die Bohne interessiert, ob die Karte jetzt $1600 oder $2100 kostet. Da geben - in Relation natürlich - auch viele mehrere hundert Euro mehr aus, nur um statt irgendeiner billig-Zotac eine Strix zu haben.
prinz_valium_2
2022-08-10, 20:45:13
Wat?! Leute! Macht euch keine Illusionen. Die 4090 hat ne 2 vorn und die 4080 ist eher 1499 als irgendetwas anderes. 4070 könnte ne Option unter 1000 von Schrottherstellern oder der Founders sein, bin da aber auch eher bei vierstellig. Die lassen sich ihre aktuellen Einbußen von den Early Adoptern der neuen Generation bezahlen und schaffen gleichzeitig damit Raum für die Performance- und Preispositionierung darunter für die weiterhin käuflichen 30xx.
ALLE Preispositionierungen darunter werden noch lange von den 30xx im Überfluss gestellt. Die 3090 wird dann dreistellig und das vermutlich zeitnah. Aber es gibt noch immer Boons, welche durch Käufe die längst fälligen Senkungen herauszögern.
Das lässt Tor und Angel auf für AMD. Die können doch nicht keine GPU unter 1000€ bringen. Fast niemand kauft GPUs über 1000€
Gott1337
2022-08-10, 20:53:08
Die 24GB waren eh Overkill.
einfach nein, die Content Creator, wovon es mit Sicherheit 100k gibt, brauchen jedes bisschen VRAM. für mich war die GPU ein Geschenk, hat die hälfte gekostet gegenüber dem Vorgänger und war doppelt so schnell.
Merkor
2022-08-10, 20:58:38
AMD ist der einzige Player, der hier für ein mittelfristig vernünftiges Preisniveau sorgen könnte.
Andauernde Halbleiterkrise, hohe Transportkosten, schwacher Euro, und eine Inflation aus der Hölle etc. werden nicht zu niedrigeren UVPs führen, solange die Alternative unter 1000 Euro 30xx heißt.
NVIDIA wird seine Käufer finden. Der lange Launch-Abstand der 40xx Serie hat nur den Zweck, den alten Plunder solange wie möglich zu melken und abzuverkaufen.
Wie gesagt: Keine Hoffnung auf niedrige Preise bei 40xx machen. Trotzdem unbedingt jetzt NICHTS kaufen!
dargo
2022-08-10, 21:00:42
einfach nein, die Content Creator, wovon es mit Sicherheit 100k gibt, brauchen jedes bisschen VRAM. für mich war die GPU ein Geschenk, hat die hälfte gekostet gegenüber dem Vorgänger und war doppelt so schnell.
Ich sprach von Gamern.
DavChrFen
2022-08-10, 21:00:50
Die 4090 hat ne 2 vorn und die 4080 ist eher 1499 als irgendetwas anderes.
Es soll ja noch die Titan kommen. Die hätte dann 3k-4k und die Quadros dann 6k aufwärts? Ist dann nicht der Preissprung von Titan zu Quadro zu gering?
ChaosTM
2022-08-10, 21:53:39
+100% Performance bei nur +40% höherem Preis lässt sich doch gut vermarkten. Und in der Region reden wir sowieso von Enthusiasten, die das nicht die Bohne interessiert, ob die Karte jetzt $1600 oder $2100 kostet. Da geben - in Relation natürlich - auch viele mehrere hundert Euro mehr aus, nur um statt irgendeiner billig-Zotac eine Strix zu haben.
Früher war +100% bei sehr ähnlichem Preis "normal".
Die Zeiten sind leider vorbei.
Lurtz
2022-08-10, 22:11:06
Das lässt Tor und Angel auf für AMD. Die können doch nicht keine GPU unter 1000€ bringen. Fast niemand kauft GPUs über 1000€
AMD will Geld verdienen und würde mitziehen. Bei RDNA2 wirkte es nicht so als hätte AMD Interesse, sich so schnell nochmal unter Wert zu verkaufen, außerdem haben sie wahrscheinlich gar nicht die Kapazitäten in der Chipfertigung. Und das Standbein Konsolen scheint ihnen auch auszureichen, um mit ~20% PC-Marktanteil im Grunde zufrieden zu sein :ulol:
Außerdem gibts immer noch mehr als genug PC-Spieler, die pauschal nVidia kaufen und AMD nicht mal in Betracht ziehen oder aktiv ablehnen.
BIG_Mullah
2022-08-10, 22:13:09
+100% Performance bei nur +40% höherem Preis lässt sich doch gut vermarkten. Und in der Region reden wir sowieso von Enthusiasten, die das nicht die Bohne interessiert, ob die Karte jetzt $1600 oder $2100 kostet. Da geben - in Relation natürlich - auch viele mehrere hundert Euro mehr aus, nur um statt irgendeiner billig-Zotac eine Strix zu haben.
Wäre diese Logik bei Grafikkarten in den letzten 25 Jahren zum tragen gekommen, würde das Topmodell preislich grob im Millionenbereich liegen. Es ist nun mal so, dass das schnellere Nachfolgemodell im grob gleichen Preisrahmen erwartet wird (siehe CPUs). Auch Kosolen kosten in jeder neuen Generation ungefähr das gleiche (inflationsbereinigt).
Ich habe in all diesen Jahren meistens das zweitstärkste Volumen-Modell (also beispielsweise bei nVidia die 80er Serie) gekauft und damit immer zwischen 350€ und 550€ gelegen. Lediglich beim letzten Mal (vor 5,5 Jahren) wurde es wegen 4K Monitor eine GTX 1080Ti für 660€ (das war tatsächlich mal eine normaler Straßenpreis für ein Topmodell).
Wesentlich mehr werde ich für eine Grafikkarte nicht ausgeben und warte bis wieder normale Preise herrschen. Und nein, nicht nur Enthusiasten kaufen Grafikkarten, 99 Prozent der Kunden ist der Preis nicht egal und wenn der zu teuer ist kaufen sie halt nix. Siehe aktuell, eigentlich ist im Gamingbereich ein Riesenbedarf weil eine ganze Menge Leute genauso alte Grafikkarten hat, aber die Dinger verkaufen sich ganz schlecht, jetzt wo der Kryptohype rum ist.
Sardaukar.nsn
2022-08-10, 22:25:40
@BIG_Mullah: Danke für den Beitrag, da gehe ich mit. Bin zuletzt von 1080Ti zu 3080 gewechselt und hatte schon schlechtes Gewissen wegen dem Ram, aber die +90% Performance inkl. DLSS usw. fand ich schon okay. Ich bin noch unentschlossen ob ich Grafikkarten deutlich über 1000€ einkaufe. Sicher viel Geld, aber es gibt auch kaum ein Hobby in dem so schnell, so große Fortschritte gemacht werden. Die Faszination an High-End PC Hardware ist sicher da. Andere schon länger etablierte Männerhobbys (Audio, Hifi, Fahrrad, Motorrad usw.) sind meist deutlich kostspieliger.
Meridian12
2022-08-10, 23:12:02
Wat?! Leute! Macht euch keine Illusionen. Die 4090 hat ne 2 vorn und die 4080 ist eher 1499 als irgendetwas anderes. 4070 könnte ne Option unter 1000 von Schrottherstellern oder der Founders sein, bin da aber auch eher bei vierstellig. Die lassen sich ihre aktuellen Einbußen von den Early Adoptern der neuen Generation bezahlen und schaffen gleichzeitig damit Raum für die Performance- und Preispositionierung darunter für die weiterhin käuflichen 30xx.
ALLE Preispositionierungen darunter werden noch lange von den 30xx im Überfluss gestellt. Die 3090 wird dann dreistellig und das vermutlich zeitnah. Aber es gibt noch immer Boons, welche durch Käufe die längst fälligen Senkungen herauszögern.
Möglich. Aber wenn NVIDIA auch Karten in großen Stückzahlen verkaufen will, dann sollten sie humane Preise setzen.
10 Karten mit 400 Euro Gewinn verkaufen bringt halt mehr als 2 Karten mit 800 Euro Gewinn (fiktive Beispielzahlen)
Wie schonmal erwähnt, gab letztens eine Umfrage und da waren gerade mal 1% der Leute in einem PC Forum bereit mehr als 2k für eine Grafikkarte auszugeben. Glaube 6% waren es zwischen 1000 und 1499 Euro, 2% zwischen 1500 und 1999.
Die TI wird wohl aktuell fast für die Hälfte der UVP verscherbelt. ALso ein Erfolg war die Karte wohl eher nicht.
Gott1337
2022-08-11, 00:21:31
AMD ist der einzige Player, der hier für ein mittelfristig vernünftiges Preisniveau sorgen könnte.
Andauernde Halbleiterkrise, hohe Transportkosten, schwacher Euro, und eine Inflation aus der Hölle etc. werden nicht zu niedrigeren UVPs führen, solange die Alternative unter 1000 Euro 30xx heißt.
NVIDIA wird seine Käufer finden. Der lange Launch-Abstand der 40xx Serie hat nur den Zweck, den alten Plunder solange wie möglich zu melken und abzuverkaufen.
Wie gesagt: Keine Hoffnung auf niedrige Preise bei 40xx machen. Trotzdem unbedingt jetzt NICHTS kaufen!
so wie AMD bei den CPUs für ordentliche Preise gesorgt hat, warte seitdem gibts CPUs für 800$+... AMD wird genauso Gewinn abschöpfen wie jedes andere Unternehmen. 1000€ für eine 6900 ist doch der klare Beweis.
Nightspider
2022-08-11, 02:26:48
so wie AMD bei den CPUs für ordentliche Preise gesorgt hat, warte seitdem gibts CPUs für 800$+... AMD wird genauso Gewinn abschöpfen wie jedes andere Unternehmen. 1000€ für eine 6900 ist doch der klare Beweis.
Das lag zum Teil genauso an der extremen Nachfrage.
AMD ist gar nicht hinterhergekommen beim Liefern.
davidzo
2022-08-11, 12:04:16
Was meint ihr, wie hart sind eigentlich die Vorgaben von Nvidia zur VRAM Ausstattung?
Werden die GPUs immer noch ausschließlich gebundelt mit VRAM verkauft und jeder der sich daran nicht hält bei nvidia unter Strafe gestellt?
Jetzt wäre doch die beste Zeit mit dem gigantischen GA104 Stockpile endlich eine 16GB Variante der 3070 heraus zu bringen. Wenn ein boardpartner vorprescht macht der das Geschäft seines Lebens und die anderen würden sicher nachziehen. Die 6500xt gibts immerhin auch als 8Gb Variante mittlerweile.
Better late than never, oder? Die Karten würden weg gehen wie warme semmeln, da sie die drei größten Probleme der 3070 und 3070ti fixen:
1. Zu wenig VRAM für durchgehend 4K
2. Zu wenig VRAM für WQHD mit RT.
3. 1+2 zusammen plus zu hoher Verbrauch des GDDR6x bei der 3070ti.
Selbst wenn das ein eher ineffizientes großes Partner-PCB mit mittelprächtigem Kühler wäre, würden die sich immer noch wie geschnitten brot verkaufen. Und Nvidia wäre auch heilfroh die Chips los zu werden.
Weiteres Argument:
- Die DRAM Preise sind im freien Fall. 16GB machen die BOM nicht mehr Fett und Supply ist auch kein problem.
ZomBy7
2022-08-11, 12:27:33
Meiner Meinung nach, könnte Nvidia wirklich darauf setzen die Preise human zu gestalten.
Sie haben nähmlich für die aktuelle Marktsituation viel zu viel Wafer letztes Jahr eingekauft.
Also könnte man den Umsatz eher über die Masse und einer verringerten Marge erzielen.
vinacis_vivids
2022-08-11, 13:22:54
Nvidia ist einfach überheblich und zu gierig und hat mit der billigen 8nm Fertigung versucht über Marketing die Chips überteuert zu verkaufen.
Der Markt ist zwar Dumm, aber eben nicht ganz dumm. Auch der Versuch über DLSS die Präzision bzw. Qualität zu senken und damit den V-RAM Verbrauch zu sparen ist halt nicht ganz gelungen.
In den verbreiteten Massen-Auflösungen 1080p und 1440p ist AMD klar vorne. Da hat sich einfach Qualität, bessere Fertigung, bessere uArch, mehr VRAM und besserer Takt durchgesetzt.
Das sind alles objektive Kriterien am Markt.
Klar hat/hatte Nvidia viel Kredit Aufgrund der Marktführung, unsaubere Geschäftspraktiken und Manipulation der Marktteilnehmern.
Das Konzept klappt auch nur so lange wie die Marktteilnehmer keine bzw. wenig Ahnung haben. Dass AMD nun vorbei zieht, überrascht mich nicht. Qualität setzt sich doch durch.
Nicht dass Nvidia jetzt super schlecht ist, Nein, die sind gut, aber gegen die Entwicklung der Navi-uArch sieht Nvidia einfach kein Land.
Dass Huang die Gaming-Sparte nun fallen lässt, ist für mich eine große Enttäuschung. Er hat einfach zu viel Fokus auf Nebenschauplätze gelegt (Auto, KI, DataCenter).
Hoffe wirklich dass Ada 4N halbwegs mit N3X 5nm mithalten kann, allein der Glaube fehlt mir.
Dural
2022-08-11, 14:22:20
Die Kommentare hier mal wieder, da kann man sich echt nur noch an den Kopf langen.
AMD ist ein Börsen notiertes Unternehmen, es ist ihre Pflicht so viel Gewinn wie möglich zu erwirtschaften.
Die Verkaufspreise richten sich ausser bei ganz wenigen Ausnahmen alleine am Markt aus, sprich was die Kunden bereit sind dafür zu zahlen.
Bei AMD Grafikkarten ist der Markt bei weitem nicht bereit so viel zu bezahlen wie bei den Gegenstücken von Nvidia, dies hat diverse Gründe...
Positiv ist das Nvidia deutlich mehr Grafikkarten als der Markt aktuell verlangt und auch klar mehr als AMD ausliefern kann, das drückt die Preis bei den GeForce Modellen und indirekt auch die AMD Preise.
ZomBy7
2022-08-11, 14:29:01
Nvidia ist einfach überheblich und zu gierig und hat mit der billigen 8nm Fertigung versucht über Marketing die Chips überteuert zu verkaufen.
Der Markt ist zwar Dumm, aber eben nicht ganz dumm. Auch der Versuch über DLSS die Präzision bzw. Qualität zu senken und damit den V-RAM Verbrauch zu sparen ist halt nicht ganz gelungen.
In den verbreiteten Massen-Auflösungen 1080p und 1440p ist AMD klar vorne. Da hat sich einfach Qualität, bessere Fertigung, bessere uArch, mehr VRAM und besserer Takt durchgesetzt.
Das sind alles objektive Kriterien am Markt.
Klar hat/hatte Nvidia viel Kredit Aufgrund der Marktführung, unsaubere Geschäftspraktiken und Manipulation der Marktteilnehmern.
Das Konzept klappt auch nur so lange wie die Marktteilnehmer keine bzw. wenig Ahnung haben. Dass AMD nun vorbei zieht, überrascht mich nicht. Qualität setzt sich doch durch.
Nicht dass Nvidia jetzt super schlecht ist, Nein, die sind gut, aber gegen die Entwicklung der Navi-uArch sieht Nvidia einfach kein Land.
Dass Huang die Gaming-Sparte nun fallen lässt, ist für mich eine große Enttäuschung. Er hat einfach zu viel Fokus auf Nebenschauplätze gelegt (Auto, KI, DataCenter).
Hoffe wirklich dass Ada 4N halbwegs mit N3X 5nm mithalten kann, allein der Glaube fehlt mir.
AMD ist wie Nvidia oder Intel ein börsennotiertes Unternehmen und da gehts darum Wachstum/Gewinn vorzuweisen. Man hat bei der 5000er Ryzen Serie genau gesehen, wie sie ihre Margen vergrößert haben.
Sorry aber man sollte von keiner Firma ein Fanboy sein, die wollen alle nur dein Geld.
BlacKi
2022-08-11, 14:58:48
ab und zu mal zu lachen tut auch ganz gut:biggrin:
davidzo
2022-08-11, 18:00:41
Ja, Vinacis ist immer mal wieder für ein bisschen Fremdschämen gut :biggrin:
Meiner Meinung nach, könnte Nvidia wirklich darauf setzen die Preise human zu gestalten.
Sie haben nähmlich für die aktuelle Marktsituation viel zu viel Wafer letztes Jahr eingekauft.
Also könnte man den Umsatz eher über die Masse und einer verringerten Marge erzielen.
Muss man ja gar nicht. Die 3070 wäre für die aktuellen 550-600€ eine super Karte wäre da nicht das 8GB Manko.
Sie ist die effizienteste Ampee-Karte und damit beinahe auf RDNA2 Niveau und auch leistungsmäßig absolut konkurrenzfähig zur RX6800.
Mit einer 16GB Karte könnte man die Verkäufe ankurbeln auch ohne die Verkaufspreise senken zu müssen.
Eine 16GB GA104 Karte würde ich sogar ohne mit der Wimper zu zucken einer RTX3080 10GB vorziehen und ich nehme an viele andere hier im Forum und draußen an den Rundfunkempfangsgeräten auch.
Zossel
2022-08-11, 19:00:47
AMD ist ein Börsen notiertes Unternehmen, es ist ihre Pflicht so viel Gewinn wie möglich zu erwirtschaften.
Wurde eigentlich schon mal deswegen jemand verknackt?
Wieviel Jahre gesiebte Luft bekommt man dafür?
prinz_valium_2
2022-08-11, 23:04:33
Wurde eigentlich schon mal deswegen jemand verknackt?
Wieviel Jahre gesiebte Luft bekommt man dafür?
Nö. Und so viel wie möglich ist halt immer so eine Sache.
Das ist definitiv zu absolut. Du kannst so viel wie möglich machen und dir damit z.B. den Markt kaputt.
Zossel
2022-08-12, 07:15:08
Nö. Und so viel wie möglich ist halt immer so eine Sache.
Das ist definitiv zu absolut. Du kannst so viel wie möglich machen und dir damit z.B. den Markt kaputt.
Wurde den wenigstens schon mal jemand angeklagt?
Dieser Chef von Intel der seinen Schwanz nicht in der Hose lassen konnte wäre doch ein klarer und profitabler Fall.
Gipsel
2022-08-12, 08:01:12
Wurde eigentlich schon mal deswegen jemand verknackt?
Wieviel Jahre gesiebte Luft bekommt man dafür?Man wird gefeuert und verliert seinen gut bezahlten Managerjob. Und man kann zivilrechtlich (auf Schadensersatz) verklagt werden. Nicht für Alles benötigt es eine strafrechtliche Drohung, um für eine entsprechende Motivation zu sorgen. ;)
Thunderburne
2022-08-12, 08:09:39
Z.B. wenn Kunden aufgrund einer etwaigen Inflation einfach keine teuren Grafikkarten kaufen? :freak:
1+1=2 und so...
Bin da völlig bei dir bis auf einen sehr gut betuchten Teil der am Anfang zuschlagen wird !
Spätestens Nach Weinachten sollte es abflachen vielleicht noch davor. AMD bringt ja auch noch eine Top Karte den wird es wohl genauso ergehen !
Die werden es zwar mit hohen Preisen versuchen wo dann die Early Birds mit Kohle noch zuschlagen was ein kleiner Teil sein sollte.
Danach werden es die Hardwarehersteller schwer haben hier in Europa zu diesen Konditionen Hardware zu verkaufen!
Gruss
Zossel
2022-08-12, 09:08:07
Man wird gefeuert und verliert seinen gut bezahlten Managerjob. Und man kann zivilrechtlich (auf Schadensersatz) verklagt werden. Nicht für Alles benötigt es eine strafrechtliche Drohung, um für eine entsprechende Motivation zu sorgen. ;)
Also ist das kein besonderes Alleinstellungsmerkmal einer AG?
Gipsel
2022-08-12, 09:46:48
Also ist das kein besonderes Alleinstellungsmerkmal einer AG?Nun, Du bist den Gesellschaftern der Firma verpflichtet. Bei einer AG sind das dummerweise ein paar mehr, die da auf die Idee kommen könnten, daß Du einen schlechten Job gemacht hast (und dann klagen könnten [insbesondere in den USA]). Sicher kannst Du Dich auf den Standpunkt stellen, daß dies nur einen graduellen Unterschied ausmacht. Aber das führt normalerweise zu einem etwas höheren Druck auf die Führungsebene des Unternehmens, um die Erwartungen der Aktionäre zu erfüllen. Das wird dann quasi in die Organisation eingebaut und sozusagen institutionalisiert. Aber damit sind wir dann schon ziemlich Offtopic.
Thunderburne
2022-08-12, 10:09:08
https://wccftech.com/nvidia-reportedly-assists-its-aibs-with-ampere-stock-through-price-drops-to-make-room-for-rtx-40-gpus/
Linmoum
2022-08-12, 10:23:39
Wo das Geld zuletzt liegen blieb, zeigen die Details des Quartalsberichts. Stets ist von hohen Inventarbeständen zu lesen, bei Asus gibt es diese Angaben auch im Detail. Binnen eines Jahres stieg der Wert des Inventarbestandes um 59 Prozent an, Waren im Wert von 206 Milliarden New Taiwan Dollar, umgerechnet rund 6,9 Milliarden US-Dollar, hat Asus sprichwörtlich „im Lager zu liegen“. Die sogenannten Days of Inventory stieg von 114 Tagen im gleichen Zeitraum des Vorjahres auf 180 Tage an.
https://www.computerbase.de/2022-08/asus-quartalsbericht-die-talsohle-fuer-uns-ist-bereits-durchschritten/
Das ist echt heftig und der Großteil dürfte voll mit Ampere sein. Das kriegst du auch niemals in ~2 Monaten auch nur ansatzweise bereinigt. Nvidia wird den AiB wahrscheinlich noch ein paar wenige Wochen geben und dann trotzdem launchen. Müssen die halt zusehen, wie sie damit klarkommen. Nvidia macht's dann halt einfach wieder wie schon damals bei der 1060.
davidzo
2022-08-12, 10:29:59
https://www.computerbase.de/2022-08/asus-quartalsbericht-die-talsohle-fuer-uns-ist-bereits-durchschritten/
Das ist echt heftig und der Großteil dürfte voll mit Ampere sein. Das kriegst du auch niemals in ~2 Monaten auch nur ansatzweise bereinigt. Nvidia wird den AiB wahrscheinlich noch ein paar wenige Wochen geben und dann trotzdem launchen. Müssen die halt zusehen, wie sie damit klarkommen. Nvidia macht's dann halt einfach wieder wie schon damals bei der 1060.
Sind eher 6 Monate.
Die Karten wo Nvidia einfach nur abwartet sind ja GA104 und GA106 basiert. Der Ersatz dafür wird erst in 2023 gelauncht.
Und bei GA102 ist kein großes problem den in 2 Monaten los zu werden. EInerseits ist der channel schon leergefegt wie manche sagen und außerdem kann die Stocks bereits jetzt Nvidia zurückgeben und in AD102 Vorbestellungen umwandeln.
Ich frage mich nur was Nvidia mit den ganzen zurückgegebenen Chips macht. Quadros, mining editions, cloud gaming wie geforce now?
Es ist aber erfreulich dass der Preiskampf nun endlich im midrange losgeht.
Bisher waren nur der Highendmarkt erschwinglich geworden, midrange immer noch oberhalb der MSRPs.
Für die meisten User ist es immer noch eine schlechte Preislage weil du eine 3070 vor 2 Jahren schon für 499$ kaufen konntest und du jetzt immer noch über 550$ dafür bezahlst.
Platos
2022-08-12, 11:38:54
Ja, die Preise sollten jetzt eig. bei 550 für eine 3080 sein und nicht für eine 3070. Normales Modell versteht sich, kein Krüppelmodell.
Ailuros
2022-08-12, 13:01:31
Sind eher 6 Monate.
Die Karten wo Nvidia einfach nur abwartet sind ja GA104 und GA106 basiert. Der Ersatz dafür wird erst in 2023 gelauncht.
Und bei GA102 ist kein großes problem den in 2 Monaten los zu werden. EInerseits ist der channel schon leergefegt wie manche sagen und außerdem kann die Stocks bereits jetzt Nvidia zurückgeben und in AD102 Vorbestellungen umwandeln.
Ich frage mich nur was Nvidia mit den ganzen zurückgegebenen Chips macht. Quadros, mining editions, cloud gaming wie geforce now?
Es ist aber erfreulich dass der Preiskampf nun endlich im midrange losgeht.
Bisher waren nur der Highendmarkt erschwinglich geworden, midrange immer noch oberhalb der MSRPs.
Für die meisten User ist es immer noch eine schlechte Preislage weil du eine 3070 vor 2 Jahren schon für 499$ kaufen konntest und du jetzt immer noch über 550$ dafür bezahlst.
Ist zwar total OT aber die letzte high end GPU die ich gekauft habe war die 8800GTX (G80) fuer irgendwo um die 650 EUR damals. Wenn man bedenkt was heute eine high end GeForce kostet....ich glaube zwar schon dass sich die Preise bis auf einen Punkt in absehbarer Zukunft senken werden, aber so "billig" wie damals werden wir wohl leider keine (neue) high end GPU mehr sehen.
Gott1337
2022-08-12, 13:11:06
Ist zwar total OT aber die letzte high end GPU die ich gekauft habe war die 8800GTX (G80) fuer irgendwo um die 650 EUR damals. Wenn man bedenkt was heute eine high end GeForce kostet....ich glaube zwar schon dass sich die Preise bis auf einen Punkt in absehbarer Zukunft senken werden, aber so "billig" wie damals werden wir wohl leider keine (neue) high end GPU mehr sehen.
heutzutage wäre die auch nicht mehr Highend mit 480mm² und 150W TDP. die haben eben noch mehr Modelle oben drauf gepackt.
Tesseract
2022-08-12, 13:18:43
so ist es. einer der hauptgründe für die überlegenheit der 8800GTX damals war die tatsache, dass die karte eine komplexitätsklasse (TDP, chipgröße, dual slot) eingeführt hat die es davor in dieser form einfach nicht gab und seitdem ist die welt nicht stehen geblieben. die 8800GTX ist nach heutigen maßstäben kein high-end sondern mid-range.
Ailuros
2022-08-12, 13:33:10
heutzutage wäre die auch nicht mehr Highend mit 480mm² und 150W TDP. die haben eben noch mehr Modelle oben drauf gepackt.
Schon klar; es meckerten aber damals trotz allem selbst die dickkoepfigsten NV-fans ueber die ziemlich grosse Steigerung in die area bzw. Stromverbrauch des G80. :freak:
so ist es. einer der hauptgründe für die überlegenheit der 8800GTX damals war die tatsache, dass die karte eine komplexitätsklasse (TDP, chipgröße, dual slot) eingeführt hat die es davor in dieser form einfach nicht gab und seitdem ist die welt nicht stehen geblieben. die 8800GTX ist nach heutigen maßstäben kein high-end sondern mid-range.
Lass uns mal abwarten wie es mit die area in der weniger vorhersehbaren Zukunft und chiplets aussehen wird ;)
iamthebear
2022-08-12, 15:19:37
Also es gibt Argumente, die für bzw. gegen günstige Preise sprechen.
Dafür:
.) Nvidia hat während dem Miningboom Unmengen an 5nm Kapazität bei TSMC eingekauft und auch bereits bezahlt. Diese können sie bei fallendem Markt nicht wieder zurückgeben. Und im Gegensatz zu VRAM oder dem Rest der BOM Kits kann man die Kapazitäten nicht einfach auf Lager legen. Da muss man Chips produzieren, die am Ende der Generation nur mehr die Hälfte wert sind.
.) AMD dürfte mit RDNA3 den Konkurrenzdruck deutlich erhöhen, da diese nun mehr Kapazität haben. Mit ihrer Fehlkalkulation beim VRAM haben sie sich mit RDNA2 ja ziemlich ins Aus geschossen.
Dagegen:
.) Nvidia steht unter Druck den Gewinn vom Vorjahr zu halten. Die Antwort auf einen einbrechenden Markt ist hier eine Preiserhöhung. Das war zumindest nach dem Miningcrash 2018 bei Turing so.
.) Das gesamte Lineup hat bereits eine Namensänderung bekommen: Der stark beschnittene 600mm² war war vorher die 3080, nun die 4090. Der 400mm² Die war vorher die 3070 nun die 4080. Der 300mm² Die war vorher die 3060 nun die 4070 usw.
Die macht Nvidia wohl kaum zum Spaß sondern deshalb weil die Preise eben mit den Namen um eine Stufe mitrutschen nur dass der Shitstorm nicht so groß ist wenn die 800 Euro Karte 4080 statt 4070 heißt.
.) Es gibt mehr VRAM, jedoch kostet dieser pro GB immer noch dasselbe bzw. sogar mehr als Ende 2020. Die 16GB der 4080 alleine verhindern schon konkurrenzfähige Preise.
.) Nvidia ist langfristig sowieso nicht mehr auf die Gamingsparte angewiesen. Hier wird die Kuh gemolken solange sie noch Milch gibt.
Ich frage mich nur ob AI nicht auch ein Blase ist, die irgendwann einmal platzen wird. Es wird Unmengen an Forschung betrieben an echtem Nutzen hat man noch vergleichsweise wenig gesehen.
amdfanuwe
2022-08-12, 15:35:50
Weiter dagegen: Inflation, Entwicklungskosten und mehr Aufwand für Speicher und Kühlung.
Das Äquivalent zu einer 970 3,5GB ab +360€ in 2014 entspräche heute eher ~800€.
DavChrFen
2022-08-12, 16:05:30
Ich glaube eher die 3xy0-Generation war eher die Ausnahme, wo der dicke Chip auch auf die 2080 durfte. Die xy80er wurde davor durchaus nur vom zweitgrößten Chip bedient. Und wir kommen nun zu dieser Nomenklatur bzw. diesem Verwenden von Chips wieder zurück.
Was ich nicht verstanden habe: Wenn die großen Chips nicht im Gaming-Markt abgenommen werden: Kann man die dann nicht in Beschleuniger-Karten stecken und an Rechenzentren verkaufen? Werden die einem nicht nach wie vor aus der Hand gerissen?
basix
2022-08-12, 16:39:30
Was ich nicht verstanden habe: Wenn die großen Chips nicht im Gaming-Markt abgenommen werden: Kann man die dann nicht in Beschleuniger-Karten stecken und an Rechenzentren verkaufen? Werden die einem nicht nach wie vor aus der Hand gerissen?
Gibt ja Quadros mit PCIe, welche man sich in Server stecken kann ;)
iamthebear
2022-08-12, 18:16:02
Weiter dagegen: Inflation, Entwicklungskosten und mehr Aufwand für Speicher und Kühlung.
Das Äquivalent zu einer 970 3,5GB ab +360€ in 2014 entspräche heute eher ~800€.
Inflation?
Wenn du dich auf die Kostenseite beziehst: Die sind im letzten Jahr alle extrem gefallen und werden es noch weiter tun jetzt wo die Chipblase platzt. Jeder hat wie der Wahnsinnige Kapazitäten erweitert aber die Nachfrage ist jetzt wieder auf vor Corona Niveau zurück.
Auf der Kundenseite: Für diejenigen, die die GPUs vom monatlichen Einkommen zahlen hat sich die Kaufkraft reduziert und nicht erhöht, da das Geld nun für andere Dinge benötigt wird.
Nur wer Geld am Kontogespart hat wird sich nun überlegen ob er einiges davon konsumiert, da langfristige Anlage sowieso nicht ohne Verlust möglich ist.
Das einzige, was man berücksichtigen muss ist der schwache Euro, deshalb vergleiche ich ja gern Dollarpreise.
Was ich nicht verstanden habe: Wenn die großen Chips nicht im Gaming-Markt abgenommen werden: Kann man die dann nicht in Beschleuniger-Karten stecken und an Rechenzentren verkaufen? Werden die einem nicht nach wie vor aus der Hand gerissen?
Welche Anwendungen hast du da im Sinn?
Eine 3080 hat:
.) Viel weniger Tensor Cores
.) Sehr viel weniger FP64 Performance
.) Sehr wenig VRAM
Das schränkt den potentiellen Kundenkreis schon ziemlich ein.
Aber das eigentliche Problem ist:
Angenommen Nvidia hat die GA102 Dies um 100$ produziert und um 250$ an die AIBs verkauft. Ein neuer AD104 kostet 50$ in der Produktion.
Nicht nur, dass sie ihre bereits von den AIB bezahlten 150$ Marge zurückgeben müssen. Sie können die ganzen GA102 Dies auch gleich um 50% abschreiben. Und sie müssen zusätzlich noch kreativ sein und sich überlegen was sie damit anstellen wollen.
BlacKi
2022-08-12, 18:43:57
ich finde die diskussion um die angeblich vollen lager unnötig. nv hat dick kohle gemacht mit dem cryptoboom. wenn die jetzt die lagerware um 50% im preis kürzen. gäbe es eine kleine delle, aber umsofrüher könnte man die profitableren ad gpus verkaufen, was dann wieder das ausgleicht. ich bezweifle das man dann mehr als 2 monate bräuchte, und man könnte die karten bis zur 4070 runter direkt mit paperlaunchen mit verfügbarkeit im okt/nov.
ich glaub es wird eine deutliche senkung geben, und dann sind die lager auch schnell leer.
r3ptil3
2022-08-12, 19:06:43
@blacki
:D
Die Analysten bei Nvidia werden das ziemlich detailliert berechnen. Daraus wird dann lediglich entschieden was die absatzstärkste Variante wäre für das Vorgehen.
Selbst wenn das heissen würde RTX 40 Mitte 2023 (natürlich unrealistisch).
Was Nvidia, selbst als Milliardenkonzern, nicht wissen konnte, ist der Niedergang von GPU-Mining. Die einzige kleine Gerechtigkeit für die Gamer-Kundschaft, nach der absoluten Shitshow dieser beiden Konzerne in den letzten beiden Jahren.
Ein "Mitleid" mit irgendwelchen Gamern oder sonst was, existiert in der Ebene einfach nicht. Wenn da irgendein Manager danach handeln würde, wäre das hochgradig unprofessionell und fahrlässig und würde vermutlich ähnliche Parallelen ziehen, zur Industriespionage der AMD Mitarbeiter, welche 2013 mit 100'000 Dokumenten zu Nvidia umgestiegen sind.
BlacKi
2022-08-12, 19:18:51
es war abzusehen das der boom abebbt. nur nicht wann, und nv musste den zug nehmen, der dip ist da auch gleich einkalkuliert. mitleid braucht man da auch nicht zu haben, die haben fette gewinne gemacht, auch mit den verkäufern braucht man kein mitleid haben, die haben auch fette gewinne gemacht, und jetzt halt der dip. da muss man durch, wenn man vorher die gewinne eingefahren hat. die aibs haben auch ihre gewinne gemacht, versuchen sich jetzt rauszureden, die wussten als allererstes wann die next gen kommt, und mussten das ende des cryptobooms einkalkulieren, zumal eth sowieso seit einiger zeit proof of work einstellen will.
da ist keiner unschuldig. bisschen mitleid hab ich mit intel und ihren gpus, wegen dem zeitpunkt, aber da man so wenig in den treiber investiert hat, hat das halt auch konsequenzen. das ist durchaus teils selbstverschuldet.
Thunder99
2022-08-13, 10:49:41
Selbst 700€ sind nicht wenig für eine Grafikarte.
Eine 4080 auf 320W hört sich viel besser an. Mal schauen was wirklich Nvidia macht. Die Gerüchte rund um 420W waren ja nicht ohne Grund.
Könnte mir gut vorstellen, dass sie zum Weihnachtsgeschäft die 4080 und 4070 releasen.
iamthebear
2022-08-13, 12:14:53
Was Nvidia, selbst als Milliardenkonzern, nicht wissen konnte, ist der Niedergang von GPU-Mining. Die einzige kleine Gerechtigkeit für die Gamer-Kundschaft, nach der absoluten Shitshow dieser beiden Konzerne in den letzten beiden Jahren.
War ja überhaupt nicht abzusehen, das PoS kommen würde. Ist ja nicht so, dass dies schon seit Jahren bekannt war. Selbst den Zeitplan konnte man bereits relativ gut abschätzen wenn man das technische Hintergrundwissen hatte und wöchentlich bei den öffentlichen Core Dev Meetings im Stream dabei war. Und dass 2-3 Monate vor Merge niemand mehr 2K in eine neue GPU investiert war auch klar.
Was nicht abschätzbar war ist, dass es 3 Monate vor dem Ende einen Knick der Kurse gab, der sich jedoch mittlerweile schon zur Hälfte wieder aufgelöst hat. Aber das hat etwas den Plan versaut, dass man den aktuellen Bestand noch abverkauft.
ChaosTM
2022-08-13, 12:41:24
Der Umstieg auf PoS wurde unzählige male verschoben und ob September hält ist höchst fraglich
BlacKi
2022-08-13, 12:47:16
und jetzt? crypto konnte jederzeit crashen. das wussten die immer.
ChaosTM
2022-08-13, 12:49:05
Das gleiche wie vor 5 Jahren. Jensen wird seine Aktionäre belügen, verklagt werden und sonst passiert nix :)
Gott1337
2022-08-13, 12:58:57
Das gleiche wie vor 5 Jahren. Jensen wird seine Aktionäre belügen, verklagt werden und sonst passiert nix :)
Sag uns doch mal wie viele GPUs für den Cryptomarkt "missbraucht" wurden und wie viele an die normale Kundschaft. Ich frag mich wie das irgendjemand machen will, denn nur die Retailer wissen doch an wen verkauft wird und da sind oft auch normale Kunden dabei... das sagt dir auch jeder Exporte.
iamthebear
2022-08-13, 14:04:50
Der Umstieg auf PoS wurde unzählige male verschoben und ob September hält ist höchst fraglich
Es wurde gar nichts verschoben. Das hat sich bloß die Gaming Community zusammengereimt, da sie nicht verstanden haben, was es mit der Difficulty Bomb auf sich hat bzw. wozu diese existiert. Und ja da schließe ich mich selbst auch gar nicht aus.
Ich glaube das erste Mal, dass offiziell ein Termin genannt wurde war vor ein paar Monaten die Andeutung von Buterin, dass es wenn alles ideal läuft schon im August so weit sein könnte. Unter den Core Devs wurde August als der Termin genannt, der am optimistischsten ist. An sich gab es aber nie einen konkreten Zeitplan. Es ist eben dann fertig, wenn es fertig ist.
Was den September Termin angeht:
Es wurde eine TTD fixiert. Diese wird falls die Global Hashrate auf dem jetzigen Niveau bleibt der 16.9.
Also vereinfacht gesagt: Es gibt noch x GPU Stunden Mining mit PoW, danach ist Merge mit PoS. Wenn die Hashrate steigt passiert es schneller, wenn die Hashrate fällt langsamer aber dann sind die Miner ja sowieso schon im großen Stil am GPUs verkaufen.
Der Merge ist also relativ fix. Was wir derzeit noch nicht wissen ist:
a) Ob die Miner bereits im Vorfeld ihre Karten außer Betrieb nehmen und auf Ebay stellen => dann brechen die GPU Preise schon im September zusammen
b) Ob die Miner bis zum Schluss minen und danach noch etwas brauchen und die Karten zu reinigen, testen, verpacken usw. Falls die großen Mining Farmen ein Refurbed Programm machen und über den regulären Handel vertreiben wird es sicher etwas länger dauern.
c) Ob die Gerüchte stimmen, dass alle GA102/Navi21 Karten bis Ende August ausverkauft sind und Nvidia/AMD dann gar nichts mehr nachliefern um die Preise zu stabilisieren (hat ja Nvidia beim letzten Knick im Mai auch so gemacht).
ChaosTM
2022-08-13, 14:11:23
Ich kann mich noch an den "definitiven" Start im Juni oder August erinnern.
zb.:
https://blockchainwelt.de/ethereum-2-0/roadmap/
Hat aber zum Niedergang von NV`s Verkäufen beigetragen.
So viel zu den 5 oder 10% von Jensen..
mr coffee
2022-08-13, 20:50:32
Auch wenn offtopic: auch einen fork kann ich mir vorstellen, pos und pow koexistent.
Edgecrusher86
2022-08-14, 05:26:09
Vielleicht kommt es ja auch so wie bei der 4090er, wo es Modelle mit 450W oder 600W TGP geben soll über die AIBs -> 320W oder (bis zu) 420W für die 4080er. ;)
Es wurde gar nichts verschoben. Das hat sich bloß die Gaming Community zusammengereimt, da sie nicht verstanden haben, was es mit der Difficulty Bomb auf sich hat bzw. wozu diese existiert. Und ja da schließe ich mich selbst auch gar nicht aus.
Ich glaube das erste Mal, dass offiziell ein Termin genannt wurde war vor ein paar Monaten die Andeutung von Buterin, dass es wenn alles ideal läuft schon im August so weit sein könnte. Unter den Core Devs wurde August als der Termin genannt, der am optimistischsten ist. An sich gab es aber nie einen konkreten Zeitplan. Es ist eben dann fertig, wenn es fertig ist.
Was den September Termin angeht:
Es wurde eine TTD fixiert. Diese wird falls die Global Hashrate auf dem jetzigen Niveau bleibt der 16.9.
Also vereinfacht gesagt: Es gibt noch x GPU Stunden Mining mit PoW, danach ist Merge mit PoS. Wenn die Hashrate steigt passiert es schneller, wenn die Hashrate fällt langsamer aber dann sind die Miner ja sowieso schon im großen Stil am GPUs verkaufen.
Der Merge ist also relativ fix. Was wir derzeit noch nicht wissen ist:
a) Ob die Miner bereits im Vorfeld ihre Karten außer Betrieb nehmen und auf Ebay stellen => dann brechen die GPU Preise schon im September zusammen
b) Ob die Miner bis zum Schluss minen und danach noch etwas brauchen und die Karten zu reinigen, testen, verpacken usw. Falls die großen Mining Farmen ein Refurbed Programm machen und über den regulären Handel vertreiben wird es sicher etwas länger dauern.
c) Ob die Gerüchte stimmen, dass alle GA102/Navi21 Karten bis Ende August ausverkauft sind und Nvidia/AMD dann gar nichts mehr nachliefern um die Preise zu stabilisieren (hat ja Nvidia beim letzten Knick im Mai auch so gemacht).
c ist sicherlich NVs Strategie und die werden von b überrascht werden, ausgerechnet zum Ada-Launch.
Ich kann mich noch an den "definitiven" Start im Juni oder August erinnern.
zb.:
https://blockchainwelt.de/ethereum-2-0/roadmap/
Hat aber zum Niedergang von NV`s Verkäufen beigetragen.
So viel zu den 5 oder 10% von Jensen..
die haben vor dem Mining-Hype 2B $ mit Gaming verdient und jetzt nach dem Mining auch.
Zossel
2022-08-14, 09:52:16
die haben vor dem Mining-Hype 2B $ mit Gaming verdient und jetzt nach dem Mining auch.
Es wird Zeit das sich Organisationen wie "Ende Gelände" und "Extinction Rebellion" mal Miningfarmen vornehmen, neulich wurde in der Presse von Miningfarmen berichtet die 1GW elektrische Leistung verbraten.
=Floi=
2022-08-14, 13:34:47
du versteht es ja selbst nicht.
ja, am besten alles vebieten. :facepalm:
robbitop
2022-08-14, 13:48:18
Naja es ist schon krasse Energie- und Ressourcenverschwendung. Wenn das komplett basierend auf regenerativen Energien, die extra dafür gebaut werden (und man damit nicht grüne kWh anderen weg nimmt) und zwar im Inselbetrieb - dann wäre das kein soo großes Problem für die Umwelt.
Platos
2022-08-14, 15:54:12
Ja, dann nur riesen Ressourcenverbauch und Umweltbelastung. Erneuerbare Energien sind ja bekanntlich Auswirkungsneutral...
davidzo
2022-08-14, 17:13:59
Es wird Zeit das sich Organisationen wie "Ende Gelände" und "Extinction Rebellion" mal Miningfarmen vornehmen, neulich wurde in der Presse von Miningfarmen berichtet die 1GW elektrische Leistung verbraten.
+1
Ich freue mich andererseits auch schon auf die Schwemme an 1080tis, 2080s, RX580, Vega etc. karten die gerade reinkommt und bald endlich auf vernünftigem preisniveau sein wird.
Werde nicht auf Lovelace warten sondern bei so etwas zuschlagen. Eine 1080ti oder 2080 für den HauptPC sowie eine R9 nano, rx580 oder Vega56 fürs Akitio thunder am Macbook. Ohne das Mining davor gäbe es jetzt nicht soviele gebrauchtkarten. Spätestens gegen Jahresende its Polaris auf 50€, Vega bei knapp 100€ angelangt.
Platos
2022-08-14, 17:21:23
Gegen unten hin wars (meistens) schon immer besser, gebraucht zu kaufen, weil die alten grossen Modelle oftmals (irgendeines davon) viel Speicher hatent und nunmal durch das Alter günstig waren/sind. Einzig mit DLSS macht man natürlich minus, wenn man sich was vor Turing holt.
Wenn man aber was für 4k braucht, dann muss man eig. schon mindestens ne 3080 Perfomance haben (wenns bissche halten soll), und da gibts ja diese Generation nicht viel Speicher (AMD hat noch scheiss RT Perfomance). D.h für die folgende Generation kommt eig. nur ne neue Karte in Frage für 4k, ausser man könnte ne 3090 abstauben für 500, aber das ist eher unwahrscheinlich.
Es wird Zeit das sich Organisationen wie "Ende Gelände" und "Extinction Rebellion" mal Miningfarmen vornehmen, neulich wurde in der Presse von Miningfarmen berichtet die 1GW elektrische Leistung verbraten.
Da kannste lange warten, da diese "Organisationen" schlichtweg nicht unabhängig sind.
Mit PoS ist der Großteil des Miningbedarfs erst mal weg. Das sollte doch die Lage auch für die Energie etwas entspannen hier und da.
iamthebear
2022-08-14, 18:39:41
Gegen unten hin wars (meistens) schon immer besser, gebraucht zu kaufen, weil die alten grossen Modelle oftmals (irgendeines davon) viel Speicher hatent und nunmal durch das Alter günstig waren/sind. Einzig mit DLSS macht man natürlich minus, wenn man sich was vor Turing holt.
Also ich spüre mit meiner 1070 Ti das Alter schon sehr deutlich:
Kein DLSS (erst ab Turing)
Kein GSync compatible über HDMI (erst ab Turing)
Kein NIS es sei denn man verzichtet auf HDR (erst ab Turing)
Kein 4K120 4:4:4 (kam mit Ampere)
Kein HDMI 2.1 VRR (kam mit Ampere)
Und das ist lediglich der heutige Stand. Wer weiß was da mit zukünftigen Treiberupdates noch kommt (bzw. nicht mehr kommt).
Einmal abgesehen davon: Wenn ich eine gebrauchte GPU kaufe, die 5 Jahre in einem Mining Rig gesteckt ist und das ohne Garantie bzw. veraltetem Featureset dann muss diese schon deutlich günstiger sein aber aktuell sehe ich zwischen Neu und Gebrauchtmarkt noch nicht viel Unterschied.
Wenn man aber was für 4k braucht, dann muss man eig. schon mindestens ne 3080 Perfomance haben (wenns bissche halten soll), und da gibts ja diese Generation nicht viel Speicher (AMD hat noch scheiss RT Perfomance). D.h für die folgende Generation kommt eig. nur ne neue Karte in Frage für 4k, ausser man könnte ne 3090 abstauben für 500, aber das ist eher unwahrscheinlich.
Also ich habe mich geistig schon auf eine 4080 oder entsprechendes AMD Äquivalent eingestellt. Da will ich ehrlich gesagt nicht viel darunter gehen. Ich habe ehrlich gesagt nicht viel Lust wieder 400 Euro in eine Übergangskarte zu ballern wenn am Horizont keine Besserung in Sicht ist.
Thunder99
2022-08-14, 19:16:54
Ich hätte ggf eine 1080Ti (auf Titan Niveau) abzugeben wenn die 4080 Einzug hält :D
Wenig im Verhältnis zum Alter gelaufen. Kein Mining betrieben :)
Thunderburne
2022-08-14, 20:07:44
https://www.nvidia.com/gtc/keynote/?ncid=afm-chs-44270&ranMID=44270&ranEAID=a1LgFw09t88&ranSiteID=a1LgFw09t88-gP7h6x28K662hAZi0.NoQA
Ein bisschen über einen Monat noch dann sind wir schlauer!
Linmoum
2022-08-14, 20:16:04
AI. Robotics. Virtual worlds. See how we’re turning science fiction into reality—today.
Wieso erwartest du da Ada? ;) Kann man quasi ausschließen. Wird entweder die Gamescom wie bei Turing oder eine gesonderte Vorstellung wie bei Ampere aus Jensens "Küche".
prinz_valium_2
2022-08-14, 20:35:28
https://www.nvidia.com/gtc/keynote/?ncid=afm-chs-44270&ranMID=44270&ranEAID=a1LgFw09t88&ranSiteID=a1LgFw09t88-gP7h6x28K662hAZi0.NoQA
Ein bisschen über einen Monat noch dann sind wir schlauer!
Ist die Frage, ob es nur Architektur Infos gibt, oder auch die Gamer GPUs vorgestellt werden.
BlacKi
2022-08-14, 21:43:37
ich glaub nicht, das man
AI. Robotics. Virtual worlds. See how we’re turning science fiction into reality—today.
in den vordergrund stellt, und dann die vorstellung mit gamer gpus torpediert.
vl mit einem nebensatz zu h100, im großen und ganzen wird man aber beim topic bleiben.
bbott
2022-08-14, 23:14:16
Naja es ist schon krasse Energie- und Ressourcenverschwendung. Wenn das komplett basierend auf regenerativen Energien, die extra dafür gebaut werden (und man damit nicht grüne kWh anderen weg nimmt) und zwar im Inselbetrieb - dann wäre das kein soo großes Problem für die Umwelt.
Privat Jets, highend Grafikkarten uvm. auch.
iamthebear
2022-08-15, 01:11:46
Wieso erwartest du da Ada? ;) Kann man quasi ausschließen. Wird entweder die Gamescom wie bei Turing oder eine gesonderte Vorstellung wie bei Ampere aus Jensens "Küche".
Die Gamescon ist noch im August. Da würde man sich ja ordentlich in Bein schießen wenn man noch massenweise GA102 verkaufen will.
Wie ich Nvidia kenne werden sie bei der neuen Generation wieder irgendeinen unrealistischen UVP zusammenlügen und der normale Durchschnittskäufer ist dann gehyped und glaubt, dass er die neuen Karten um den Preis auch bekommt. Spätestens dann vermodern die alten GA102 Karten dann im Regal.
Ich denke dass man exakt bis zum PoS Merge wartet. Bis dahin versucht man noch die alten Karten zu verdrehen und ab dann kündigt man die neue Generation an, um zu verhindern, dass sich die Kunden eine gebrauchte Miningkarte holen.
Einen Livestream aus Jensens Küche erwarte ich zwar nicht (das war nur acorona Ersatzprogramm) aber ich denke man wird relativ kurzfristig eine eigene Vorstellung ansetzen.
=Floi=
2022-08-15, 02:42:35
Naja es ist schon krasse Energie- und Ressourcenverschwendung. Wenn das komplett basierend auf regenerativen Energien, die extra dafür gebaut werden (und man damit nicht grüne kWh anderen weg nimmt) und zwar im Inselbetrieb - dann wäre das kein soo großes Problem für die Umwelt.
Was ist denn keine energieverschwendung?! Selbst ne glühbirne leuchet wahrscheinlich nicht mal 10% ihrer zeit sinnvoll als lichtquelle und könnte ansonsten ausgeschaltet bleiben. Wir beleuchten unsere nächte mit gigantischen energiemengen.
Das ganze zocken ist nur unterhaltung und man nutzt energie im leben wahrscheinlich nicht mal zu 1% sinnvoll. E Bikes sind bestimmt auch total grün, wenn das große geschäft auf leasing basiert und die akkus auch nicht länger als ~5 jahre (saisons!) ihren dienst sinnvoll verrichten werden.
Die ganzen windkraftanlagen waren bisher auch nur auf ~20 jahre ausgelegt. Hier müsste man mal ansetzen diese 30-40 jahre nutzbar zu machen.
Auch halte ich es noch immer für utopie in unserem land damit 100% der energie pro jahr erzeugen zu können.
Es zählt nebenbei auch der erzeugerpreis!
Hier sollte man mal über zwei ecken denken.
Ich will garnicht an handys mit 2 jahren lebenszeit denken und bei den gigabyte 980tis gingen sehr viele modelle nach ~2,5 jahren kaputt.
Die karten müssten alle mind. 5 jahre laufen. Die hersteller geben nicht umsonst nur 2 jahre garantie.
Mehr FPS limiter in games würden auch zum energiesparen beitragen. (vsync macht selbst mit gsync oft probleme) Die ganze branche interessiert es nicht und im einfachsten game braucht man 250fps bei 350watt. Wo auch 60fps mit 100 watt reichen.
----
NV sollte endlich wieder genug vram verbauen, damit die karten auch länger als 3 jahre mit ihrer power nutzbar bleiben.
Ich hoffe noch immer auf eine richtig gute generation. Irgendwie ist die warterei darauf komisch.
robbitop
2022-08-15, 07:32:37
Privat Jets, highend Grafikkarten uvm. auch.
Whataboutism ist nie ein gutes Argument.
Immerhin bieten obige Dinge noch Nutzwert. Der Jet bringt Leute von A nach B. Grafikkarten stellen Spiele dar, an denen die Leute Spaß haben.
Aber Miningfarmen die auf dem Höhepunkt weltweit kumuliert den Leistungsbedarf einer ganzen Volkswirtschaft darstellen: das ist ein neues Level an Energie und Ressourcenverschwendung. Und es wird kein Nutzwert generiert. Es ist einfach nur Verbrennung.
Hast du nen Knall? Ein Privatjet, der eine superreiche Person von a nach b bringt ist keine Ressourcenverschwendung? Mining ist für Cryptowährungen halt notwendig, Ether verschwendet bis jetzt aber Rechenleistung. Und jetzt? So eine unsinnige Unterscheidung. Energieverschwendung ist Energieverschwendung, egal, ob einer mit nem eigenen Jet fliegt oder Ether zu viel Strom verbraucht. Und das mag dir nicht passen, aber Cryptowährungen haben ihren Sinn und Zweck.
robbitop
2022-08-15, 08:03:46
Bitte genauer lesen. Ich habe nicht geschrieben es sei keine Ressourcenverschwendung. Es ist natürlich auch Ressourcenverschwendung. Aber immerhin bringt es noch etwas Nutzwert. Ich bin kein Freund davon. Aber wie gesagt geht es nicht um whataboutism.
Mining ginge mit PoS auch effizienter und außerdem ist es noch fraglich, ob wir Crypto überhaupt brauchen.
Fehlt es an Leseverständnis? Ich habe nicht geschrieben es sei keine Ressourcenverschwendung. Es ist natürlich auch Ressourcenverschwendung. Aber immerhin bringt es noch etwas Nutzwert. Ich bin kein Freund davon. Aber wie gesagt geht es nicht um whataboutism.
whataboutism ist irrelevant. Auch Cryptowährungen haben einen Nutzen.
robbitop
2022-08-15, 08:06:12
Praktischen Nutzen? Bis dato verschwindend gering.
Und wie gesagt: whataboutism ist kein gültiges Argument.
PrinceGSC
2022-08-15, 08:16:49
Gehts hier noch um Nvidias Grafikkarten oder sollen wir den Thread umbenennen?
Mangel76
2022-08-15, 08:22:51
whataboutism ist irrelevant. Auch Cryptowährungen haben einen Nutzen.
Bisher nur als Spekulationsobjekt. Wie wurde es kürzlich bezeichnet: Ralley für Trottel. Ein paar Leute haben echt Kohle damit gemacht, wenn sie den Absprung nicht verpasst haben. Aber dahinter steckt halt nichts reales. Es funktioniert nur, solange Menschen daran glauben. Oder halt so gierig sind und investieren. Der Hauptvorteil - keine zentrale Kraft dahinter wie eine Notenbank - ist gleichzeitig die größte Gefahr dabei.
Exxtreme
2022-08-15, 08:35:23
Bisher nur als Spekulationsobjekt.
So ziemlich alles, was gekauft/verkauft wird ist ein Spekulationsobjekt. Selbst das Brötchen beim Bäcker.
BlacKi
2022-08-15, 10:02:05
videocardz verteilt das gerücht, das man die 3080 12gb produktion wieder anwirft. sind sie karten etwa wieder leer?^^
So ziemlich alles, was gekauft/verkauft wird ist ein Spekulationsobjekt. Selbst das Brötchen beim Bäcker.not true...
Mangel76
2022-08-15, 10:22:13
So ziemlich alles, was gekauft/verkauft wird ist ein Spekulationsobjekt. Selbst das Brötchen beim Bäcker.
Da hast du etwas falsch verstanden. Nur weil Spekulanten mit vielen Dingen handeln, werden diese nicht zum reinen Spekulationsobjekt. Ihnen wohnt ein gewisser Wert inne, wie etwa das Brötchen, das den Hunger stillen kann. Bei Währungen steht eine Notenbank dahinter, bei Cryptos steht und fällt alles mit dem Vertrauen der Menschen. Ist das Vertrauen verloren, gibt es gar keinen Wert mehr. Klar gibt es auch bei Währungen Schwankungen und auch mal drastische Abwertungen. Solange die Volatilität der Cryptos auf diesem Niveau bleibt, ist es reines Spekulationsobjekt, denn vernünftig lässt sich damit nicht wirtschaften.
Exxtreme
2022-08-15, 10:38:48
Da hast du etwas falsch verstanden. Nur weil Spekulanten mit vielen Dingen handeln, werden diese nicht zum reinen Spekulationsobjekt. Ihnen wohnt ein gewisser Wert inne, wie etwa das Brötchen, das den Hunger stillen kann. Bei Währungen steht eine Notenbank dahinter, bei Cryptos steht und fällt alles mit dem Vertrauen der Menschen. Ist das Vertrauen verloren, gibt es gar keinen Wert mehr. Klar gibt es auch bei Währungen Schwankungen und auch mal drastische Abwertungen. Solange die Volatilität der Cryptos auf diesem Niveau bleibt, ist es reines Spekulationsobjekt, denn vernünftig lässt sich damit nicht wirtschaften.
Bei Cryptos steht die dafür eingesetzte Energie ala Strom dahinter. Und auch die benötigte Hardware ist da eingepreist.
Und nein, ich bin absolut kein Crypto-Freund. Aber andere Wirtschaftsgüter sind nicht weniger Spekulationsobjekte als Cryptos.
not true...
Ich fürchte doch. Auch der Geschäftsführer einer Bäckerei spekuliert drauf, dass er die Brötchen mit Gewinn verkaufen kann.
videocardz verteilt das gerücht, das man die 3080 12gb produktion wieder anwirft. sind sie karten etwa wieder leer?^^
Die werden einfach gemerkt haben, dass sich die 10GB-Variante einfach viel schlechter verkauft. Ich hab ja schon öfter erwähnt, dass die Kartenhersteller eben nicht auf Teufel-komm-raus produziert haben sondern auf Beteiligungen von NV an der Misere gewartet haben. Das ist ein Zugeständnis seitens NV mMn, die bekommen halt den letzten Speicherchip zusätzlich und produzieren zum gleichen Preis die 12GB-Variante, die sich erheblich besser verkauft.
not true...
Auch wenn es euch nicht gefällt ist Spekulation auch wichtig für die Wirtschaft; die Pauschalisierungen, die (vor allem oft von preudo-linker Seite) kommen, sind oft einfach an der Realität vorbei. Aber Cryptowährungen spielen längst auch abseits der Spekulation eine wichtige Rolle in der Weltwirtschaft, mit zunehmendem Maße im sich abzeichnenden Höhepunkt der jetzigen Wirtschaftskrise, die 2007 begann. Ich halte die "Kritik" meist für unreflektiertes Gebashe von Leuten, die sich damit nicht beschäftigen. Kritik ist natürlich sehr wichtig und einige Cryptos werden sicher auch wieder verschwinden, der Stromverbrauch von PoW bei Ether war inakzeptabel, keine Frage. Gut gedacht und aus dem Ruder gelaufen.
robbitop
2022-08-15, 10:52:12
Welche wesentliche Rolle spielen Cryptos heute in der Weltwirtschaft?
internationale Handelserleichterungen, Versicherungen usw. Die ganze Finanzwirtschaft wird davon profitieren. Wir sind ja grad erst in den Anfängen. Ether soll auch ne erhebliche Rolle in den aufkommenden Zentralbankcryptos spielen, mal sehen wie sich das noch entwickelt. Aber nur Spekulationen (welche i.Ü. auch schon ein Grund selbst sind) ist falsch. So fing das an, aber so geht das nicht weiter ;).
i.Ü. kann man auch mit anderen Währungen spekulieren und das wird auch gemacht :D.
robbitop
2022-08-15, 11:01:58
internationale Handelserleichterungen, Versicherungen usw. Die ganze Finanzwirtschaft wird davon profitieren. Wir sind ja grad erst in den Anfängen. Ether soll auch ne erhebliche Rolle in den aufkommenden Zentralbankcryptos spielen, mal sehen wie sich das noch entwickelt. Aber nur Spekulationen (welche i.Ü. auch schon ein Grund selbst sind) ist falsch.
Du hast geschrieben, es hat großen Einfluss auf die Weltwirtschaft. Präsens.
Aber Cryptowährungen spielen längst auch abseits der Spekulation eine wichtige Rolle in der Weltwirtschaft,
Und das ist eben zweifelhaft. Was dubeschreibst sind potenzielle Anwendungsfälle, die sich durchsetzen können aber nicht müssen. Kann aber nicht muss. Also hat es praktisch gar keinen Einfluss aktuell. Das blöde ist, dass super viele Anwendungsfälle der Blockchain auch ohne Blockchain funktionieren. Crypto kann sich durchsetzen, muss aber nicht. Eine praktische und wesentliche Auswirkung auf die Weltwirtschaft aktuell sehe ich da nicht.
Ah die Goldwaage, lächerlich. Wir sprechen so in 1-2 Jahren wieder bei Ether, dann wirds tonnenweise Produkte geben auf Ether-Basis. Unter anderen will die Axa Versicherungen auf Ether-Basis anbieten. Und Bitcoin ist ne Währung die auch als solche schon engesetzt wird.
robbitop
2022-08-15, 11:23:50
Aha. Du schreibst, Cryptos haben längst einen großen Einfluss ss auf die Weltwirtschaftwirtschaft und du meinst, dass es hochspekulativ einen Einfluss in einer nicht quantifizierbaren Zukunft haben kann. Und diesen gewaltigen Unterschied zwischen Fakt und Spekulation und der Hinweis darauf ist „Goldwage“? :|
Es gibt auch substanzielle Paper, die zukünftigen Erfolg von Cryptos stichhaltig anzweifeln. ZB das sehr bekannte und mit wirtschaftswissenschaftlichen Substanz hinterlegte von Nassim Taleb.
„Alles kann, nichts muss.“ Es ist nichts entschieden und klar absehbar. Es hängt massiv davon ab, wie sich das Vertrauen in Cryptos entwickelt und welche Restriktionen seitens wesentlicher Staaten dem ganzen auferlegt werden mögen.
Sich da jetzt hinzustellen mit „du wirst schon sehen“ - ich finde darauf trifft eher das Attribut „lächerlich“ zu. ;)
robbitop
2022-08-15, 11:29:04
Ah die Goldwaage, lächerlich. Wir sprechen so in 1-2 Jahren wieder bei Ether, dann wirds tonnenweise Produkte geben auf Ether-Basis. Unter anderen will die Axa Versicherungen auf Ether-Basis anbieten. Und Bitcoin ist ne Währung die auch als solche schon engesetzt wird.
Schön, dass du deinen Post fast komplett umschreibst. Ursprünglich war es nur „Goldwaage. Lächerlich“
Trotzdem alles nur „kann“ und „will“. Wo in der Präsens eine wesentliche(!!) Umsetzung und Einfluss einer Kryptowährung vorliegt, die einen wesentlichen Einfluss auf die Weltwirtschaft hat ist nicht erkennbar.
Und wie gesagt, fast alle vorgestellten Anwendungsfälle von Ether gehen auch ganz hervorragend ohne. Alles nur Spekulation.
Du implizierst, dass cryptos überflüssig sind und nur Storm verbrauchen und das ist schlichtweg falsch, um mal wieder auf den Kern zurückzukommen.
robbitop
2022-08-15, 11:37:47
Und wieder kein Leseverständnis. Ich sage nur aktuell ist das nicht der Fall dass Cryptos einen signifikanten sinnvollen Einfluss haben. Was zukünftig ist, weiß niemand mit Bestimmtheit. Da kann sich die Situation ändern. Aber noch ist es offen.
Aber wenn Mining dann bitte energieeffizient und grün um die Schäden auf unseren Planeten zu minimieren. Davon haben wir nämlich nur den einen.
Platos
2022-08-15, 11:39:31
Mining wird nie effizient sein, auch nicht mit Proof of Stake.
Genau, mining kostet halt Strom und es kommt einfach darauf an, wie man den produziert und was man als "grün" definiert. Und du hast sehr wohl immer wieder impliziert wie überflüssig du das Mining findest robbi.
Gott1337
2022-08-15, 14:40:17
Du implizierst, dass cryptos überflüssig sind und nur Storm verbrauchen und das ist schlichtweg falsch, um mal wieder auf den Kern zurückzukommen.
offtopic und doch. cryptos sind überflüssig weil sie keinen Mehrwert in der Wirtschaftskette erzeugen. Ende damit
Meridian12
2022-08-15, 14:45:10
Ach, wieder im Mining Thread gelandet. Ich geh mal den Lovelace Karten Thread suchen....
Bei AMD wurde ja bekannt, dass offenbar einige alte Zöpfe abgeschnitten werden. Bin mal gepannt ob das bei NV auch auffällt. Ich denke mal, dass Ada ein starker technischer Sprung wird.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.