Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)
The_Invisible
2025-01-30, 08:57:03
Das ist lediglich eine CRC (noch nicht mal FEC) des Übertragungskanals über einen RAM-Burst, ansonsten müssten ja die zusätzlichen redundanten Bits auch irgendwo gespeichert sein.
https://www.mouser.lt/pdfDocs/tned03_gddr6-4.pdf
Tja Nvidia nennt es ECC, kannst dich ja dort beschweren ;)
Zossel
2025-01-30, 09:07:58
Tja Nvidia nennt es ECC, kannst dich ja dort beschweren ;)
Hersteller von Duschgels erzählen seit Jahrzehnten das man mit deren Zeug beim anderen Geschlecht besser landet.
Blase
2025-01-30, 09:13:55
Hersteller von Duschgels erzählen seit Jahrzehnten das man mit deren Zeug beim anderen Geschlecht besser landet.
Kannst das Duschgel ja mal weglassen und schauen was passiert... ;)
MfG Blase
Nimm den Shice nicht ernst.
Du, und wir alle, werden von allen Seiten damit beballert, dass die Verfügbarkeit morgen äußerst knapp sein wird.
Was meinst du also, was morgen sein wird? :wink:
Wenn ich die Erfahrung der letzten beiden Male nehme, konnte ich im Shop immer eine ergattern. Du weißt ja aber immer nicht, ob die Leute tatsächlich immer bekloppter werden und doch dann - obwohl noch teurer - immer mehr Leute davon angezogen werden.
Das Ding kann nicht schneller werden wenn sie 5080 verkaufen wollen.
Die 70TI verkauft sich über 16GB Vram welchen man für RT braucht.
Mich haben Sie dadurch. 16 GB und DLSS ist für mich mittlerweile genauso wichtig, sorry AMD. Wenn DLSS offen für AMD und Intel wäre würde die Welt anders aussehen. Ach und mein Limit bei ca. 200 Watt ist jetzt wohl für immer auch Geschichte...früher war doch alles besser :wink:.
Zossel
2025-01-30, 10:54:26
Kannst das Duschgel ja mal weglassen und schauen was passiert... ;)
MfG Blase
Die Evolution hat da sehr gute Mechanismen entwickelt:
https://www.aerzteblatt.de/nachrichten/51683/Richtiger-Riecher-bei-der-Partnerwahl-als-Grundlage-fuer-gesunde-Kinder
https://www.welt.de/wissenschaft/article104013603/Partnerwahl-Der-betoerende-Duft-des-Immunsystems.html
Tesseract
2025-01-30, 11:01:18
hat eigentlich irgendjemand hardware scheduling on/off getestet? blackwell macht ja mehr on-chip, vielleicht liegt das etwas seltsame verhalten in manchen situationen daran vs 9800X3D mit dem meist getestet wurde.
Ich schätze man wird einiges verschlankt und substituiert haben, daher auch die ganzen Grafikfehler bei vielen Titeln. Das braucht glaube ich noch einiges an Reifezeit, bis das vernünftig läuft. Das könnte ne ganz schön disruptive Architektur sein.
ENKORE
2025-01-30, 11:47:40
Das ist lediglich eine CRC (noch nicht mal FEC) des Übertragungskanals über einen RAM-Burst, ansonsten müssten ja die zusätzlichen redundanten Bits auch irgendwo gespeichert sein.
https://www.mouser.lt/pdfDocs/tned03_gddr6-4.pdf
ECC ist bei GPUs immer in-band im Gegensatz zu CPUs. Auch bei den großen (A100 etc.) kannst du das einfach per nvidia-smi ein- und ausschalten und der einzige Effekt ist, dass dann halt etwas weniger Speicherkapazität und -bandbreite nutzbar ist. Auf das Speicherinterface oder gar die Chips hat das null Einfluss. Das Feature was du da zitierst, hat damit nichts zu tun.
Badesalz
2025-01-30, 12:11:24
Und die waren auf Anhieb ohne Bugs?Anhand der Reaktion da bezweifle ich das :wink:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13695480#post13695480
Fragman
2025-01-30, 12:18:06
Nachdem ich gestern die Videos vom 8auer und Raff geschaut hab kam mir das hier noch unter.
Die Situation mit 5080 ist tatsächlich ein Witz.
Die Kritik hat das aufgenommen und ich hoffe nv kommt damit nicht durch.
https://www.youtube.com/watch?v=ezk99o67Mh4
Hatstick
2025-01-30, 12:28:51
Habe auch das Bauer und Raff Video angeschaut, Junge ist das wenig für 2,5 Jahre. :freak:
DLSS4, MfG sind durchaus gute Features aber dafür alleine würde ja keiner Geld ausgeben.
Da kann man sich im Groben ausmalen, wie die 5070/5070Ti performen werden.
Sehr schade aber so fühlt sich selbst meine olle 6800XT echt immer noch solide an und die wird dann auch im PC bleiben, außer AMD kommt jetzt mit einer überraschend schnellen 9070XT um die Ecke für einen guten Preis.
Oder die Leute hauen ihre RTX 4090 für 400-500€ gebraucht raus, weil die RTX 5070 hat ja schon 4090 Performance. :cool:
Ne, war nix. Komplett langweilige Gen, warten auf die 6000er Reihe.
MfGx4, Hatstick
Neosix
2025-01-30, 12:49:40
Sitze hier auf meiner 4070ti, sie langt eigentlich für alles außer pathtracing. Ja ich würde gern cyberpunk in PT spielen, aber dafür fast 1200€? Ja eigentlich war der Plan, auf die 50 Generation zu gehen. Endlich keine Speicherkrücke zu haben. Aber die 16 bei der 5080 fühlen sich halt exakt genau so scheiße wie die 12 bei der 4070ti damals. Das es keine Tests vor Release gibt fühlt sich auch kacke an. Weiß nicht mal welche Modelle "gut" sind. Plus der 80 FE kühler ist trotz aussehen schlechter als bei der 90, kein flüssig Metal, vapo Chambers ect. Dachte nach Ner Nacht drüber schlafen würde ich es wissen, aber es fühlt sich halt weiter kacke an. Einziger Grund zum Wechsel ist, das ich auf meine Asus mit 1 Jahr Restgarantie noch n Taler kriege. Ohne Garantie würde ich nochmals deutlich wert verlieren... Ah kacke alles.
Gipsel
2025-01-30, 13:32:08
Kannst das Duschgel ja mal weglassen und schauen was passiert... ;)Solange Du das Duschen nicht wegläßt (sondern nur das Duschgel), geht das schon in Ordnung. ;)
rentex
2025-01-30, 13:49:51
hat eigentlich irgendjemand hardware scheduling on/off getestet? blackwell macht ja mehr on-chip, vielleicht liegt das etwas seltsame verhalten in manchen situationen daran vs 9800X3D mit dem meist getestet wurde.
Du meinst HAGS? Ja, wäre nen kurzen Durchgang, wert zu prüfen.
davidzo
2025-01-30, 14:08:12
Plus der 80 FE kühler ist trotz aussehen schlechter als bei der 90, kein flüssig Metal, vapo Chambers ect.
Echt? Würde Sinn machen weil der Kühler auf der 5080 dem hype um double flow through nicht so richtig gerecht wird. Ich hätte mit viel geringerer Lautstärke gerechnet, im Endeffekt ist man aber weiterhin auf 4080 Niveau.
Hast du eine Quelle dazu? Bei Igor wurde leider nicht zerlegt und bei der8auer auch nicht. der8auer meint aber es wäre der gleiche Kühler inkl. Flüssigmetall.
Da sie das Flüssigmetallproblem gelöst haben wäre es imo auch unlogisch wenn sie so eine relativ günstige low hanging fruit nicht einsammeln würden.
btw, Die relativ durchschnittliche bis schlechte low-noise Performance des Kühlers lässt sich auch anders erklären: In Steves Interview mit dem Lead Thermal Engineer hat der von erhöhter FPI geredet. Und in der Tat ist der Finpitch so eng wie noch nie bei Nvidia Kühlern. High FPI Designs haben mehr Backpressure. Static pressure ist direkt abhängig von der Drehzahl. Das heißt mit niedrigeren RPM ist nicht nur der Airflow entsprechend geringer, sondern an der static pressure ist auch nicht mehr ausreichend um den Strömungswiderstand des Finstacks zu überwinden. Und bei high FPI Kühlern ist dieser minimale optimale Betriebspunkt halt bei relativ hoher RPM-zahl. Bei niedriger RPM wird der Finstack wie ein Block.
Der Double Flow through Kühler hat also einen relativ geringen optimalen RPM-Bereich und skaliert schlecht mit geringer Drehzahl. Für eine flüsterleise 5080 mit average unter 300W oder gar 250W mit Undervolting, wäre ggf. ein größerer Fin Pitch besser. Weniger Oberfläche und Kühlleistung bei hoher Drehzahl als die 5090, dafür eine bessere Skalierung nach unten.
Dural
2025-01-30, 14:08:14
Der Witz bei den ganzen negativ Stimmung ist ja das die 5070 Ti wahrscheinlich sogar ein richtiger Verkaufsschlager wird:
-Massives OC Potential
-256Bit 16GB GDDR7
-Preislich noch OK
Für alles unter der 4070 Ti Super könnte das eine interessante Option sein.
Neosix
2025-01-30, 14:39:41
@davidzo
Komisch ich hab meine Info vom bayer selbst. In dem Video sagt er die Punkte auf. Warum die 80 trotz massiv kleinerem tdp nicht wirklich leiser ist. Da soll noch ein separates Video die Tage kommen, ist halt doof dass es dann nicht mehr vor Release passte. Aber kein Flüssigmetall und andere (einfachere) chamber Konstruktion hat er in seinem Video erwähnt. Zusammen mit der Tatsache dass man 2/3 tdp durch die halbe flache abführen muss. Gibt die hohen Temperaturen.
monstar-x
2025-01-30, 15:12:47
Ab wann sind die 5090 / 5080 AIB bestellbar, sehe nichts bei NB, ProShop, Alternate etc.
Nur bei Casekings, dort aber nichts lieferbar.
Die 5090er Preise! LOL
https://i.postimg.cc/jjRXj00x/OVCNan-UYBp.jpg
5080 noch mehr ROFL
https://i.postimg.cc/KjTqMP9x/x8-BQxwv-Kk-L.jpg
ashantus
2025-01-30, 15:26:51
Die 5080 Asus Astral und TUF Edition sowie 5080 MSI Supreme gibt es bei computeruniverse.
edit: gerade weg.
The_Invisible
2025-01-30, 15:29:12
Ab wann sind die 5090 / 5080 AIB bestellbar, sehe nichts bei NB, ProShop, Alternate etc.
Nur bei Casekings, dort aber nichts lieferbar.
Die 5090er Preise! LOL
https://i.postimg.cc/jjRXj00x/OVCNan-UYBp.jpg
5080 noch mehr ROFL
https://i.postimg.cc/KjTqMP9x/x8-BQxwv-Kk-L.jpg
Alza hatte 30Min 5080er zu humanen Preisen, aber alles weg
monstar-x
2025-01-30, 15:33:51
Die 5080 Asus Astral und TUF Edition sowie 5080 MSI Supreme gibt es bei computeruniverse.
edit: gerade weg.
Da hat wohl jemand zu viel Geld ;D
Alza hatte 30Min 5080er zu humanen Preisen, aber alles weg
Human, also nur 1300€ :freak:
dargo
2025-01-30, 15:36:37
Human, also nur 1300€ :freak:
Du musst das halt aus einer anderen Perspektive sehen. Im Vergleich zur einer 5090 um die 3k ist das ein Schnapper. ;)
The_Invisible
2025-01-30, 15:41:45
Da hat wohl jemand zu viel Geld ;D
Human, also nur 1300€ :freak:
Gab genug um 12xx und natürlich die höherpreisigen, aber keine um Caseking Scalperpreise... aber sowieso falscher Thread für das
Zossel
2025-01-30, 15:48:42
btw, Die relativ durchschnittliche bis schlechte low-noise Performance des Kühlers lässt sich auch anders erklären: In Steves Interview mit dem Lead Thermal Engineer hat der von erhöhter FPI geredet. Und in der Tat ist der Finpitch so eng wie noch nie bei Nvidia Kühlern. High FPI Designs haben mehr Backpressure. Static pressure ist direkt abhängig von der Drehzahl. Das heißt mit niedrigeren RPM ist nicht nur der Airflow entsprechend geringer, sondern an der static pressure ist auch nicht mehr ausreichend um den Strömungswiderstand des Finstacks zu überwinden. Und bei high FPI Kühlern ist dieser minimale optimale Betriebspunkt halt bei relativ hoher RPM-zahl. Bei niedriger RPM wird der Finstack wie ein Block.
Der Double Flow through Kühler hat also einen relativ geringen optimalen RPM-Bereich und skaliert schlecht mit geringer Drehzahl. Für eine flüsterleise 5080 mit average unter 300W oder gar 250W mit Undervolting, wäre ggf. ein größerer Fin Pitch besser. Weniger Oberfläche und Kühlleistung bei hoher Drehzahl als die 5090, dafür eine bessere Skalierung nach unten.
Ohne Marketing Foo hätte man den Inhalt mit einem 1/10 der Buchstaben rüber bringen können.
Sardaukar.nsn
2025-01-30, 15:49:16
https://webshop.asus.com/de/Grafikkarten/Nvidia-RTX-5090-RTX-5080/ASUS-Prime-GeForce-RTX-5080-OC-Edition-16GB-GDDR7-Gaming-Grafikkarte/90YV0LX0-M0NA00
The_Invisible
2025-01-30, 15:54:41
https://webshop.asus.com/de/Grafikkarten/Nvidia-RTX-5090-RTX-5080/ASUS-Prime-GeForce-RTX-5080-OC-Edition-16GB-GDDR7-Gaming-Grafikkarte/90YV0LX0-M0NA00
Hast jetzt eine 5080er bestellt? :D
Sardaukar.nsn
2025-01-30, 16:04:05
Erstmal mitgenommen, 4090 ist ja weg :freak:
Checke gerade ob der Alphacool Wasserblock passt. https://shop.alphacool.com/detail/index/sArticle/21870
Astral OC Bios drauf und ich käme schon klar: https://www.techpowerup.com/review/asus-geforce-rtx-5080-astral-oc/43.html
Monsta
2025-01-30, 17:46:05
4090 durch 5080 ersetzt.
Brillianter move.
monstar-x
2025-01-30, 17:50:21
4090 durch 5080 ersetzt.
Brillianter move.
Wieso nicht 5070 = 4090
Da kann die 5080 ja nur schneller sein :-D
OgrEGT
2025-01-30, 18:11:18
Wieso nicht 5070 = 4090
Da kann die 5080 ja nur schneller sein :-D
Mit DLSS4 und MFG3x/4x auf jeden Fall...
Schnitzl
2025-01-30, 20:27:32
4090 durch 5080 ersetzt.
Brillianter move.
besser als gar keine GPU ;)
btt: Mega Geometry und neural shaders soll ja in AW2 kommen. Gibts da noch mehr Pläne ob andere Spiele auch "upgedated" werden sollen?
Da könnte noch einiges gehn in Zukunft (will sagen der Abstand zu Ada könnte deutlich anwachsen)
Shaft
2025-01-30, 20:32:25
Der Witz bei den ganzen negativ Stimmung ist ja das die 5070 Ti wahrscheinlich sogar ein richtiger Verkaufsschlager wird:
-Massives OC Potential
-256Bit 16GB GDDR7
-Preislich noch OK
Für alles unter der 4070 Ti Super könnte das eine interessante Option sein.
Ist auch mein Kandidat. Mal sehen wo die Marktpreise hingehen werden. Ich will schon unter 1000 Euro bleiben.
monstar-x
2025-01-30, 20:35:16
Mit DLSS4 und MFG3x/4x auf jeden Fall...
Und mit 4x LossLess ist die 4090 wieder doppelt so schnell wie eine 5070 mit MFG4x
Einfach am Software Regler drehen und mehr FakeFrames generieren und schon hat man die Werte die man möchte.
Kriegsgeier
2025-01-30, 20:40:11
Krass, es gibt schon lagernde WaKü Blöcke von AlphaCool für die 5080?
Welche nutzen denn ein Referenzboard?
Kriegsgeier
2025-01-30, 20:50:19
https://webshop.asus.com/de/Grafikkarten/Nvidia-RTX-5090-RTX-5080/ASUS-Prime-GeForce-RTX-5080-OC-Edition-16GB-GDDR7-Gaming-Grafikkarte/90YV0LX0-M0NA00
Cool, berichte mal ob die Karte zum AC WaKü Block passt und wie der Spulenpfeifen ist.
Sehr guter Preis: eine RTX 5080 unter Wasser für unter 1400€!
MiamiNice
2025-01-30, 20:54:48
Erstmal mitgenommen, 4090 ist ja weg :freak:
Checke gerade ob der Alphacool Wasserblock passt. https://shop.alphacool.com/detail/index/sArticle/21870
Astral OC Bios drauf und ich käme schon klar: https://www.techpowerup.com/review/asus-geforce-rtx-5080-astral-oc/43.html
:confused:
4090 vorzeitig verticken und BW FOMO?
Dude?
Kriegsgeier
2025-01-30, 20:57:20
Finde die Kombi auch sehr geil!
Günstige 1200€ 5080 + 200€ WaKü Block
1A Kombi! Dann auf 3200MHz und man hat quasi eine 4090!
MiamiNice
2025-01-30, 20:58:34
Wenn man wie Lederjacke rechnet schon ...
[MK2]Mythos
2025-01-30, 20:59:06
Finde die Kombi auch sehr geil!
Günstige 1200€ 5080 + 200€ WaKü Block
1A Kombi! Dann auf 3200MHz und man hat quasi eine 4090!
Wolltest du nicht zwei 5090 kaufen?
Zossel
2025-01-30, 21:58:32
Günstige 1200€ 5080 + 200€ WaKü Block
200€ für ein Stück Alu welches kurz in einer CNC Maschine gelegen hat?
Für den Kurs macht dir das bestimmt ein Chinamann als Einzelstück wenn man dem die CNC-Daten hochlädt.
monstar-x
2025-01-30, 22:13:30
Jetzt macht sich Nvidia aber lächerlich!
5080/5090 vs 4070ti, ernsthaft?
Peinlicher geht es doch nicht mehr, nicht mal Intel hab ich sowas zugetraut.
https://www.pcgameshardware.de/screenshots/1280x1024/2025/01/4K-pcgh.png
https://www.pcgameshardware.de/screenshots/1280x1024/2025/01/FHD-pcgh.png
Blase
2025-01-30, 22:33:18
Jetzt macht sich Nvidia aber lächerlich!
5080/5090 vs 4070ti, ernsthaft?
Ach kommt. Aller spätestens nach der Ankündigung 5070 = 4090 war doch klar, dass die mit MFG vs. (1x)FG testen. Jetzt ziehen die das lediglich konsequent durch ;)
Wäre ja auch blöd, (M)FG (+DLSS) weg zu lassen und dann auf dem selben Chart zu sehen, dass die 5080 16.4 FPS schafft, wo die 4070Ti Super auch schon 12 FPS gebracht hat ;D
MfG Blase
MiamiNice
2025-01-30, 22:49:46
Jetzt macht sich Nvidia aber lächerlich!
5080/5090 vs 4070ti, ernsthaft?
Peinlicher geht es doch nicht mehr, nicht mal Intel hab ich sowas zugetraut.
https://www.pcgameshardware.de/screenshots/1280x1024/2025/01/4K-pcgh.png
https://www.pcgameshardware.de/screenshots/1280x1024/2025/01/FHD-pcgh.png
Ich weiß gar nicht was Du hast, die Grafik ist schonungslos ehrlich. Du musst Dir einfach nur die grauen Balken anschauen und nicht die grünen :)
Lawmachine79
2025-01-30, 22:56:33
und man hat quasi eine 4090!
Nein.
The_Invisible
2025-01-30, 23:21:46
Finde die Kombi auch sehr geil!
Günstige 1200€ 5080 + 200€ WaKü Block
1A Kombi! Dann auf 3200MHz und man hat quasi eine 4090!
Und die 8GB VRAM mehr gibts per KI :freak:
monstar-x
2025-01-31, 00:42:30
Finde die Kombi auch sehr geil!
Günstige 1200€ 5080 + 200€ WaKü Block
1A Kombi! Dann auf 3200MHz und man hat quasi eine 4090!
Man kann sich alles schön rechnen, bis die eigenen Wunschvorstellungen zu Fakten werden.
Und die 8GB VRAM mehr gibts per KI :freak:
VRAM ist überbewertet ... Frag Nvidia die werden es dir Bestätigen ;D
Sardaukar.nsn
2025-01-31, 00:58:14
4090 durch 5080 ersetzt.
Brillianter move.
Kommt auf die Preise an. Aktuell knapp 600€ im Plus bei dem Tausch. Kann ich mit leben ;)
Erstmal Overclock und Spulen checken.
monstar-x
2025-01-31, 01:01:01
Kommt auf die Preise an. Aktuell knapp 600€ im Plus bei dem Tausch. Kann ich mit leben ;)
Erstmal Overclock und Spulen checken.
Die Rechnung kommt dann beim Verkauf der 5080.
Da wird in zwei Jahren die 4090 deutlich mehr wert sein.
Aber erstmal viel Freude beim OC und rumbasteln und Testen :smile:
Kriegsgeier
2025-01-31, 05:46:28
Ja, ich will immer noch eine 5090. Dennoch, gibt es noch eine gravierende Erkenntnis nach den vielen Tasts: die 5080 haben wesentlich weniger Spulenpfeifen als die 5090ger! Und das ist wirklich wichtige Erkenntnis!
Und bei 5080 hätte ich immer noch +40% FPS oder gar mehr, da mein Monitor 3440x1440 ist ;)
Kriegsgeier
2025-01-31, 05:57:50
Eckelhaftes Pack:
https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/News/Ausverkauf-vor-dem-Verkaufsstart-1464918
Proshop hat also quasi mit den Bots gearbeitet, bzw. die Bots selbst mit den frühzeitigen Links gefüttert. Wirklich unter Aller Sau! Hoffentlich kommt es vor Gericht!
Dimon
2025-01-31, 07:25:21
4090 durch 5080 ersetzt.
Brillianter move.
Hab auch die RTX 4090 vorzeitig vertickt, jetzt hänge ich mit der RTX 3060ti ab :usad:
Jetzt überlege ich ernsthaft wieder ne RTX 4090 zu kaufen, aber gebraucht :freak:
Kriegsgeier
2025-01-31, 07:30:17
lol, das meinst du doch nicht ernst, oder?
Dimon
2025-01-31, 07:34:02
lol, das meinst du doch nicht ernst, oder?
Keine ahnung, die RTX 5080 gefällt mir irgendwie nicht, die grosse wird erst in monaten flächendeckend verfügbar sein.
Was würdest du tun? Die RTX 3060ti ist echt lahm beim rendern in UHD
dargo
2025-01-31, 07:49:24
Jetzt macht sich Nvidia aber lächerlich!
5080/5090 vs 4070ti, ernsthaft?
Peinlicher geht es doch nicht mehr, nicht mal Intel hab ich sowas zugetraut.
https://www.pcgameshardware.de/screenshots/1280x1024/2025/01/4K-pcgh.png
https://www.pcgameshardware.de/screenshots/1280x1024/2025/01/FHD-pcgh.png
:lol:
Humor haben die Grünen. ;D
Ich weiß gar nicht was Du hast, die Grafik ist schonungslos ehrlich. Du musst Dir einfach nur die grauen Balken anschauen und nicht die grünen :)
Stimmt. :uup: ;)
Sardaukar.nsn
2025-01-31, 07:52:18
@monstar-x: Danke, ich werde berichten sobald die hier eintrifft. 3,2 oder 3,2 Ghz stelle ich mir schon vor.
@Dimon Gestern wurden bei Alternate auch einige Zotac 5080 Solid für 1169€ verkauft. Das ist ein riesen Teil, fast schon Flaggschiff Größe. Vielleicht kommst du ja an sowas ran. https://www.alternate.de/ZOTAC/GeForce-RTX-5080-SOLID-Grafikkarte/html/product/100108005
k-6Dw4qsGhA
rentex
2025-01-31, 07:56:21
Jetzt muss man schon ne neue Graka, von Beginn an OCen, um den Kauf, rechtzufertigen...thats Nvidia.
Zossel
2025-01-31, 08:00:16
Proshop hat also quasi mit den Bots gearbeitet, bzw. die Bots selbst mit den frühzeitigen Links gefüttert.
Kennnst du nicht das Spiel Nummern raten?
Wirklich unter Aller Sau! Hoffentlich kommt es vor Gericht!
Wer klagt warum?
Sardaukar.nsn
2025-01-31, 08:01:44
@rentex: Ist doch nichts Neues, du kannst dir natürlich für ein paar 100€ Aufpreis ein OC Modell kaufen. Oder das eben selber einstellen.
Kriegsgeier
2025-01-31, 08:50:19
Unbedingt anschauen:
https://www.youtube.com/watch?v=wMd2WHKnceI
Einfach nur krank, wie wenig Nvidia/Partner produziert haben!
robbitop
2025-01-31, 08:53:38
Tja KI frisst alles weg. X-D
The_Invisible
2025-01-31, 08:55:49
Unbedingt anschauen:
https://www.youtube.com/watch?v=wMd2WHKnceI
Einfach nur krank, wie wenig Nvidia/Partner produziert haben!
Beste Entscheidung die 4090 mal zu behalten :freak:
Altehardware
2025-01-31, 08:56:55
Die rtx5080 ist faktisch gleich schnell wie die rtx4080 super abhängig von der api
Das einzig gute die rtx5080 hat mit den amp und ser2 potentiell geringeres cpu limit was den Vorsprung der rtx5090 erklärt
(amp = AI Management Processor)
(SER2= Shader Execution Reordering)
Während amp dafür sorgt das mit aktiven hags das die cpu entlastet wird insbesondere in dxr load ist das zweite die Auslastung der alu zuständig geht aber auch nur in dx12 ft lvl 9 10 11 =dx12_1 inklusive dx12
Bei blackwell erhöht sich wegen ser2 und amp in dx12_2 die fp32 Auslastung auf 96fp32 per sm.
Aber reduziert die Auslastung bei dx12_1 auf 80fp32 per sm vs 88fp32 was die Norm war für ada und ampere
Die Reduzierung des cpu limits hebt es sogar hervor das amp mit dx12_1 dann auf einmal deutlich schneller wird.
Darum ist die gpu load in diesen Tests auch so wichtig
natives dx9 ogl läuft mit 64fp32, natives dx11 mit 80fp32 in fallback Modus
erstere ist aber seit ampere so, letztere ist neu.
Womit die rtx5070ti kaum schneller wird als ne rtx4070ti super maxed sind hier 2-6% drin
Nur in dx12_2 faktisch dxr kann die arch überzeugen sofern das cpu limit den Nachfolger nicht ausbremst. Das maxed wäre bei der ti +24%
Bei der rtx5070 wird es sehr dunkel da hier sogar weniger alu rendern als bei der rtx4070 super bei gleichem preis hier kann die sku nur der Takt retten.
gb205 48sm vs ad104 46sm 2,7ghz
legacy +-0%
dx12_1/dx11 -6%
dx12_2 +13%
und das ist noch optimistisch wenn sf4 angewendet wird reduziert sich der Takt dann ist man maxed 5% über der rtx4070
lediglich in fällen wo die rtx4070 in cpu limits rennt profitiert die rtx5070
Und das ist nicht selten der fall
Dümmer hätte man die sku nicht planen können
ChaosTM
2025-01-31, 09:14:09
Eckelhaftes Pack:
https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/News/Ausverkauf-vor-dem-Verkaufsstart-1464918
Proshop hat also quasi mit den Bots gearbeitet, bzw. die Bots selbst mit den frühzeitigen Links gefüttert. Wirklich unter Aller Sau! Hoffentlich kommt es vor Gericht!
"Frei Marktwirtschaft" in Aktion.
Auf Willhaben.at ist eine 90er um 5k aufgetaucht von einem User namens "Greedy". Das ist wenigsten ein ehrlicher Name . :D
rentex
2025-01-31, 09:33:23
Tja KI frisst alles weg. X-D
KI frisst Hirn.
Dimon
2025-01-31, 09:40:48
Die rtx5080 ist faktisch gleich schnell wie die rtx4080 super abhängig von der api
Das einzig gute die rtx5080 hat mit den amp und ser2 potentiell geringeres cpu limit was den Vorsprung der rtx5090 erklärt
(amp = AI Management Processor)
(SER2= Shader Execution Reordering)
Während amp dafür sorgt das mit aktiven hags das die cpu entlastet wird insbesondere in dxr load ist das zweite die Auslastung der alu zuständig geht aber auch nur in dx12 ft lvl 9 10 11 =dx12_1 inklusive dx12
Bei blackwell erhöht sich wegen ser2 und amp in dx12_2 die fp32 Auslastung auf 96fp32 per sm.
Aber reduziert die Auslastung bei dx12_1 auf 80fp32 per sm vs 88fp32 was die Norm war für ada und ampere
Die Reduzierung des cpu limits hebt es sogar hervor das amp mit dx12_1 dann auf einmal deutlich schneller wird.
Darum ist die gpu load in diesen Tests auch so wichtig
natives dx9 ogl läuft mit 64fp32, natives dx11 mit 80fp32 in fallback Modus
erstere ist aber seit ampere so, letztere ist neu.
Womit die rtx5070ti kaum schneller wird als ne rtx4070ti super maxed sind hier 2-6% drin
Nur in dx12_2 faktisch dxr kann die arch überzeugen sofern das cpu limit den Nachfolger nicht ausbremst. Das maxed wäre bei der ti +24%
Bei der rtx5070 wird es sehr dunkel da hier sogar weniger alu rendern als bei der rtx4070 super bei gleichem preis hier kann die sku nur der Takt retten.
gb205 48sm vs ad104 46sm 2,7ghz
legacy +-0%
dx12_1/dx11 -6%
dx12_2 +13%
und das ist noch optimistisch wenn sf4 angewendet wird reduziert sich der Takt dann ist man maxed 5% über der rtx4070
lediglich in fällen wo die rtx4070 in cpu limits rennt profitiert die rtx5070
Und das ist nicht selten der fall
Dümmer hätte man die sku nicht planen können
Genau deswegen ja die überlegung wieder das alte teil zu holen, gibts so ab 1400 bis 1500 tacken bei Ricardo (die verrückten ab 1900 werden ignoriert)..
Alternativ warte ich einfach noch ein paar monate und schau dann was passiert, das nächste mal verkaufe ich eine GPU nicht so schnell :freak:
ChaosTM
2025-01-31, 09:40:58
KI frisst Hirn.
Das Internetz/Google haben mit der Hirnfresserei begonnen und KI`s werden es vollenden.
Das Zeug unter der Schädeldecke ist sowieso überbewertet.
dargo
2025-01-31, 09:46:57
Das Zeug unter der Schädeldecke ist sowieso überbewertet.
Nö... nur leicht manipulierbar. ;)
Virtual
2025-01-31, 09:49:11
KI frisst Hirn.
Wie wahr! Einige im Forum haben dadurch schon viel kognitiv nutzbares Volumen verloren. Ist aber schön einen Beleg zu erhalten, dass nicht nur AMD und Intel armselig abliefern können.
readonly
2025-01-31, 10:32:04
Blödsinn, ist auch nur ein Werkzeug, welches Zeit spart. Man sollte natürlich wissen, was KI kann und was nicht. Was hier manchmal an Blödsinn zu lesen ist, so schlecht kann eine KI gar nicht arbeiten.
basix
2025-01-31, 10:49:39
KI ist vor allem auch ausserhalb von LLM sehr nützlich. Und bietet zum Teil eine Qualität oder Performance, wie man sie ohne KI wohl nie erreichen würde. Sind dann auf spezifische Anwendungen getunte DNN Modelle. DLSS ist da ein für dieses Forum naheliegendes Beispiel aber im Engineerung Bereich und allgemein technischen Wissenschaften ist KI gross im kommen. Meine Arbeitswelt wird dadurch deutlich umgekrempelt werden, aber vor allem im positiven Sinne :)
Man darf auch über den Tellerrand von ChatGPT und Co. hinausschauen ;)
fondness
2025-01-31, 11:11:19
Unbedingt anschauen:
https://www.youtube.com/watch?v=wMd2WHKnceI
Einfach nur krank, wie wenig Nvidia/Partner produziert haben!
Warum sie diesen weltweiten, groß angekündigten Launch so durchgezogen haben mit näherungsweise 0 (in Worten: Null!) 5090-Karten versteht trotzdem kein Mensch.
Es gab keinen Grund, das im Jänner unbedingt launchen zu müssen. Aber ja, hätte AMD sowas abgezogen dann würde jetzt wieder das große Hickhack beginnen der üblichen Verdächtigen die jetzt ganz still sind. Wirklich ein Skandal, dass AMD den Launch der 9070 verschoben hat. ;)
Exxtreme
2025-01-31, 11:13:44
Warum sie diesen weltweiten, groß angekündigten Launch so durchgezogen haben mit näherungsweise 0 (in Worten: Null!) 5090-Karten versteht trotzdem kein Mensch.
Es gab keinen Grund, das im Jänner unbedingt launchen zu müssen.
Es gibt AFAIK keine öffentlich einsehbaren Informationen wieviele Karten produziert wurden.
fondness
2025-01-31, 11:18:22
Es gibt AFAIK keine öffentlich einsehbaren Informationen wieviele Karten produziert wurden.
Ach Exxtreme, sei doch nicht immer so übermäßig politisch korrekt. :D Es gibt nie eine öffentlich einsehbaren Information wieviele Karten produziert wurden. Wenn in sämtlichen deutschsprachigen Foren niemand eine Karte erwischt hat sagt das alles.
monstar-x
2025-01-31, 11:28:51
Beste Entscheidung die 4090 mal zu behalten :freak:
Ja, auch wenn es sich irgend wie falsch anfühlt. :|
Doch für 30% Upgrade ich nicht, da kaufe ich mir lieber einen schönen 32" OLED. Hab ich mehr von.
Hoffentlich haut die 6080/90 rein.
Warum sie diesen weltweiten, groß angekündigten Launch so durchgezogen haben mit näherungsweise 0 (in Worten: Null!) 5090-Karten versteht trotzdem kein Mensch.
Es gab keinen Grund, das im Jänner unbedingt launchen zu müssen.
Verstehe ich auch nicht. Nvidia hätte die 5000er auch im Herbst 2025 heraus beringen können und alles wäre gut, Konkurrenz gibt es nicht, von daher, sehr unverständlich, zu mindestens aus unsere Position heraus, ist ja nicht, sodass die bei Nvidia Holzöpfe sind, ganz im Gegenteil.
Dovregubben
2025-01-31, 11:31:53
Proshop hat also quasi mit den Bots gearbeitet, bzw. die Bots selbst mit den frühzeitigen Links gefüttert. Wirklich unter Aller Sau! Hoffentlich kommt es vor Gericht!
Das ist ähnlich zu der sehr starken Häufung von Scalper-Angeboten um den Alternate Standort rum, der eigentlich im nirgendwo liegt.
Einerseits ekelhaft, andererseits kann ich die Mitarbeiter auch ein stückweit verstehen. Rechtlich ist es halt dunkle Grauzone.
Exxtreme
2025-01-31, 11:33:12
Ach Exxtreme, sei doch nicht immer so übermäßig politisch korrekt. :D Es gibt nie eine öffentlich einsehbaren Information wieviele Karten produziert wurden. Wenn in sämtlichen deutschsprachigen Foren niemand eine Karte erwischt hat sagt das alles.
Es gibt noch andere Erklärungen warum das so ist:
Die Chinesen haben fast alles über Umwege weggekauft, die Ware ist auf Frachtschiffen und die brauchen einige Wochen von Taiwan in die EU etc.
fondness
2025-01-31, 11:33:45
Einerseits ekelhaft, andererseits kann ich die Mitarbeiter auch ein stückweit verstehen. Rechtlich ist es halt dunkle Grauzone.
Wollte ich gerade sagen. Wenn ich selbst die Möglichkeit hätte durch den Shop bei dem ich arbeite an eine 5090 zu kommen und ich weiß dadurch natürlich auch, dass es kaum Karten gibt, dann würde ich es auch tun. Die Leute verdienen eh nichts. Das Problem ist, dass es kaum Karten gab.
ChaosTM
2025-01-31, 11:35:43
Es gibt noch andere Erklärungen warum das so ist:
Die Chinesen haben fast alles über Umwege weggekauft, die Ware ist auf Frachtschiffen und die brauchen einige Wochen von Taiwan in die EU etc.
Denke ich auch, obwohl die angeblich mittlerweile verstärkt mit auf Huawai Chips basierenden ASICs arbeiten sollen. So viele Gerüchte..
Bin mal gespannt wie lange meine Kiste grafikkartenlos ist. Letztes Mal gabs zumindest noch die iGPU - das ging zwei Wochen lang erstaunlich gut. Jetzt mitm Apex ist natürlich sense... bissl RAM-Stabilitätstests per RDP "spielen", thats it xD
Hat jemand im Raum München noch ne olle Grafikkarte in der Schublade die UEFI-bootfähig ist und DP/HDMI hat?
fondness
2025-01-31, 11:38:09
Es gibt noch andere Erklärungen warum das so ist:
Die Chinesen haben fast alles über Umwege weggekauft, die Ware ist auf Frachtschiffen und die brauchen einige Wochen von Taiwan in die EU etc.
So oder so hätten sie den Launch verschieben müssen wenn es keine Karten gibt in den Shops.
Exxtreme
2025-01-31, 11:40:23
So oder so hätten sie den Launch verschieben müssen wenn es keine Karten gibt in den Shops.
Man verschiebt keinen Produktstart wenn es nicht unbedingt nötig ist. Das gibt nämlich schlechte PR. Schau mal was für Häme AMD abbekommt weil sie RDNA4 verschoben haben obwohl etliche Karten bereits bei Händlern liegen.
fondness
2025-01-31, 11:42:40
Man verschiebt keinen Produktstart wenn es nicht unbedingt nötig ist. Das gibt nämlich schlechte PR. Schau mal was für Häme AMD abbekommt weil sie RDNA4 verschoben haben obwohl etliche Karten bereits bei Händlern liegen.
Man launcht auch kein Produkt wenn man keine Karten hat. ;)
Vielleicht hat AMD sogar aus diesem Grund verschoben, wer weiß. Nur weil 5 Händler weltweit ein paar Karten haben sagt das ja nichts über die Liefersituation aus.
Angheblich gibts ja nen Exklusivdeal mit Samsung für Speicher und angeblich sind die Karten wegen der Liefersituation des Speichers so extrem knapp.
dargo
2025-01-31, 12:24:40
Und das wusste man erst am 30.01? Ja nee ist klar. :D
rentex
2025-01-31, 12:49:07
Angheblich gibts ja nen Exklusivdeal mit Samsung für Speicher und angeblich sind die Karten wegen der Liefersituation des Speichers so extrem knapp.
Den NV wohl langsam bereut...bei HBM3e brennt deswegen die Bude bei Samsung.
monstar-x
2025-01-31, 12:56:01
Bin mal gespannt wie lange meine Kiste grafikkartenlos ist. Letztes Mal gabs zumindest noch die iGPU - das ging zwei Wochen lang erstaunlich gut. Jetzt mitm Apex ist natürlich sense... bissl RAM-Stabilitätstests per RDP "spielen", thats it xD
Hat jemand im Raum München noch ne olle Grafikkarte in der Schublade die UEFI-bootfähig ist und DP/HDMI hat?
Buch dir doch einen 2-3 Monate GeForce Now Unlimited.
Wenn die Internetleitung gut ist, funktioniert das erstaunlich gut.
Dimon
2025-01-31, 12:57:05
Angheblich gibts ja nen Exklusivdeal mit Samsung für Speicher und angeblich sind die Karten wegen der Liefersituation des Speichers so extrem knapp.
Weiss man da mehr was es mit dem exlusivdeal auf sich hat?
Exxtreme
2025-01-31, 13:07:55
Ja, Nvidia und Samsung sind sich anscheinend nicht grün derzeit. Angeblich hat Samsung viel mehr versprochen als sie liefern können. Bin gespannt ob NV dagegen klagt.
Sardaukar.nsn
2025-01-31, 13:33:25
Buch dir doch einen 2-3 Monate GeForce Now Unlimited.
Wenn die Internetleitung gut ist, funktioniert das erstaunlich gut.
Läuft sogar zusammen mit dem günstigen X-Box GamePass, also IndianaJones konnte ich da über Feiertage mit Gamepad prima spielen. Ist auf jeden Fall ne Alternative für so Übergänge.
Bei der 5090 gibt es wohl auch ein ziemliches Powerlimit. Hier im Overclock.net thematisiert. Bei harter Raytracing/Pathtracing Last knickt die auf deutlich unter 2Ghz ein, weil einfach Strom fehlt. Eigentlich bräuchte der dicke Chip zwei Stromanschlüsse und 800W Powerlimit. https://www.overclock.net/threads/official-nvidia-rtx-5090-owners-club.1814246/page-112?post_id=29421555#post-29421555
Buch dir doch einen 2-3 Monate GeForce Now Unlimited.
Wenn die Internetleitung gut ist, funktioniert das erstaunlich gut.
Ich will nicht zocken (bzw. nichts was es da gibt). Aber mal ins UEFI booten wäre nicht schlecht :biggrin:
Zossel
2025-01-31, 13:48:24
Das ist ähnlich zu der sehr starken Häufung von Scalper-Angeboten um den Alternate Standort rum, der eigentlich im nirgendwo liegt.
Einerseits ekelhaft, andererseits kann ich die Mitarbeiter auch ein stückweit verstehen. Rechtlich ist es halt dunkle Grauzone.
Naja, bei Autos gibt es schon ewig Werkswagen.
Zossel
2025-01-31, 13:52:41
Beste Entscheidung die 4090 mal zu behalten :freak:
Warum sollte man die überhaupt verkaufen wenn man noch keine neue hat?
x-force
2025-01-31, 14:08:36
Ja, Nvidia und Samsung sind sich anscheinend nicht grün derzeit. Angeblich hat Samsung viel mehr versprochen als sie liefern können. Bin gespannt ob NV dagegen klagt.
die haben es nicht anders verdient.
es war vorher klar, dass samsungs prozesse und speicher nicht top sind.
vollkommen unsinnig nicht zu micron,hynix und tsmc zu gehen.
Exxtreme
2025-01-31, 14:11:11
vollkommen unsinnig nicht zu micron,hynix und tsmc zu gehen.
Möglicherweise hatten Micron und Hynix keinen produktionsreifen GDDR7-Speicher.
rentex
2025-01-31, 14:25:28
Warum sollte man die überhaupt verkaufen wenn man noch keine neue hat?
Falsch kalkuliert und dazu gegen die damalige Nachrichtenlage...
ChaosTM
2025-01-31, 15:04:14
S8bXRDzC-Yg
kurzer Ausblick auf die Gaming Laptops. Das wird noch zäher als im Desktop Bereich
dargo
2025-01-31, 15:12:00
Wie? Es geht noch schlechter? X-D
basix
2025-01-31, 15:21:22
24/16GB für 5090 & 5080 Mobile sind schön. Nur 60 SM für die 5080 ist weniger schön und die 5070 mit GB206 und 8GB ist ein Witz. War die 4070 auch schon aber +2 Jahre noch mehr.
Die neuen Blackwell Features sind allenfalls schön hinsichtlich Energieffizienz abseits vom Gaming. Wie viel dabei rauskommt wird sich noch zeigen.
Hinsichtlich Gaming-Performance und Energieffizienz ist es mehr oder minder ein Stillstand. Für MFG wird bei einer 5070 oftmals die Grundperformance mangeln. Auf 5080/5090 vermutlich brauchbar, aber auch dort wird es wohl eher knapp.
Warum sollte man die überhaupt verkaufen wenn man noch keine neue hat?
Weil ich mich von der CES 2025 Vorstellung habe blenden lassen, daß eine 5070 genauso schnell ist wie die 4090, da ich noch die Vorstellung der 4080 gegen die 3090 im Kopf hatte, wo es tatsächlich ja auch so war. Mein Fehler, kommt nicht mehr wieder vor.
BTW immer noch keine Bestätigung von NBB.
Kriegsgeier
2025-01-31, 16:48:43
https://www.pcgameshardware.de/Geforce-RTX-5090-Grafikkarte-281029/News/Ausverkauf-vor-dem-Verkaufsstart-1464918/#a3
Hoffentlich wird PCGH auch US-Hardwareblogger drauf aufmerksam machen!
x-force
2025-01-31, 17:40:07
Möglicherweise hatten Micron und Hynix keinen produktionsreifen GDDR7-Speicher.
dann nimmt man halt 6x, ist ja nicht so, dass die bandbreite in irgendeinem szenario durchschlagen würde.
...wenns der controller aber nicht kann...
The_Invisible
2025-01-31, 18:46:03
dann nimmt man halt 6x, ist ja nicht so, dass die bandbreite in irgendeinem szenario durchschlagen würde.
Für AI ist wichtig, und bei manchen spielen wie cp2077 Raster scheint es schon was zu bringen
mczak
2025-01-31, 20:20:29
...wenns der controller aber nicht kann...
Ist das bekannt ob der auch gddr6x kann oder bloss gddr7 und gddr6?
Ich würde aber vermuten das war einfach keine Option - wenn die Chips wirklich merkbar schneller wären wäre gleich schneller Speicher wie letzte Generation wohl nicht so tragisch aber so würde dann Performance-mässig quasi gar nichts mehr übrig bleiben. (Jedenfalls bei der 5080, die 5090 wäre immer noch schneller aber beim Flaggschiff möchte man wohl definitiv nicht auf alten Speicher setzen.)
Exxtreme
2025-01-31, 20:22:32
dann nimmt man halt 6x, ist ja nicht so, dass die bandbreite in irgendeinem szenario durchschlagen würde.
Die RTX 4090 klebt an der Bandbreite GDDR6X wäre wohl zu langsam.
basix
2025-01-31, 20:28:28
Die 4090? Nö. Die kleineren Karten haben relativ zur Performance weniger Bandbreite.
Exxtreme
2025-01-31, 20:29:53
Die 4090? Nö. Die kleineren Karten haben relativ zur Performance weniger Bandbreite.
Trotzdem erhöht das Übertakten des Speichers die Performance signifikant. Ergo klebt die RTX 4090 an Bandbreite.
basix
2025-01-31, 21:03:04
Latenz ist dir bekannt? ;)
Aber du darfst mir gerne erklären, wieso eine 4080 mit 672GB/s nur 1.33x Abstand zur 4090 hat, welche 1.5x mehr Bandbreite und einen grösseren L2$ hat. Oder eine 4070 Ti mit 504GB/s und 67% L2$ nur 1.66x Abstand zur 4090 hat. Alles jeweils in 4K.
Zossel
2025-01-31, 22:35:30
Falsch kalkuliert und dazu gegen die damalige Nachrichtenlage...
Ich verstehe es immer noch nicht.
reaperrr
2025-01-31, 23:05:38
dann nimmt man halt 6x, ist ja nicht so, dass die bandbreite in irgendeinem szenario durchschlagen würde.
Wenn schon die 4070 teilweise auf G6 umgestellt werden musste, weil nicht mehr genug 6x da war, deutet das mMn darauf hin, dass Micron die Produktion bereits seit längerem runtergefahren hat.
Exxtreme
2025-01-31, 23:23:24
Aber du darfst mir gerne erklären, wieso eine 4080 mit 672GB/s nur 1.33x Abstand zur 4090 hat, welche 1.5x mehr Bandbreite und einen grösseren L2$ hat. Oder eine 4070 Ti mit 504GB/s und 67% L2$ nur 1.66x Abstand zur 4090 hat. Alles jeweils in 4K.
Mit Pathtracing ist die RTX 4090 ~42% schneller als eine RTX 4080S. Das schlägt sehr wohl durch.
monstar-x
2025-02-01, 01:34:08
Ich hatte etwas Zeit und war neugierig auf die neue DLSS 4 mit Frame Generation (die vorherige Version aus DLSS 3.5 hat mir nicht gefallen, viel zu hohe Latenzen und laggy).
Mein Testsystem: RTX 4090, 128 GB DDR5 RAM und ein i9-14900K, und ein 4K 165 Hz Monitor.
Ich habe Alan Wake 2, Cyberpunk 2077, Hogwarts Legacy und Star Wars getestet und was soll ich sagen? Solange die Basis-Framerate über 50–60 FPS liegt, bemerke ich keinen Input-Lag. Das Bild wirkt ruhiger, es gibt kein Tearing oder Artefakte bei schnellen Schwenks, das hätte ich ehrlich gesagt nicht erwartet. Tatsächlich fühlt sich Alan Wake 2 mit FG deutlich flüssiger, stabiler und damit besser an als Nativ (habe ich das gerade wirklich gesagt?!).
PCGH hat dazu heute einen sehr guten Blindtest veröffentlicht (danke an Raff!).
Fazit: Alle fanden MFG 4× am besten – das hat mich wirklich erstaunt. Deshalb habe ich meinen eigenen Test durchgeführt.
Vielleicht liegt Sardaukar.nsn mit seiner Annahme gar nicht so falsch: Wenn die RTX 5080 auf 3200 MHz übertaktet werden kann (was wohl bei allen der Fall sein soll), dann liegt sie eigentlich nur noch 10–15 % hinter einer nicht übertakteten RTX 4090.
So viel dazu.
Das lässt dann natürlich sofort die Graumasse nachdenken, für meine 4090 könnte ich noch rund 1.800 € bekommen, während die FE 5080 bei 1.200 € und eine Custom-Version bei etwa 1.400 € liegt.
Da ich meine 4090 überwiegend ohnehin nur mit 0,9 V betreibe (ca. 80 % Leistung), wäre ein Wechsel eine Überlegung wert.
Allerdings bin ich kein VRAM Experte, sodass ich den VRAM-Verbrauch für die nächsten 2–4 Jahre schwer einschätzen kann, ob die 16GB hier limitieren werden.
Die Zweite Frage ist, die man nur beantworten kann bei einer direkten Gegenüberstellung fühlt sich nur die 4090 mit 2x FG so gut an weil diese >50 FPS Basis oder wäre die 5080 mit OC@3200 ausreichend.
Tjo, Nvidia lässt uns wieder keine Wahl, als uns zwischen zwei Extremen zu entscheiden. Eine RTX 5080 Ti mit 24 GiB wäre optimal. Ich würde meine RTX 4090 jedenfalls nicht gegen eine RTX 5080 eintauschen – weil ich DL-DSR zu geil finde. Und in 6K werden 16 GiB öfter eng als man denkt. Wer das nicht nutzt, kann aber sicher zwei Jahre mit 16 GiB "überleben". Die RTX 5080 ist insgesamt besser als ihr Ruf, die Leute sind einfach enttäuscht.
MfG
Raff
monstar-x
2025-02-01, 02:04:37
Tjo, Nvidia lässt uns wieder keine Wahl, als uns zwischen zwei Extremen zu entscheiden. Eine RTX 5080 Ti mit 24 GiB wäre optimal. Ich würde meine RTX 4090 jedenfalls nicht gegen eine RTX 5080 eintauschen – weil ich DL-DSR zu geil finde. Und in 6K werden 16 GiB öfter eng als man denkt. Wer das nicht nutzt, kann aber sicher zwei Jahre mit 16 GiB "überleben". Die RTX 5080 ist insgesamt besser als ihr Ruf, die Leute sind einfach enttäuscht.
MfG
Raff
Raff,da ist dein Tagesrythmus aber ganz schön durcheinander :smile:
Ne, dass du deine 4090 nicht gegen eine 5080 tauscht ist mir klar, du holst dir einfach die 5090 :biggrin:
Ich nutzte kein 6K, eigentlich nur 4K DLSS mit Quality/Balanced.
Aber danke für deine Empfehlung.
Was sagen die anderen GPU Fachmänner im Thread dazu, und
PS: Schaut euch unbedingt das Video von PCGH an
-NJwauuMefo
horn 12
2025-02-01, 02:54:04
Nun, würde mit 4090 weiter Überleben
und erst wenn Spätherbst, Winter womöglich vor Vorstellung Rubin eine 5080 TI 24GB kaufen
aber diese wird dann wohl mehr Takt und bei 400 bis 420 Watt liegen!
Habe 7900 XTX und jene 24GB und würde ungern gegen eine 9070 XT 16 GB tauschen
ausser jene ist gleich schnell im Raster und FSR 4.0 bleibt RDNA 4 vorenthalten,- was ich nicht denke
Habe erst gerade eben wieder 480 Euro in den Sand gesetzt!
Relex
2025-02-01, 03:43:52
Tjo, Nvidia lässt uns wieder keine Wahl, als uns zwischen zwei Extremen zu entscheiden. Eine RTX 5080 Ti mit 24 GiB wäre optimal. Ich würde meine RTX 4090 jedenfalls nicht gegen eine RTX 5080 eintauschen – weil ich DL-DSR zu geil finde. Und in 6K werden 16 GiB öfter eng als man denkt. Wer das nicht nutzt, kann aber sicher zwei Jahre mit 16 GiB "überleben". Die RTX 5080 ist insgesamt besser als ihr Ruf, die Leute sind einfach enttäuscht.
MfG
Raff
Er spricht ja davon, wegen MFG zu kaufen und Frame Gen wird in 6K viel zu teuer. Der performancehit auf die Basisframerate wird dann einfach zu hoch.
Zumal Downsampling mit Transformer Model K ziemlich sinnfrei wird. Kann schon sein, dass gegenüber DLSS oder DLAA hier und da nochmal irgend was sauberer geglättet wird, dafür zeichnet das neue Model das Bild aber so fein, dass man mit einem DL-DSR Pass aufgrund des krummen Skalierungsfaktors effektiv viel mehr Unschärfe ins Bild bekommt, als ohne. Die ganzen feinen Texturdetails die das Transformer model herausarbeitet sind dann futsch.
Bei DLSS3 war die DL-DSR unschärfe noch geringer im verhältnis zur temporalen Unschärfe von DLSS in Bewegung. Aber mit DLSS4 kippt das ganze. Das einzig „sinnvolle“ wäre mMn nur noch klassisches 4x DSR.
Unabhängig davon würde ich eine 4090 aber auch nicht gegen eine 5080 tauschen. Also ich schon, wegen Stromverbrauch, aber ganz allgemein würde ich mehr Rohleistung höher bewerten, als FPS über MFG.
Denn wenn die Basis Framerate mal zu niedrig wird, dann ist es egal ob 2x oder 4x FG, fühlt sich dann beides schlecht an.
Sardaukar.nsn
2025-02-01, 04:06:47
Also ich tausche die 4090 gegen eine 5080. Nach über zwei Jahren mit der 4090 hab ich diese gefühlt irgendwie "durchgespielt" und freue mich jetzt auf neues Spielzeug. Hat zudem aber auch kaufmännische Gründe. Gebrauchte 4090 erzielen aktuell noch Rekordpreise und ich konnte eine 5080 zum MSRP Preis bestellen. Macht in meinem Fall knapp 600€ Plus.
Ich freue mich aufs Overclocking der 5080 und versuche grob auf 90% der Leistung einer 4090 zu kommen. Mal sehen ob das gelingt. Angepeilt sind 4K/120FPS und falls es die 5080 nicht schafft, muss es halt DLSS bzw. (M)FG rausholen.
Man hätte natürlich auch 4090 behalten können, aber das wäre ja zu einfach gewesen.
Slipknot79
2025-02-01, 04:35:50
Macht in meinem Fall knapp 600€ Plus.
Warum bin ich nicht schon früher auf diese Idee gekommen. Ich kaufe mir 1500 Stk 4090 und verkaufe sie zum Einkaufspreis.
Kaufe mir dann 1500 Stk 5080 und mache je Karte "600€ Plus". Ergibt 900k EUR (y)
Lambo schon vorbestellt, Job bereits gekündigt. (y)
Not.
Was die 5080 kosten wird, wirst du erst dann sehen wenn du sie verkaufen wirst, z.B. in 2,5 Jahren. Der Wertverlust wird ziemlich sicher größer sein als er für die 4090 war (wenn überhaupt), da die 6090 wieder halbwegs dick auftragen wird, alleine schon wegen dem node-Sprung.
Mit der 6090 werden alle Vorgänger-Generationen finanziell abgewertet. Bin auch schon gespannt, was meine 4090 kosten wird. Ich rechne mit 1000EUR (Einkauf 1965EUR minus Verkauf ~965EUR), für 5 Jahre ist das zu verkraften. (y)
Kriegsgeier
2025-02-01, 07:24:37
Unser guter Jensen Huang hat nun ein Großes Problem: muss ins weiße Haus zum Trump. Hat wohl viel zu viel Chips über Singapur nach China verkauft und damit DeepSeek hochgezogen!
https://www.youtube.com/watch?v=BZ_zkm7xOwg
dargo
2025-02-01, 07:56:10
Ich habe Alan Wake 2, Cyberpunk 2077, Hogwarts Legacy und Star Wars getestet und was soll ich sagen? Solange die Basis-Framerate über 50–60 FPS liegt, bemerke ich keinen Input-Lag.
Dann kannst du dich glücklich schätzen. :) Vergiss dabei aber nicht, dass jede FG-Stufe deine Basis-Frames verringert.
PS: Schaut euch unbedingt das Video von PCGH an
https://youtu.be/-NJwauuMefo
Schon witzig... DLSS_Q schliert für den einen Typen nur noch und vor kurzem was das noch in diesem Forum das non plus ultra. ;D Aber cooler Blindtest wieder. :up:
ChaosTM
2025-02-01, 08:00:48
Dann kannst du dich glücklich schätzen. :) Vergiss dabei aber nicht, dass jede FG-Stufe deine Basis-Frames verringert.
Mfg ist keine Basisbildratendieb !
Nur die ausgegebenen Bilder werden mehr :D
+ die Relation ändert sich natürlich - daher das M in MFG ..
Zossel
2025-02-01, 08:01:20
Unser guter Jensen Huang hat nun ein Großes Problem: muss ins weiße Haus zum Trump. Hat wohl viel zu viel Chips über Singapur nach China verkauft und damit DeepSeek hochgezogen!
https://www.youtube.com/watch?v=BZ_zkm7xOwg
Die anderen Tec-Bros mussten ja schon mehrfach öffentlich im zum rektalen ranschleimen antreten, jetzt ist Lederjacke dran.
Ob AMD heute so was wie im Anhang noch mal wagen würde?
dargo
2025-02-01, 08:09:57
Mfg ist keine Basisbildratendieb !
Nur die ausgegebenen Bilder werden mehr :D
Dann bist du falsch informiert.
B_fGlVqKs1k
Edit:
Ab ~17:00.
ChaosTM
2025-02-01, 08:14:40
Sag mir wenigstens wo ich das ca. finde. Hab jetzt keinen Bock mir ein 33min Video nochmals anzusehen. Kannst auch Spoilern - wie viele Basis-FPS werden geklaut 1%, 2% ?
Hab ich noch nie gehört, was allerdings wenig sagt. Ich muss jetzt zum Zug.
Gouvernator
2025-02-01, 08:18:42
Unser guter Jensen Huang hat nun ein Großes Problem: muss ins weiße Haus zum Trump. Hat wohl viel zu viel Chips über Singapur nach China verkauft und damit DeepSeek hochgezogen!
https://www.youtube.com/watch?v=BZ_zkm7xOwg
Jensen hat zuletzt gezeigt auf welcher Seite er steht. Hat demonstrativ Witze auf chinesisch gerissen und so. Auch seine "D" Aktionen wo die Specs bis auf den letzten Bit hochgezogen sind, haben einen starken Beigeschmack von Verhöhung der USA. :D.
Aber was Trump jetzt will , ist das Scalper-Jensen mehr Grafikkarten für den US-Markt liegen lässt. DeepSeek ist doch nur ein Vorwand im Kampf um knappe GPUs.
Zossel
2025-02-01, 08:25:17
Mfg ist keine Basisbildratendieb !
Nur die ausgegebenen Bilder werden mehr :D
Der Kram braucht keine elektrische Leistung/Energie?
woodsdog
2025-02-01, 08:26:13
Sag mir wenigstens wo ich das ca. finde. Hab jetzt keinen Bock mir ein 33min Video nochmals anzusehen. Kannst auch Spoilern - wie viele Basis-FPS werden geklaut 1%, 2% ?
Hab ich noch nie gehört, was allerdings wenig sagt. Ich muss jetzt zum Zug.
bei den einzigen Balken im Video die ich nach ca 3 Sekunden auf der Timeline gefunden hatte... ab minute 17 auf die unteren schauen, dunkelblau.
Darüber hinaus hast du das video vermutlich nicht wirklich geschaut denn das ist eine der Kernaussagen.
Zossel
2025-02-01, 08:28:33
ist das Scalper-Jensen mehr Grafikkarten
Und das alles nur wegen einem Internetshop mit vorhersagbaren Zahlen.
Man wundert sich schon das ausgerechnet Computermenschen so eine billige Nummer nicht erkennen, und daraus eine VT machen.
Sind demnächst Chemtrails schuld wenn Spiele ruckeln?
x-force
2025-02-01, 08:29:53
Wenn schon die 4070 teilweise auf G6 umgestellt werden musste, weil nicht mehr genug 6x da war, deutet das mMn darauf hin, dass Micron die Produktion bereits seit längerem runtergefahren hat.
der größte star am tech himmel hat leider keinen draht zu micron, ne andere sprache sprechen sie dort wohl auch.
außerdem machen sie bei micron grundsätzlich immer worauf sie bock haben, egal was die kunden wollen.
:freak:
es wurde umgestellt, weil es biliger ist und man die 4070 bei realease nicht noch mehr verkrüppeln wollte.
00-Schneider
2025-02-01, 08:34:10
ab minute 17 auf die unteren schauen, dunkelblau.
Nichts wirklich neues, die Grafik bringt es allerdings sehr gut auf den Punkt. Bis 120/144Hz Displays macht eigentlich nur 2xFG Sinn.
Um 3x und 4x sinnvoll anzuwenden braucht man 240Hz oder mehr.
The_Invisible
2025-02-01, 08:41:34
Tjo, Nvidia lässt uns wieder keine Wahl, als uns zwischen zwei Extremen zu entscheiden. Eine RTX 5080 Ti mit 24 GiB wäre optimal. Ich würde meine RTX 4090 jedenfalls nicht gegen eine RTX 5080 eintauschen – weil ich DL-DSR zu geil finde. Und in 6K werden 16 GiB öfter eng als man denkt. Wer das nicht nutzt, kann aber sicher zwei Jahre mit 16 GiB "überleben". Die RTX 5080 ist insgesamt besser als ihr Ruf, die Leute sind einfach enttäuscht.
MfG
Raff
Von 4090 auf 5080 ist doch irgendwie falsch. Gerade in RT/PT setzt sie sich weniger ab als erwartet, da ist die 4090 dann >30% vor der 5080 und das holt man auch mit OC nie auf.
Einfach warten, die 5090er werden schon noch kommen.
ChaosTM
2025-02-01, 08:52:32
Danke Chris :)
Das spezielle kannte ich in der Tat noch nicht. Schau sonst fast alles mit/von Ihm.
Hab Grad miesen Empfang in der Ubahn.
Relex
2025-02-01, 09:13:40
Schon witzig... DLSS_Q schliert für den einen Typen nur noch und vor kurzem was das noch in diesem Forum das non plus ultra. ;D Aber cooler Blindtest wieder. :up:
Die testen mit Ray Reconstruction.
Dass RR in Cyberpunk Probleme machte weiß doch mittlerweile jeder.
Das wurde doch überall rauf und runter kritisiert.
Man hats halt akzeptiert, weil es mit Pathtracing unterm Strich dann trotzdem das sauberste und ruhigste Bild erzeugt hat.
Transformer RR beseitigt extrem viele dieser Probleme und ist schärfer, kommt in Sachen Bildschärfe aber weiterhin weder an das alte CNN DLSS und schon gar nicht an das neue Transformer DLSS ran (beides ohne RR).
00-Schneider
2025-02-01, 09:29:56
Von 4090 auf 5080 ist doch irgendwie falsch. Gerade in RT/PT setzt sie sich weniger ab als erwartet, da ist die 4090 dann >30% vor der 5080 und das holt man auch mit OC nie auf.
Einfach warten, die 5090er werden schon noch kommen.
Jup, alleine 8GB weniger VRAM bei der 5080 ggü der 4090 macht die Sache komplett sinnlos.
Kriegsgeier
2025-02-01, 09:36:30
https://www.youtube.com/watch?v=K3rClO6EVgY
also, nach dem Video ist mir die Lust auf eine 5090Fe völlig vergangen. Auch zu 2329€ würde ich diese nicht kaufen wollen - höchstens zum Weiterverkauf aber nicht zum Nutzen!
basix
2025-02-01, 09:41:14
Eine OC 5080 dürfte in vielen Fällen ähnlich schnell wie meine UV 4090 (2.55GHz) sein. Vor allem, da ich mit dem 5800X3D manchmal noch in ein CPU-Limit renne.
Aber in genau den Fällen wo man mehr Performance haben möchte (PT) hat die 4090 den grössten Vorsprung vor der 5080 und auch eine OC 5080 wird nicht an die 4090 rankommen. Und die UV 4090 dürfte mindestens gleich effizient wie eine OC/UV 5080 und ist sicher effizienter als die OC 5080. Die 5080 hat nur drei Pluspunkte: Tensor FP4 und MFG und dass man beim Trade 5080 <-> 4090 noch was verdient :D Im Shop meines Vertrauens sind einige 5080er Modelle für 999 CHF gelistet (wenn auch nicht verfügbar / lieferbar). Für eine gebrauchte 4090 dürfte man mehr verlangen können.
Lurtz
2025-02-01, 10:08:49
Die testen mit Ray Reconstruction.
Dass RR in Cyberpunk Probleme machte weiß doch mittlerweile jeder.
Das wurde doch überall rauf und runter kritisiert.
Man hats halt akzeptiert, weil es mit Pathtracing unterm Strich dann trotzdem das sauberste und ruhigste Bild erzeugt hat.
Die Fähigkeit zur Differenzierung ist leider vielen abhanden gekommen. Dass nVidia bereits in der zweiten Generation Ray Reconstruction ist und entsprechende Daten und Erfahrungen gesammelt hat, während Radeon und Arc nicht mal DLSS 3.8 erreichen, wayne...
basix
2025-02-01, 10:46:27
https://www.youtube.com/watch?v=K3rClO6EVgY
also, nach dem Video ist mir die Lust auf eine 5090Fe völlig vergangen. Auch zu 2329€ würde ich diese nicht kaufen wollen - höchstens zum Weiterverkauf aber nicht zum Nutzen!
buildzoid in allen Ehren (er versteht ja was von Elektronik und auch Grafikarten Design sowie den verbauten ICs) aber manche Dinge sind konzeptionell wirklich naheliegend und er fragt sich immer noch "why did they do that like this?". Das war bei der PCIe 12V Fuse auf der MSI Karte so (man schützt nicht die Karte sondern eben das Motherboard) und bei der Astral mit den INA Shunt-Monitors so (>6 Kanäle braucht man, da 6x via PCIe Conenctor pro Pin und nochmals zusätzlich für das overall 12V Shunt Monitoring). Jemand mit seinem Wissen sollte eigentlich von selbst darauf kommen ;)
Kriegsgeier
2025-02-01, 10:51:08
ok, interessant. Du scheinst viel Wissen über den Aufbau der Grafikkarte zu haben.
PS: was meint er ganze Zeit bei dem Eingangs- und Ausgangsfilter? Wie genau meint er das? Bei den vielen Power-Stages unterscheidet er zwischen Eingangs- und Ausgangsbereich.
Ich dachte, die GPU und die Speicher brauchen nur den Filter davor, aber danach? Hä?
Sardaukar.nsn
2025-02-01, 10:58:07
Eine OC 5080 dürfte in vielen Fällen ähnlich schnell wie meine UV 4090 (2.55GHz) sein. Vor allem, da ich mit dem 5800X3D manchmal noch in ein CPU-Limit renne.
Aber in genau den Fällen wo man mehr Performance haben möchte (PT) hat die 4090 den grössten Vorsprung vor der 5080 und auch eine OC 5080 wird nicht an die 4090 rankommen. Und die UV 4090 dürfte mindestens gleich effizient wie eine OC/UV 5080 und ist sicher effizienter als die OC 5080. Die 5080 hat nur drei Pluspunkte: Tensor FP4 und MFG und dass man beim Trade 5080 <-> 4090 noch was verdient :D Im Shop meines Vertrauens sind einige 5080er Modelle für 999 CHF gelistet (wenn auch nicht verfügbar / lieferbar). Für eine gebrauchte 4090 dürfte man mehr verlangen können.
Ja, das wäre ein +- 5-10% sidegrade, neue Gen, neue Garantie und irgendwo um 500€ cashback.
OgrEGT
2025-02-01, 11:00:29
Spannungswandler haben immer Ein und Ausgang... bei den Filtern geht es um Spannungsglättung... also das filtern von Spannungsspitzen um saubere(re) Signale zu haben bzw. Bauteile nicht zu überlasten...
Zossel
2025-02-01, 11:01:58
ok, interessant. Du scheinst viel Wissen über den Aufbau der Grafikkarte zu haben.
PS: was meint er ganze Zeit bei dem Eingangs- und Ausgangsfilter? Wie genau meint er das? Bei den vielen Power-Stages unterscheidet er zwischen Eingangs- und Ausgangsbereich.
Ich dachte, die GPU und die Speicher brauchen nur den Filter davor, aber danach? Hä?
Getaktete Leistungselektronik streut sowohl in den Eingang als auch in den Ausgang.
basix
2025-02-01, 11:02:15
ok, interessant. Du scheinst viel Wissen über den Aufbau der Grafikkarte zu haben.
PS: was meint er ganze Zeit bei dem Eingangs- und Ausgangsfilter? Wie genau meint er das? Bei den vielen Power-Stages unterscheidet er zwischen Eingangs- und Ausgangsbereich.
Ich dachte, die GPU und die Speicher brauchen nur den Filter davor, aber danach? Hä?
Über Grafikkarten: Jein. Bin aber Elektroingenieur von Beruf und ein PC-Freak ;)
buildzoid kennt sich verglichen zu mir sicher viel besser aus, welche Phasen und Power Stages wohin gehen und was sie machen, er hat einfach bei ein paar logischen Überlegungen gefailed welche grundsätzlich einfacher sind als der ganze Rest ;)
Zu Eingangsfilter / Ausgangsfilter:
- Eine Power Stage ist ein DC/DC Konverter
- Der "Ausgang" und "Eingang" sind auf die Power Stage bezogen, nicht auf die GPU. Das heisst, der "Ausgangsfilter" des DC/DC ist gleichzeitig der "Eingangsfilter" der GPU (bei der GPU kommen aber noch massig MLCC Kondensatoren dazu, welche vor allem hochfrequente Anteile filtern). Buildzoid meint bei "Eingangsfilter" aber ausschliesslich den DC/DC Teil, also nicht verwechseln ;)
- Am Eingang des DC/DC kommt 12V rein und am Ausgang die ~1V GPU Voltage
- Durch die Schaltvorgänge des DC/DC kommt es zu Änderungen beim Stromfluss
- Der sich ändernde Stromfluss führt zu Spannungs-Ripple (es ist nicht perfekter DC sondern man hat Spannungsschwankungen überlagert)
- Diesen Ripple will man auf der Ausgangsseite möglichst minimieren (oder Eingangseite der GPU), damit die GPU eben möglichst perfekten DC sieht. Würde das zu stark in Richtung tiefere Spannung rippeln, könnte die GPU instabil werden und wird es zu hoch, könnte etwas Schaden nehmen. Spannungsspitzen (oben oder unten) führen zusätzlich zu Stromspitzen, was Komponenten überlasten kann
- Auf der Eingangsseite will man möglichst DC-Strom sehen (nicht Spannung), damit die Last in Richtung Netzteil möglichst konstant bleibt (das hat das Netzteil am liebsten) und reduziert zusätzlich auch den Spannungsripple auf der 12V Schiene (was durch den DC/DC teilweise durchpropagieren würde und man mehr Spannungsripple auf der GPU-Seite hätte, Verstärkung des Problems von oben)
- Ausserdem hat der DC/DC auch gerne, wenn man eine niedrige Impedanz am Eingang hat (aber noch mehr am Ausgang). Der Eingangsfilter / die Eingangskapazität helfen da enorm, da die Distanz vom Kondensator zum DC/DC viel niedriger ist als vom DC/DC zum Netzteil
- Und um das alles zu bewerkstelligen, baut man Eingangsfilter vor dem DC/DC ein (Kondensatoren als Buffer, allenfalls noch Ferrite um spezfische Schaltfrequenzen vom DC/DC zu blocken) und Ausgangsfilter, um den DC/DC stabil zu halten und für die GPU eine möglichst glatte Spannung zu liefern
Getaktete Leistungselektronik streut sowohl in den Eingang als auch in den Ausgang.
Genau. Mit dem Eingagsfilter kann man rückwirkende Störsignale (in Richtung Netzteil) reduzieren.
Zossel
2025-02-01, 11:02:50
Spannungswandler haben immer Ein und Ausgang... bei den Filtern geht es um Spannungsglättung... also das filtern von Spannungsspitzen um saubere(re) Signale zu haben bzw. Bauteile nicht zu überlasten...
.... Strom ....
Kriegsgeier
2025-02-01, 11:13:18
Super, danke für die Erklärung. Ich habe ganze Zeit gedacht, dass er von Eingang und Ausgang bei der GPU/SPEICHER spricht. Das war mein Denkfehler.
Dass fast Alle Energiewandler eingangsseitig aber auch ausgangsseitig Filter brauchen war mir auch bekannt.
Stichwörter sind hier: Zustandsgrößen bei der Energiespeicher können sich nicht sprunghaft ändern usw.
Analogie: Ekin=1/2mv² , Eel=1/2CU² oder Emag=1/2LI² --> Die Größe wo gespeichert wird ist immer vor der Größe, die unter dem Quadrat steht und womit gespeichert wird und gleichzeitig was sich NICHT sprunghaft ändern kann ist die Größe unter dem Quadrat.
Was mich auch immer irritiert ist die räumliche Anordnung auf der PCB rund um GPU/Spreicher. Da muss man wahrscheinlich sehr gut in PCB-Multy-Layer denken können ;)
basix
2025-02-01, 11:21:00
Was mich auch immer irritiert ist die räumliche Anordnung auf der PCB rund um GPU/Spreicher. Da muss man wahrscheinlich sehr gut in PCB-Multy-Layer denken können ;)
Das hat der buildzoid hingegen gut erklärt ;)
Die Eingangs- und Ausgangsfilter helfen bereits sehr, die räumliche Platzierung von z.B. dem 12V Power Connector zu entkoppeln. Aufgrund der Serien-Induktivität der Elkos bringt es fast nichts, die Ausgangsfilter sehr nahe an GPU und Speicher zu platzieren. Um das zu kompensieren, verbaut man dann eben die vielen MLCC rund um die GPU sowie auf der Rückseite des PCBs gleich unter GPU und VRAM.
Und es vereinfacht die Kühlung, wenn die VRMs etwas weiter von der GPU weg sind ;)
Und ja, das werden vermutlich alles 12-14 Layer PCBs sein und einige davon werden exklusiv für die Energieversorgung reserviert sein. Das hat man aber in den EDA Tools gut visualisiert und kann damit klarkommen. Wichtig bei so vielen Layern ist ein gutes und überlegtes Konzept, bevor man mit dem Design und Routing beginnt ;)
Altehardware
2025-02-01, 11:24:17
Spannend werden die Preisentwicklung nach dem rtx5070 launch ich ahne das die rtx4070 massiv im preis steigen wird und es darunter niox gibt was sich lohnt da tut sich ne Lücke auf für amd rx9060xt sofern diese 48cu hat
amd ist spät dran mit dem launch
Generell ist das Preisniveau zu hoch das weis auch amd und nvidia aber sie wollen die 500$ marke als einstieg.
Das ist unser problem und da sich amd sowie nvidia quasi aus dem Weg gehen kann man fast von einen Kartell reden. ich sage fasst den amd orientiert si h an nvidia perf. und bepreist ihre Produkte darauf
Das ist Blöd wenn nvidia keine perf. für den € bringt den dann steigt das Preisniveau
Das kann aufgehalten werden bedingt aber eine deutliche mediale ansagen.
dildo4u
2025-02-01, 11:28:13
Nvidia hat die 4070 auf GDDR6 umgestellt ebend um billiger zu produzieren bei der 5070 kann alles passieren wenn nicht genug GDDR 7 vorhanden ist.
https://www.techspot.com/review/2894-geforce-rtx-4070-gddr6/
readonly
2025-02-01, 11:29:45
Das kann aufgehalten werden bedingt aber eine deutliche mediale ansagen.
Einfach nicht kaufen, dann regelt der Markt. Seien wir mal ehrlich, alle wollen möglichst alles auf Ultra, zum Schluß reicht zum zocken aber auch Hoch, oder bei einigen Einstellungen sogar Mittel. Im Spiel sehe ich da nicht viel von.
Sardaukar.nsn
2025-02-01, 11:30:10
Warum wundert es mich gar nicht so sehr das Galax die nächst HOF als 5080er bringt? https://videocardz.com/newz/the-crown-is-back-galax-launches-geforce-rtx-5080-hof-oc-lab-edition
Secret Sauce Bios incoming :freak:
Kriegsgeier
2025-02-01, 11:34:34
So habe ich immer gedacht:
Aber was machen die gleichen Kumpels auf der linken Seite? LOL
Genau das hat mich irritiert: wie kommen die 12V (wobei, die Spannung hier ist eher irrelevant - der große Strom aber eher) vom Stecker gaaaaaanz rechts zu den Stages gaaaaaaz links. Da ist doch alles signalempfindliches wie RAM und GPU im Weg?
ChaosTM
2025-02-01, 11:46:35
Dann bist du falsch informiert.
https://youtu.be/B_fGlVqKs1k
Edit:
Ab ~17:00.
War ein richtig dummer Denkfehler meinerseits.
Ich ging davon aus, dass die Basisbildrate gleich bleibt und nur die überschüssige Leistung in extra Bilder umgewandelt wird, was zwar praktisch wäre zwecks Erreichung einer bestimmten Bildrate, aber so funkt es natürlich nicht.
Wäre nebenbei ein Albtraum bezüglich Frametimes.
Die DF Jungs haben auch schon drüber diskutiert und es als zwar sehr nett und brauchbar, aber unglaublich komplex, bezeichnet.
Das blieb irgendwo im Hinterkopf hängen und beim "Paste" Vorgang in der Birne hab ichs falsch eingefügt.
Vielleicht mit MFG bei DLSS5/6
Zossel
2025-02-01, 11:51:31
einige davon werden exklusiv für die Energieversorgung reserviert sein.
Damit spannt man leicht große Flächen auf um die der Strom herum fließt ( -> Antenne), Ströme sollten möglichst auf dem Weg zurück fließen auf dem die rein fließen.
Deswegen konnte man die alten TTL-Gräber mit dem Kamm-artigen Stromversorgungslayout auch immer gut im Radio hören.
basix
2025-02-01, 12:01:15
Damit spannt man leicht große Flächen auf um die der Strom herum fließt ( -> Antenne), Ströme sollten möglichst auf dem Weg zurück fließen auf dem die rein fließen.
Das ist kein Problem. Möglichst grosse Flächen sind hinsichtlich Impedanz sogar ideal bei Power Planes. Man sollte nur immer eine GND-Plane direkt unterhalb/oberhalb der Power Plane und Signal Layers haben. Der Rückstrom fliesst durch die GND-Layer. Und mit einem zusätzlichen GND-Layer oder Wechsel der Reihenfolge der Layer kann man das sogar gegeneinander abschirmen (also nicht Signal-GND-Power-GND sondern Signal-GND-GND-Power-(GND).
Das benötigt aber eine entsprechende Anzahl Layer. Wenn man die nicht hat (Kostengründe), dann sollte man Power und Signal flächenmässig trennen (nebeneinander und nicht übereinander) und nicht überlagern.
Bei älteren Designs (deine TTL-Gräber) hatte man wohl schlicht zu wenige Layer eingesetzt oder die Flächentrennung nicht sauber gemacht. Da man in der Entwicklung ja immer die Produktkosten drücken will, kommen dann manchmal halt Kompromisse und nicht optimale Designs heraus. Ich kenne das von meinem aktuellen Projekt, wo wir wegen Kosten bei 4-Layer bleiben aber doch zig überschneidende Anforderungen erfüllen müssen. Da tut einem das Herz weh, weil wir nicht so schöne Sachen machen, welche stark gegen Schulbuchdesign gehen. Aber hey, Kosten- und Featureziele erreicht und mit genug Vorsicht und Optimierungen stimmt auch die Performance (=nicht ideal aber gut genug).
So habe ich immer gedacht:
Aber was machen die gleichen Kumpels auf der linken Seite? LOL
Genau das hat mich irritiert: wie kommen die 12V (wobei, die Spannung hier ist eher irrelevant - der große Strom aber eher) vom Stecker gaaaaaanz rechts zu den Stages gaaaaaaz links. Da ist doch alles signalempfindliches wie RAM und GPU im Weg?
Man kann oben rum gehen (siehe Bild), vermutlich auf der Rückseite des PCBs. Da das 12V sind und die Ströme entsprechend geringer sind als bei 1V, braucht man nicht die gesamte Breite des PCBs ;) Und man kann GND-Layer als "Schirmung" verwenden (siehe obige Antwort). Dann kann man Power auch unter der GPU durchführen, wenn man will (aber auch da geht man besser aussen rum aufgrund Platzverhältnissen)
Zossel
2025-02-01, 12:02:48
So habe ich immer gedacht:
Aber was machen die gleichen Kumpels auf der linken Seite? LOL
Genau das hat mich irritiert: wie kommen die 12V (wobei, die Spannung hier ist eher irrelevant - der große Strom aber eher) vom Stecker gaaaaaanz rechts zu den Stages gaaaaaaz links. Da ist doch alles signalempfindliches wie RAM und GPU im Weg?
Zum Beispiel wie im Anhang: (Kritisch dürfte der lila Pfad sein, Evtl. bildet man auch bei der GPU den Sternpunkt für die Versorgungs- und Signal-Masse um möglichst wenig Schwabbel auf das Bezugspotenzial zu bekommen)
basix
2025-02-01, 12:07:30
Haha, da war ich schneller :D
Schnitzl
2025-02-01, 12:08:08
Tjo, Nvidia lässt uns wieder keine Wahl, als uns zwischen zwei Extremen zu entscheiden. Eine RTX 5080 Ti mit 24 GiB wäre optimal. Ich würde meine RTX 4090 jedenfalls nicht gegen eine RTX 5080 eintauschen – weil ich DL-DSR zu geil finde. Und in 6K werden 16 GiB öfter eng als man denkt. Wer das nicht nutzt, kann aber sicher zwei Jahre mit 16 GiB "überleben". Die RTX 5080 ist insgesamt besser als ihr Ruf, die Leute sind einfach enttäuscht.
MfG
Raff
genau DAS.
sobald diese karte kommt wird sie gekauft.
alles unter der 5090 ist ein fauler Kompromiss imho
Relex
2025-02-01, 12:09:12
War ein richtig dummer Denkfehler meinerseits.
Ich ging davon aus, dass die Basisbildrate gleich bleibt und nur die überschüssige Leistung in extra Bilder umgewandelt wird, was zwar praktisch wäre zwecks Erreichung einer bestimmten Bildrate, aber so funkt es natürlich nicht.
Wäre nebenbei ein Albtraum bezüglich Frametimes.
Die DF Jungs haben auch schon drüber diskutiert und es als zwar sehr nett und brauchbar, aber unglaublich komplex, bezeichnet.
Das blieb irgendwo im Hinterkopf hängen und beim "Paste" Vorgang in der Birne hab ichs falsch eingefügt.
Vielleicht mit MFG bei DLSS5/6
Aber das gleiche Problem hast du doch mit normalen 2x FG auf RTX4000 auch schon immer.
Ich würde sogar behaupten, dass der performanceverlust auf die basis framerate auf RTX4000 mit dem alten Frame gen bisher sogar etwas höher war als auf Blackwell mit 4x MFG und dem neuen Algorithmus. (mit dem neuen Algo auf Ada dürfte es hingegen kaum noch Unterschiede zwischen 2xFG ada vs 2xFG Blackwell geben)
Dieser Performanceverlust ist ja auch der einzige Grund, warum 2x FG bisher im GPU Limit nie die FPS verdoppeln konnte sondern in 4K schlimmstenfalls mit 50% oder bei hohen FPS sogar noch schlechter skaliert hat. Der Grund war immer, dass die basis Framerate von der aus verdoppelt wird, entsprechend sinkt. Denn der Algorithmus selbst verdoppelt die Bildrate (bzw. bei MFG verdreifacht oder vervierfacht) ausnahmslos immer. Krumme Faktoren sind nicht möglich. Sämtliche skalierung kleiner als +100% (bei 2x FG) ergibt sich aus der geringeren Basisframerate.
Daher lässt sich die basis Framerate auch extrem einfach ermitteln, indem man die FPS, die man nach aktivierung von FG erreicht entsprechend wieder teilt.
Hast du 60 FPS ohne FG und 100 FPS mit 2x FG, dann ist die basis Framerate auf 50 FPS gesunken. Hast du 160 FPS mit 4x MFG, dann liegt die Basis Framerate bei 40 FPS. Das kannst du dann einfach mit der Framerate vergleichen, die du ganz ohne FG erreichst und schon kennst du die performancekosten.
Gratis gibts hier also nichts. Aber umsonst ist es ja auch nicht ;)
ENKORE
2025-02-01, 12:12:25
Bei 600W/2/12V sind das ja auch nur so 25 A, da reicht schon eine 10mm breite Leiterbahn für geringen Spannungsabfall bei den paar cm.
Gibt es eigentlich auch 5070Ti/5080, wo der Chip nicht 90° gedreht und das Layout so hochkantelig ist?
Schnitzl
2025-02-01, 12:16:39
https://www.youtube.com/watch?v=K3rClO6EVgY
also, nach dem Video ist mir die Lust auf eine 5090Fe völlig vergangen. Auch zu 2329€ würde ich diese nicht kaufen wollen - höchstens zum Weiterverkauf aber nicht zum Nutzen!
jo, und am Montag willst dann wieder 2 :biggrin:
ohne Info hingeknallte Links klicke ich nicht an.
basix
2025-02-01, 12:16:52
genau DAS.
sobald diese karte kommt wird sie gekauft.
alles unter der 5090 ist ein fauler Kompromiss imho
Ich denke es ist unwahrscheinlich, dass eine 5080 Ti 24GB auf GB202 Basis kommen wird. Der Abstand zur 5090 ist zwar da und genug gross für eine 5080 Ti dazwischen, aber wie gross ist der Markt für dieses Zwischending? Zu nah an der 5080 will man die preislich nicht setzen (GB202 = teuer) und wenn man dann preislich schon so weit oben ist, werden viele gleich zur 5090 greifen. Entweder das Beste oder das für 1000$ was noch knapp bezahlbar ist. Der Markt für solch eine 5080 Ti ist mMn einfach zu klein. Und da Nvidia dort eh keine Konkurrenz hat, ist man auch nicht im Zugzwang.
Dass die 5080 taktmässig nicht ausgereizt ist, spricht ebenfalls dagegen. Eine 5080S mit +10% Takt, 32Gbps sowie 24GByte ist deutlich wahrscheinlicher.
Kriegsgeier
2025-02-01, 12:18:10
Mit eurer Hilfe bei der Erklärung der Stromversorgung einer GPU habe ich jetzt wirklich verstanden warum man am liebsten eine sehr effiziente GPU haben möchte.
Alles drum herum wird soviel günstiger und einfacher. Auch die Kühlung dann…
Wie damals als die GTX 680 rauskam: die war so viel einfacher aufgebaut als der Vorgänger.
Schnitzl
2025-02-01, 12:23:22
Ich denke es ist unwahrscheinlich, dass eine 5080 Ti 24GB auf GB202 Basis kommen wird. Der Abstand zur 5090 ist zwar da und genug gross für eine 5080 Ti dazwischen, aber wie gross ist der Markt für dieses Zwischending? Zu nah an der 5080 will man die preislich nicht setzen (GB202 = teuer) und wenn man dann preislich schon so weit oben ist, werden viele gleich zur 5090 greifen. Entweder das Beste oder das für 1000$ was noch knapp bezahlbar ist. Der Markt für solch eine 5080 Ti ist mMn einfach zu klein. Und da Nvidia dort eh keine Konkurrenz hat, ist man auch nicht im Zugzwang.
Dass die 5080 taktmässig nicht ausgereizt ist, spricht ebenfalls dagegen. Eine 5080S mit +10% Takt, 32Gbps sowie 24GByte ist deutlich wahrscheinlicher.
könnte doch funktionieren wenn zeitgleich die 5090 durch eine 5090S oder Ti ersetzt wird, evtl. sogar mit 48GB - gibt ja noch genug zum freischalten auf GB202 ;)
basix
2025-02-01, 12:23:25
Mit eurer Hilfe bei der Erklärung der Stromversorgung einer GPU habe ich jetzt wirklich verstanden warum man am liebsten eine sehr effiziente GPU haben möchte.
Alles drum herum wird soviel günstiger und einfacher. Auch die Kühlung dann…
Wie damals als die GTX 680 rauskam: die war so viel einfacher aufgebaut als der Vorgänger.
Naja, die 5090 ist schon effizient. Nur der absolute Verbauch ist sehr hoch.
Ich finde es ganz gut, ist die 4090 generell überdimensioniert designed (600W ;)). Mit UV kann ich die Karte <300W drücken (oftmals sogar <250W) und man hat massig Reserve bei Elektronikkomponenten sowie Kühlung.
könnte doch funktionieren wenn zeitgleich die 5090 durch eine 5090S oder Ti ersetzt wird, evtl. sogar mit 48GB - gibt ja noch genug zum freischalten auf GB202 ;)
Gut, wenn man überhalb noch was bringt vielleicht. Dann wäre es aber eher 5080S (24GB), 5080Ti (28GB?) und 5090Ti (32GB und Full-Chip). 48GB ist glaube ich unwahrscheinlich.
Aber ich bezweifle, dass Nvidia das macht. Hätte man eine 4090 Ti gebracht, sähe die 5090 noch schlechter aus ;)
robbitop
2025-02-01, 12:24:55
genau DAS.
sobald diese karte kommt wird sie gekauft.
alles unter der 5090 ist ein fauler Kompromiss imho
Wird aber wahrscheinlich nicht kommen. Hab es bei der 40er schon nicht und bei der 30er kam die IMO zu spät. :-/
ChaosTM
2025-02-01, 12:32:48
Eine Titan/Ti der 90er könnte ich mir aber gut vorstellen, falls genug "volle" Chips übrig bleiben.
48GB drauf und 4-5k verlangen. Der Verbrauch wäre bei so einer Karte auch egal.
Kriegsgeier
2025-02-01, 12:38:04
Gerade aus einem Video auf YouTube erfahren:
Zum GB202 Chip @ 4N bei TSMC:
Pro Wafer: 72 Chips insgesamt davon 25 sind unbrauchbar und 47 können genutzt werden.
Könnte es ungefähr stimmen?
Zossel
2025-02-01, 12:46:18
Gerade aus einem Video auf YouTube erfahren:
Zum GB202 Chip @ 4N bei TSMC:
Pro Wafer: 72 Chips insgesamt davon 25 sind unbrauchbar und 47 können genutzt werden.
Könnte es ungefähr stimmen?
Überprüfe es selbst:
https://semianalysis.com/die-yield-calculator/
Dafür braucht man auch keine stundenlangen Videos auf Youtube glotzen.
basix
2025-02-01, 13:16:16
Ein weiteres Indiz, dass es faktisch keine 5090 am Markt hat: Bei HWBot gibt es keine Extrem-OC Einträge mit der 5090. Normalerweise gibt es immer bei Release einer neuen Generation gleich etliche neue Weltrekorde. Diesmal: Totenstille.
https://hwbot.org/hardware/videocards?key=nvidia-geforce_5000_series
Von der 5080 findet man ein paar Ergebnisse.
Kriegsgeier
2025-02-01, 13:19:33
Ja, das stimmt. Also befinden wir uns gerade in einem reinrassigen Paperlaunch!
rentex
2025-02-01, 13:19:42
Mal ehrlich. Warum macht man sich diesen Stress um diese Gen?
Die ist noch unattraktiver als "Ampere".
basix
2025-02-01, 13:21:33
Ich habe keinen Stress, ich habe eine gut laufende 4090 ;)
Aber der Launch von RTX50 scheint mir generell ein wenig gehetzt. Und ich hätte gerne gewusst, was die 5090 unter LN2 so kann ;)
ChaosTM
2025-02-01, 13:22:13
Kommt immer drauf an von welcher Gen man ausgeht.
Für Ada Benutzer machts abseits von 4k/120 Monitor Besitzern wenig Sinn, für alle anderen schon.
Kriegsgeier
2025-02-01, 13:23:47
Ich würde auch eine 4090 kaufen aber nicht mehr als 1500€
Sardaukar.nsn
2025-02-01, 13:24:09
Ein weiteres Indiz, dass es faktisch keine 5090 am Markt hat: Bei HWBot gibt es keine Extrem-OC Einträge mit der 5090. Normalerweise gibt es immer bei Release einer neuen Generation gleich etliche neue Weltrekorde. ...
Die Engländer haben ein Vorbesteller System mit Nummern. Wäre hier ja auch mal was. Für eine Asus 5090 schreibt da z.B. jemand das noch 120 vor ihm dran sind... https://forums.overclockers.co.uk/threads/nvidia-rtx-50-series-pre-order-discussion-no-competitor-hinting.18997371/page-106
Schnitzl
2025-02-01, 13:43:32
Gut, wenn man überhalb noch was bringt vielleicht. Dann wäre es aber eher 5080S (24GB), 5080Ti (28GB?) und 5090Ti (32GB und Full-Chip). 48GB ist glaube ich unwahrscheinlich.
Aber ich bezweifle, dass Nvidia das macht. Hätte man eine 4090 Ti gebracht, sähe die 5090 noch schlechter aus ;)
;D stimmt
aber die nächste Gen hat ja nen besseren Node von da her die Hoffnung nicht aufgeben ^^
Kommt immer drauf an von welcher Gen man ausgeht.
Für Ada Benutzer machts abseits von 4k/120 Monitor Besitzern wenig Sinn, für alle anderen schon.
alle anderen hätte dann auch schon mit Ada aufrüsten können, kommt fast aufs gleiche raus :tongue:
(Ausnahme: 5090)
basix
2025-02-01, 13:50:36
aber die nächste Gen hat ja nen besseren Node von da her die Hoffnung nicht aufgeben ^^
Die Hoffnung habe ich auch, N3P sollte schon was bringen ;) Und N2P danach ebenfalls.
rentex
2025-02-01, 13:55:17
Hieß es eigentlich nicht, das genug produziert worden ist?
w0mbat
2025-02-01, 13:57:31
Der neue Speicher wird das Nadelöhr sein.
ChaosTM
2025-02-01, 13:58:22
alle anderen hätte dann auch schon mit Ada aufrüsten können, kommt fast aufs gleiche raus :tongue:
(Ausnahme: 5090)
Wenn sie gewusst hätten, dass Blackwell so wenig drauflegt, hätten sie es wohl gemacht. ;)
The_Invisible
2025-02-01, 13:59:55
Der neue Speicher wird das Nadelöhr sein.
Hat Samsung als einziger gddr7? Kann ja nicht sein das im Liefervertrag keine Klausel gibt wenn zu wenig geliefert wird...
Palpatin
2025-02-01, 14:03:39
Ich würde auch eine 4090 kaufen aber nicht mehr als 1500€
Aktuell die günstigste gebrauchte sofort kauf auf ebay 2000€ ..... völlig irre....
w0mbat
2025-02-01, 14:22:13
Hat Samsung als einziger gddr7? Kann ja nicht sein das im Liefervertrag keine Klausel gibt wenn zu wenig geliefert wird...
Aktuell wohl ja. Wird etwas brauchen, bis G7 in großen Mengen verfügbar ist.
Schnitzl
2025-02-01, 14:28:54
Aktuell wohl ja. Wird etwas brauchen, bis G7 in großen Mengen verfügbar ist.
und das wusste man natürlich erst am 30.Januar - davor nicht :rolleyes:
monstar-x
2025-02-01, 14:30:45
Danke an alle, die hier fleißig diskutieren und so viele brauchbare Information geben, teilen.
Ich konnte auf den letzten Seiten viel bzgl. DLSS 4 MFG4x mitnehmen, mir war nicht klar das er bei 4x die Framerate viertel. Das macht bei einem 165HZ Monitor gar keinen Sinn.
So ist 2xFG mit meiner 4090 für mich besser.
Danke an alle
monstar-x
2025-02-01, 14:32:37
und das wusste man natürlich erst am 30.Januar - davor nicht :rolleyes:
Gamernexus hat eine gute Theorie, die boardpartner wollen, müssen auf der CES ausstellen, und dann ist die Sache noch mit den Steuern. So kann NVIDIA sagen 999$ und 1999$, nach dem der Verrückte Trump die Steuern erhört, kann NVIDIA sagen, ist nicht unsere Schuld wir hatten 999/1999.
AffenJack
2025-02-01, 14:37:51
Gamernexus hat eine gute Theorie, die boardpartner wollen, müssen auf der CES ausstellen, und dann ist die Sache noch mit den Steuern. So kann NVIDIA sagen 999$ und 1999$, nach dem der Verrückte Trump die Steuern erhört, kann NVIDIA sagen, ist nicht unsere Schuld wir hatten 999/1999.
Das ist für mich am Glaubwürdigsten, wieso man unbedingt launchen wollte, obwohl man kein Stock hat. Für 20% mehr wären die Karten in den USA in Reviews komplett verrissen werden, egal ob wegen Steuer oder nicht. Da die US Techszene in die ganze Welt ausstrahlt, wollte man den Effekt vielleicht mindern, auch wenn die Zööle den Rest der Welt nicht betreffen.
Kriegsgeier
2025-02-01, 15:12:08
RTX 5090 Chip Deep Dive:
https://youtu.be/rCwgAGG2sZQ?si=fjsCsA1awjPVuLf6
Kriegsgeier
2025-02-01, 15:27:59
Krass, alleine der Chip kostet bei TSMC zwischen 300 und 400 USD!
Die 32GB GDDR7 kosten auch ca. 300 USD im Einkauf für NVIDIA!
ChaosTM
2025-02-01, 15:35:43
Hab gestern eine ähnliche Doku gesehen, die von 120 sprach.
Wurde sogar hier verlinkt..
Kriegsgeier
2025-02-01, 15:49:17
https://www.kaufland.de/product/525193953/?utm_source=idealo&utm_medium=cpc&utm_content=de_01&utm_campaign=pricecomparison&utm_term=pad-new
Immerhin kostenloser Versand! Noch 3 verfügbar!
rentex
2025-02-01, 15:58:00
https://www.kaufland.de/product/525193953/?utm_source=idealo&utm_medium=cpc&utm_content=de_01&utm_campaign=pricecomparison&utm_term=pad-new
Immerhin kostenloser Versand! Noch 3 verfügbar!
Was für ne Scheiße....irre.
Ich weiß gar nicht, welches Upgrade am wenigsten bringt: 4080 -> 5080 oder 7800X3D -> 9800X3D?
rumpeLson
2025-02-01, 16:01:55
https://www.kaufland.de/product/525193953/?utm_source=idealo&utm_medium=cpc&utm_content=de_01&utm_campaign=pricecomparison&utm_term=pad-new
Immerhin kostenloser Versand! Noch 3 verfügbar!
Für alle Interessenten: Über die Kaufland-App gibt's aktuell 5€ Rabatt für den Onlineshop.
Relex
2025-02-01, 16:04:08
Für alle Interessenten: Über die Kaufland-App gibt's aktuell 5€ Rabatt für den Onlineshop.
Hahaha, genau mein Humor.
Fast 6,8K.
Ob das jemand bezahlt?
Schnitzl
2025-02-01, 16:04:13
https://www.kaufland.de/product/525193953/?utm_source=idealo&utm_medium=cpc&utm_content=de_01&utm_campaign=pricecomparison&utm_term=pad-new
Immerhin kostenloser Versand! Noch 3 verfügbar!
knapp 7.000€ .... ein echter Schnapper
[sind da wenigstens Elektrolyte drin?]
Wenn sie gewusst hätten, dass Blackwell so wenig drauflegt, hätten sie es wohl gemacht. ;)
Da muss ich dich enttäuschen: Bei den Preisen kauf ich nur noch alle 5+ Jahre...
anorakker
2025-02-01, 16:35:50
Was für ne Scheiße....irre.
Ich weiß gar nicht, welches Upgrade am wenigsten bringt: 4080 -> 5080 oder 7800X3D -> 9800X3D?
Am lustigsten sind die, die von einer 4090 auf eine 5080 "upgraden" :biggrin:
24GB braucht eh kein Mensch...
Kriegsgeier
2025-02-01, 16:40:40
Die Zeit spielt für uns!
Sobald die Verfügbarkeit herrscht werden sich auch die Preise normalisieren.
In 2-4 Monaten wird sich jeder eine 5090 kaufen können. Und das jedes Modell!
Plus: Jensen war bei Trump zum Diener, der hat ihm klargemacht, dass keine Karten mehr über Singapur nach China. Somit mehr Wafer für 5090 ;-)
anorakker
2025-02-01, 17:01:52
Die Zeit spielt für uns!
Sobald die Verfügbarkeit herrscht werden sich auch die Preise normalisieren.
In 2-4 Monaten wird sich jeder eine 5090 kaufen können. Und das jedes Modell!
Plus: Jensen war bei Trump zum Diener, der hat ihm klargemacht, dass keine Karten mehr über Singapur nach China. Somit mehr Wafer für 5090 ;-)
Wird ziemlich sicher eher nich passieren, ist die letzten 3 Generationen schon nicht passiert, was sollte denn jetzt plötzlich anders laufen?!
rentex
2025-02-01, 17:02:04
Die Zeit spielt für uns!
Sobald die Verfügbarkeit herrscht werden sich auch die Preise normalisieren.
In 2-4 Monaten wird sich jeder eine 5090 kaufen können. Und das jedes Modell!
Plus: Jensen war bei Trump zum Diener, der hat ihm klargemacht, dass keine Karten mehr über Singapur nach China. Somit mehr Wafer für 5090 ;-)
Trotzdem müsste ich mir ein 1kW Netzteil holen...nochmal 200€
Daher will ich keine 5090. Selten das so wenig FOMO bei einer Enthusiast Karte vorhanden war...und ich hatte mal ne 3090, die Damals als "Unsinn" betitelt wurde...bei 360 Watt max. Verbrauch ;-D
basix
2025-02-01, 17:14:22
Wenn man die 5090 ein wenig drosselt (UV reicht, keine Taktminderung), braucht man keine 1kW. Ich habe die 4090 auch schon mit 500W laufen lassen, mit einem 750W Metzteil. Mit UV sind es meistens <300W
ChaosTM
2025-02-01, 17:20:45
Wenn man die 5090 ein wenig drosselt (UV reicht, keine Taktminderung), braucht man keine 1kW. Ich habe die 4090 auch schon mit 500W laufen lassen, mit einem 750W Metzteil. Mit UV sind es meistens <300W
Meine Inno3d lief für Monate auf einem 650W NT, bis es abrauchte ;)
basix
2025-02-01, 17:37:05
Uii, nicht schön.
650W sind vermutlich schon arg knapp bei der 5090. Bei einer 4090 mit UV sehe ich aber keine Probleme. Lief deine auf Default oder auch UV?
ENKORE
2025-02-01, 17:53:43
Meine Inno3d lief für Monate auf einem 650W NT, bis es abrauchte ;)
Als ich meine 1080 Ti neu hatte, war noch ein Seasonic 400 W Passivnetzteil im System, das hat tatsächlich idR. problemlos funktioniert - nur haben manche Titel halt absolut zuverlässig beim Start OCP ausgelöst (iirc - Unigine Superposition hat das sogar mit stark reduziertem Powerlimit geschafft). Ich glaub Empfehlung war 650 W oder so? Also insofern...
Edit: War es nicht auch so, dass die Stromspitzen von 1000er -> 2000er -> 3000er immer schlimmer wurden und das Thema dann mit den 4000er Karten komplett überarbeitet wurde? Ich erinnere mich dunkel an diverse Skandale!!!! bei 3080/3090 aufgrund sehr hoher Transienten.
ChaosTM
2025-02-01, 18:01:00
Als ich meine 1080 Ti neu hatte, war noch ein Seasonic 400 W Passivnetzteil im System, das hat tatsächlich idR. problemlos funktioniert - nur haben manche Titel halt absolut zuverlässig beim Start OCP ausgelöst. Ich glaub Empfehlung war 650 W oder so? Also insofern...
Ja, man kommt mit den alten Dingern noch gut aus, aber früher oder später wirds fad.
Ich könnte eine 5090er wohl noch mit 850* Watt betreiben, aber ich werde keine kaufen-- ich werde keine kaufen!
Hätte gleich ein 2kw NT kaufen sollen, um für die Zukunft gerüstet zu sein.
* ok, das war ein Fehler
Hatstick
2025-02-01, 18:06:31
Werden die Nachfolger von Blackwell in der Gaming Sparte mit einem neuen Fertigungsprozess vom Stapel laufen, zwecks wieder mehr Leistungszuwachs oder weiß man da noch nichts konkretes?
Rubin nicht für den Gaming Markt?
basix
2025-02-01, 18:11:21
Blackwell Nachfolger gibt es vermutlich in N3P, welches dieses Jahr in Massenproduktion geht. Konkret was bekannt ist aber nichts.
ChaosTM
2025-02-01, 18:14:30
Der Leistungszuwachs wir ähnlich gering sein.
Wir stehen vor der Wand und schauen hinauf.
Nur Software Verbesserungen bringen bessere Grafik
dildo4u
2025-02-01, 18:14:30
5060 und TI kommen angeblich im März
https://wccftech.com/nvidia-geforce-rtx-5060-ti-rtx-5060-gpus-launch-march
rentex
2025-02-01, 18:21:58
Ne mögliche 5080Ti muss schon 10-15% drauflegen und natürlich 24GB haben. Maximal 450W.
ChaosTM
2025-02-01, 18:24:53
5060 und TI kommen angeblich im März
https://wccftech.com/nvidia-geforce-rtx-5060-ti-rtx-5060-gpus-launch-march
Höchsten die Ti mit 16GB wird ansatzweise interessant.
Den Rest kann man jetzt schon Kübeln.
Ich hoffe wirklich, dass AMD mit der 70er Serie was bringt, dass diese Kastraten herausfordert.
Sardaukar.nsn
2025-02-01, 18:25:44
Blackwell Nachfolger gibt es vermutlich in N3P, welches dieses Jahr in Massenproduktion geht. Konkret was bekannt ist aber nichts.
Ich kann mir kaum vorstellen das man von seinem 2-Jahres Rhythmus abrückt. Zuletzt wurde ja eher verlängert. Wie die Situation generell mit Trump Jensen China Taiwan in zwei Jahren aussieht, kann auch noch niemand voraussagen. Wahrscheinlich nicht so rosig.
rentex
2025-02-01, 18:30:00
Ich kann mir kaum vorstellen das man von seinem 2-Jahres Rhythmus abrückt. Zuletzt wurde ja eher verlängert. Wie die Situation generell mit Trump Jensen China Taiwan in zwei Jahren aussieht, kann auch noch niemand voraussagen. Wahrscheinlich nicht so rosig.
Da könnten die Gaming GPUs noch das geringste Problem sein.
basix
2025-02-01, 18:32:04
Ich kann mir kaum vorstellen das man von seinem 2-Jahres Rhythmus abrückt. Zuletzt wurde ja eher verlängert. Wie die Situation generell mit Trump Jensen China Taiwan in zwei Jahren aussieht, kann auch noch niemand voraussagen. Wahrscheinlich nicht so rosig.
Ich meinte den Prozess, nicht den Blackwell Nachfolger ;)
N3P kommt dieses Jahr in einigen SoCs und wohl auch CDNA4 zum Einsatz. Blackwell Nachfolger ist frühestens Ende 2026 dran.
reaperrr
2025-02-01, 18:45:13
Rubin nicht für den Gaming Markt?
Wahrscheinlich eher nicht, wird vermutlich effektiv sowas wie Volta.
Was nicht ausschließt, dass die nächste Desktop-Gen uArch-Verbesserungen von Rubin beinhaltet (Turing war im Grunde ja auch Volta + RT und einige Gaming-spezifische Optimierungen).
Werden die Nachfolger von Blackwell in der Gaming Sparte mit einem neuen Fertigungsprozess vom Stapel laufen, zwecks wieder mehr Leistungszuwachs oder weiß man da noch nichts konkretes?
Wissen tun wir da noch nichts, NV's Geheimhaltung ist bei solchen Dingen generell sehr gut (dass GB202 noch immer in N4 ist, ist auch noch nicht so lange publik gewesen).
Aber für HighEnd (alles ab 5080 aufwärts), mMn definitiv.
Dass NV noch eine dritte komplette Gen in 5/4nm auflegt, halte ich für ausgeschlossen, da können sie es auch gleich sein lassen. Jedenfalls für den GB202-Nachfolger, weil die möglichen Steigerungen einfach zu gering wären. Mindestens die Nachfolger von GB202 und GB203 werden mMn in N3P kommen, einfach weil die elektrischen Verbesserungen Takt- und/oder Effizienzverbesserungen "for free" bringen, unabhängig der Architektur.
Im Performance-Mainstream und Mainstream darunter bin ich nicht ganz so sicher, da könnte es drauf ankommen, wie sich die Wafer-Preise von N3P im Vergleich zu N4P entwickeln.
Wenn der Preisvorteil von N4P deutlich genug ist, könnte NV stattdessen einfach hier ein wenig mehr in die Breite und auf den SweetSpot gehen.
Z.B. für den GB205-Nachfolger neben uArch-Verbesserungen wieder 60 SM wie bei AD104, zusammen mit 18GB (3GB-Chips) @ 32-36 Gbps wäre das für nen 5070-Nachfolger vermutlich auch in N4P noch gut genug.
Aber eventuell lassen sie da auch einfach erstmal Blackwell (bzw. dessen Super-Refresh) weiterlaufen, wenn vom AMD mit RDNA5 nicht genug Druck kommt.
Hakim
2025-02-01, 18:55:21
Höchsten die Ti mit 16GB wird ansatzweise interessant.
Den Rest kann man jetzt schon Kübeln.
Ich hoffe wirklich, dass AMD mit der 70er Serie was bringt, dass diese Kastraten herausfordert.
Leider ist es kein Abgespeckter GB205 von der 5070, wie damals bei der Ampere Generation mit 3070 und 3060Ti wo der Performance unterschied relativ gering war. Wird wohl Ähnlich wie bei Ada sein wo der Unterschied wesentlich größer war aber dafür halt 4GB mehr Vram.
Sardaukar.nsn
2025-02-01, 19:12:36
Aber eventuell lassen sie da auch einfach erstmal Blackwell (bzw. dessen Super-Refresh) weiterlaufen, wenn vom AMD mit RDNA5 nicht genug Druck kommt.
Asus, Gigabyte, MSI ect. haben alle jeweils deutlich über zwanzig(!) neue Blackwell Karten angekündigt. Natürlich wollen die jetzt erstmal verkauft werden. Das es Ende 2024 nichts war eigentlich schon ein Unding.
dildo4u
2025-02-01, 19:14:51
Die 5060 scheint diesmal potenter zu werden laut Leaks natürlich nutzlos mit zu wenig Speicher.
5060 4600 Cuda Cores
https://www.techpowerup.com/gpu-specs/geforce-rtx-5060.c4219
4060 3072
https://www.techpowerup.com/gpu-specs/geforce-rtx-4060.c4107
The_Invisible
2025-02-01, 19:25:44
Höchsten die Ti mit 16GB wird ansatzweise interessant.
Den Rest kann man jetzt schon Kübeln.
Ich hoffe wirklich, dass AMD mit der 70er Serie was bringt, dass diese Kastraten herausfordert.
Wieso die 5060 wird wieder die astreine Asiaten Internetcafés karte :D
sulak
2025-02-01, 19:30:56
Abwarten, die 5060Ti wird sich doch durch mehr als 16GB VRAMvon der 5060 unterscheiden, allein von den Specs her stimmt da was nicht. Die alte 3060Ti wäre weiterhin sehr nahe dran. Vielleicht gibts ja noch eine 5060 TiS mit einem abgespeckten GB205 mit 12/18GB damit es, in alter Tradition, komplett verwirrend wird.
Tomahawk
2025-02-02, 07:34:28
Sollte nVidia bei der 80er Serie weiterhin nur knapp über 10 % bringen und eine Generation erscheint alle 2 Jahre, dann wird es noch 10 Jahre dauern, so dass erst eine 10080 einen Gleichstand mit der 5090 erreicht.
Das heißt also: Einmal eine schnelle Karte kaufen und dann braucht man 10 Jahre nicht aufrüsten ;)
Kriegsgeier
2025-02-02, 07:40:08
es könnte auch zu einer Pattsituation kommen:
es könnte so ungünstig kommen, dass wir bei der Generation letztes Mal XX90 in Consumer sehen werden.
Sollte der 2N Vertigungsprozess unerwartet wesetnlich mehr kosten, so wird Nvidia nur XX80 in den XX90 Bereich schieben. Dann gute Nacht!
Wenn schon der GB202 ca. 300-400$ bei TSMC kostet, dann wäre ein Chip dieser Größe bei N2 Prozess 1000$ kosten! Für Nvidia wohlgemerkt!
Jetzt müssen wir diese 1000$ mit der Marge von NVIDIA multiplizieren und man erhält: 1000$ x 1,70 = 1700$ NUR für den Chip!
GDDR7X wird auch sehr teuer sein!
Tomahawk
2025-02-02, 07:51:45
Man muss auch nVidias Situation betrachten:
Wenn nVidia keinen wesentlichen Mehrwert in einer neuen Generation liefert, dann werden die Leute nicht aufrüsten. nVidia will natürlich ein bestmögliches Upgrade liefern - dabei aber nicht weniger verdienen als zuvor
Kriegsgeier
2025-02-02, 07:53:46
nene, so einfach ist das leider nicht: ich hätte z.B. jetzt lieber eine 4090 gekauft, für 1500€ z.B.
Diese wird aber nicht mehr produziert - somit bleibt mir nur gebraucht zu kaufen und das für 1800-2400€ Oder ich MUSS zur neuer Gen. greifen.
dargo
2025-02-02, 07:56:35
nene, so einfach ist das leider nicht: ich hätte z.B. jetzt lieber eine 4090 gekauft, für 1500€ z.B.
Diese wird aber nicht mehr produziert - somit bleibt mir nur gebraucht zu kaufen und das für 1800-2400€ Oder ich MUSS zur neuer Gen. greifen.
Du hast doch jahrelang selbst dazu beigetragen, dass Nvidia u.a. keinen Abverkauf bei der letzten Gen macht. Selbst schuld sage ich da nur. :)
Kriegsgeier
2025-02-02, 07:59:08
haben wir alle würde ich sagen.
Ich denke, die beste Zeit eine neue Gen. zu kaufen ist ca. 6 Mon. nach dem Start.
Scalper sind weg, und die Treiber/Games unterstützen alles + die Preise sind stabil
Tomahawk
2025-02-02, 08:03:56
@Kriegsgeier
Ich denke - für einen ambitionierten Anwender / Spieler - ist der Kauf des Enthusiast-Produkt bei Release (bzw. wenn sich die Preise etwas gelegt haben) eine sehr gute Strategie. Zumindest, solange nVidia die Strategie fährt, dass das beste Produkt deutlich besser als das zweitbeste Produkt ist. Die Titan RTX, 3090 oder 3090 Ti haben sich nicht wirklich gelohnt.
dargo
2025-02-02, 08:05:38
haben wir alle würde ich sagen.
Nimm mich da bitte raus. ;)
Kriegsgeier
2025-02-02, 08:05:49
3090 hat für mich persönlich sehr gelohnt, da ich von einer 1080Ti kam.
PS: habe die Karte erst Ende Januar 2021 gekauft - also gute 3,5 Monate nach dem Release!
Aber ja, mit der 4090 wird mal wahrscheinlich gute 2 Generationen überleben. Es sei denn GTA6 mach den 24GB Strich durch die Rechnung.
Und wenn man bedenkt, dass man heutzutage eher bei Indi-Games am meisten Spaß hat wird die 3090 noch sehr lange reichen. Nicht nur wegen den 24GB Speicher!
Tomahawk
2025-02-02, 08:20:59
Sie hat sich gelohnt, da sie kaum teurer als die 3080 war. Kaum jemand hätte die 3090 gekauft, wenn die 3080 nahe der UVP verkauft worden wäre.
Der Markt ist relativ kaputt. Und vermutlich werden Blackwell-Chips alle für Notebooks gehortet, so dass man im Retail kaum etwas findet.
Kriegsgeier
2025-02-02, 08:23:15
irgendwie denke ich, dass SAMSUNG mit ihren GDDR7 Chips auch eine große Teilschuld trägt.
horn 12
2025-02-02, 08:30:07
Ja, da NV abgesprungen ist vom Samsung Node
und nur Platzhalter für NV war
dargo
2025-02-02, 08:31:11
Lol... möchte Nvidia bei MFG uns was verschleiern? :freak:
Nh1FHR9fkJk
robbitop
2025-02-02, 08:33:12
Sie hat sich gelohnt, da sie kaum teurer als die 3080 war. Kaum jemand hätte die 3090 gekauft, wenn die 3080 nahe der UVP verkauft worden wäre.
Der Markt ist relativ kaputt. Und vermutlich werden Blackwell-Chips alle für Notebooks gehortet, so dass man im Retail kaum etwas findet.
Wie waren die Straßenpreise für beide denn? IIRC war die 3090 trotz Covid Preisen schon noch ordentlich teurer
MiamiNice
2025-02-02, 08:34:51
Ich liebe die Kombination von Worten wie NV, Frame Generation und Misleading. Die ist schon von Natur her true ;)
Troyan
2025-02-02, 08:42:46
Wie waren die Straßenpreise für beide denn? IIRC war die 3090 trotz Covid Preisen schon noch ordentlich teurer
Du hattest die Chance zum Start zu OVP zu kaufen. Zwar gering, aber meilenweit von der Nicht-Verfügbarkeit von Blackwell entfernt. Habe meine 3090 TUF von Asus für 1499€ bekommen.
Gouvernator
2025-02-02, 08:43:26
Sollte nVidia bei der 80er Serie weiterhin nur knapp über 10 % bringen und eine Generation erscheint alle 2 Jahre, dann wird es noch 10 Jahre dauern, so dass erst eine 10080 einen Gleichstand mit der 5090 erreicht.
Das heißt also: Einmal eine schnelle Karte kaufen und dann braucht man 10 Jahre nicht aufrüsten ;)
Bei NV war immer der Vram klassischer Flaschenhals. Ständige Übergänge von 1080p-->1440p--->4k haben eine neue Grafikkarte erfordert. Bei der 3090 wurde glücklicherweise so viel Vram verbaut das man damit bequem auskommt. Die 5090 ist wieder so ein klassischer Fall, wo man von vorne rein zu wenig Vram für ihre angedachte 8K Auflösung verbaut hat. Nur diesmal dank 24Gb der 3090 ist man gar nicht gezwungen auf neue Generation zu wechseln, wie früher.
Und deswegen scheut sich NV oder auch AMD, wie der Teufel das Weihwasser großflächig mehr wie 16Gb zu verbauen. Weil dann brauchen Mainstream-Käufer die nächsten 10 Jahre ihre 4070,4080,5070,5080 gar nicht aufzurüsten.
MiamiNice
2025-02-02, 08:50:04
Wie jetzt? Angedachte 8k? Bist du auf nem LSD Trip? :freak:
Gouvernator
2025-02-02, 08:58:22
Wie jetzt? Angedachte 8k? Bist du auf nem LSD Trip? :freak:
Wenn schon die 3090 die offizielle 8K Karte war, dann ist die 5090 seitdem bestimmt nicht für weniger konzipiert. Stand heute, ist 8K die gesetzliche Norm der aktuellen Technik. :smile:
MiamiNice
2025-02-02, 09:05:07
Ich denke, das siehst nur Du so :)
rentex
2025-02-02, 09:16:03
Du hattest die Chance zum Start zu OVP zu kaufen. Zwar gering, aber meilenweit von der Nicht-Verfügbarkeit von Blackwell entfernt. Habe meine 3090 TUF von Asus für 1499€ bekommen.
Konnte ne Gainward ohne Probleme für 1614€ bekommen.
rentex
2025-02-02, 09:16:56
Wenn schon die 3090 die offizielle 8K Karte war, dann ist die 5090 seitdem bestimmt nicht für weniger konzipiert. Stand heute, ist 8K die gesetzliche Norm der aktuellen Technik. :smile:
8K ist der klägliche Versuch, noch mehr zu verkaufen.
Kriegsgeier
2025-02-02, 09:21:09
sogar eine 6090 wird keine 8K sein.
Erst die 5090 ist eine reinrassige 4K Karte geworden.
Und NVIDIA hat schon 4K bei GTX 1080Ti geschrienen!
PS: meine 3090 ist quasi 1A Karte für 3440x1440 aber auf keinen Fall eine 4K-Karte
Gouvernator
2025-02-02, 09:22:41
Ich denke, das siehst nur Du so :)
8K ist seit 2020 default der aktuelle technische Stand. Unabhängig davon ob die Einwohner Somalias heute ihren ersten 1080p Plasma-TV sich leisten können. ;)
Auf die vergangene Zeitlinie übertragen, sollten wir uns eigentlich zum nächsten Sprung bereit machen. 2005/720p -->2010/1080p--->2015/4k--->2020/8k--->2025/4k? Oder was?
Normal wäre Blackwell 48Gb genau das was wir brauchen.
Kriegsgeier
2025-02-02, 09:25:24
bei 8k sind es 32.000.000 Pixel! Hallo?
Multipliziere diese Zahl mit 60 :)
Klar, für Windowsdesktop kannst du auch 16k nutzen - für Standbilder ;)
Troyan
2025-02-02, 09:33:58
Konnte ne Gainward ohne Probleme für 1614€ bekommen.
Ja, Ampere ging irgendwie noch. Lovelace war viel besser. Hatte am 1. Tag meine Palit gekauft und am 2. Tag meine Gigabyte 4090. :eek: Alles auf Lager bei Notebooksbilliger.
The_Invisible
2025-02-02, 09:37:13
Für 8k gibt's eh dlss-up, da braucht man nicht so viel vram
dargo
2025-02-02, 09:43:49
8K ist seit 2020 default der aktuelle technische Stand.
Na klar... ;D
https://geizhals.de/?cat=monlcd19wide&xf=14591_76804320
Sardaukar.nsn
2025-02-02, 10:26:47
Sollte nVidia bei der 80er Serie weiterhin nur knapp über 10 % bringen und eine Generation erscheint alle 2 Jahre, dann wird es noch 10 Jahre dauern, so dass erst eine 10080 einen Gleichstand mit der 5090 erreicht.
Das heißt also: Einmal eine schnelle Karte kaufen und dann braucht man 10 Jahre nicht aufrüsten ;)
Klingt nach der Definition von Upselling (https://de.wikipedia.org/wiki/Upselling). Ich habe ja inzwischen schon einige Launches mitgemacht und bei Lovelace würde ich dir z.B. zustimmen. Da war die 4080 ggü der 4090 brutal unattraktiv. Bei Ampere war die 3080 trotz 10GB für viele eine Alternative zur 3090.
Aktuell trifft die 5080 mit 16GB und vollem Feature-Set einen Sweetspot für alle die noch auf älteren Grafikkarten unterwegs sind. Selbst in einem Intel oder AM4 System mit DDR4, PCIE4 und 5700/5800x3D wird die hervorragend funktionieren. Von einer 2000er oder 3000er GeForce kommend ist das ein brutales Upgrade.
Hier ist natürlich 3DC Blase wo inzwischen fast jeder mit einer 4090 unterwegs ist. Wäre es jetzt Herbst oder Anfang vom Winter und die 5090er für 2,3k€ breit verfügbar, würde das Upselling vielleicht auch funktionieren. Aber so überzeugend wie die 4090 damals ist die 5090 halt nicht. Bei aktueller Verfügbarkeit und Preislage sowieso nicht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.