PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41

PHuV
2022-07-21, 10:06:32
Wenn man im Glashaus sitzt, sollte man nicht.... :wink:
Ein paar Postings weiter, kannst du deutlich (als Spoiler hinterlegt) sehen, wie echte Schatten wirken.
:

Das was Du da ansprichst, bestreite ich ja nicht. Es ging hier explizit um den Vergleich der von aufkrawall gezeigten Bilder, und ist diese Shaderschatten einfach nur gräßlich. Das RT nach wie vor nicht perfekt und unzureichend mangels genügend Strahlen ist, brauchen wir nicht diskutieren (das wird die 4090 dann schon mit Faktor 1,83 deutlich schneller rechnen). Dennoch sieht es mit RT realistischer und natürlicher aus.

Die anderen Aspekte, wie unser Sehen in der Umgebung, habe ich ja ebenso angesprochen. Dazu noch die hier bemerkten Dunkelheitsprobleme bei TN usw. zeigen doch, daß viele Faktoren für den Bildeindruck wirken, die man so gar nicht vereinbaren und in einem 2D Kasten abbilden kann.
Das Problem wenn man dem Realismus zu sehr hinterher jagt ist, dass die Monitore noch meilenweit davon entfernt sind das ganze sichtbare Helligkeitsspektrum abzubilden. Man kann die Helligkeit nicht so darstellen wie sie realistisch ist.
Vollkommen richtig. Und wie gesagt, Auge, Sehen, Wahrnehmung ist ein sehr komplexer Vorgang.gelernt. Gerade Helligkeit wird nicht nur über das Auge wahrgenommen:
https://www.wissenschaft.de/gesundheit-medizin/wie-wir-licht-auch-jenseits-des-sehens-wahrnehmen/
https://www.relias.de/blog/wahrnehmung-licht-farbe-1

Unser Gehirn hat sehr wohl ein sehr gutes Abbild unserer Realität. Schon Kleinkinder prüfen doch, wie Physik und Schwerkraft funktioniert, und jeder sieht heute sofort, wenn CGI sehr künstliche Effekte bei Schwerkraft, Feuer, fallende Gegenstände usw. erzeugt.
Gute Grafik ist mit Sicherheit kein Fotorealismus sondern letztendlich Kunst und liegt im Auge des Betrachters. Ich würde es doch arg langweilig finden, Spiele spielen zu müssen, die wie die Realität aussehen. Warum solte man das tun? Die Realität hat man doch draußen... Seit Jahren wissen alle in der Filmbranche genau, dass die Realität langweilig ist und setzen Filme und Serien ziemlich losgelöst von der realen Optik in Scene und bei Spielen will man das andersherum haben? Nein, nicht mit mir. Das ist Fiktion und das soll auch Fiktion bleiben.

Mit dem Argument wurde damals aber auch der Farbfilm oder sogar die Farbfotos kritisiert, als der Übergang von Schwarzweiß kam. ;) Du mußt Dir mal alte Kritiken anschauen, als das Kino Ton und später Farbe bekam. Da gab es haufenweise Kritik in Deinem Stil. Gerade bei fehlendem Ton können wir heute nur den Kopf schütteln, ebenso bei fehlender Farbe. Ich behaupte mal, es ist alles eine Frage der Gewöhnung. Früher stellte man ernsthaft die Frage, ob man schwarz/weiß oder in Farbe träumte, weil ich beispielsweise noch zu einer Generation gehöre, die mit S/W Fernsehern und TV-Programm aufgewachsen bin. Stell man heute einen Jugendlichen diese Frage, der wird Dich nur verdutzt anschauen.

Fakt ist, der Mensch strebte in all der Zeit seit seiner Entwicklung zum modernen Menschen, die Realität so real wie möglich abzubilden, sei es in der Kunst, Architektur oder Nahrungserzeugung (siehe den verzweifelten Versuch, künstliches Fleisch zu erzeugen).

Man könnte ja Kunst mit künstlich assoziieren, was ja naheliegt, weil es liegt an "von Mensch geschaffen". Und das kann alles nur "künstlich" sein. Ob man das aber auch so sehen muß oder nicht, es mag ja auch kaum einer künstlichen Geschmack bei Nahrungsmitteln. Gerade hier merkt man doch, wie sehr falsche Geschmacksprägung das Essensverhalten negativ beeinflußt, und tatsächlich Menschen wieder erst lernen müssen, natürlich und normal zu essen.

Thunder99
2022-07-21, 13:04:47
Welches Spiel in welcher Qualität hat sollte man Mal aufnehmen bzw aufzählen. Dann Kategorien in grün, gelb und rot.
Rot wäre dann kostet viel uns sieht Mies aus, z.B. bei Hitman 3.

Aber mit Lovelace wird ja das RT von heute und morgen gepushed. Gut, aber teuer, dennoch flüssig da gute HW

Gott1337
2022-07-21, 13:24:32
Da gehts zu 90% um Budget Beschränkungen. Nachtszenen sind viel billiger :D
mit GI ist wenig Licht immer "teurer".

Thunderburne
2022-07-21, 14:06:51
Ich bin gespannt wie sich die UE5 Engine in den nächsten Jahren machen wird es sind ja super viele Projekte die jetzt auf die Engine setzen teils werden auch schon in der Entwicklung befinde Projekte sogar neu auf die UE5 Engine umgestellt!
Ich vermisse schon seit längerem eine Visuellen Sprung !
Raytracing ist nice einiges kann man visuell dank Reshade Sweet FX schon länger in die Richtung tweaken natürlich wirkt es statistisch gegenüber RT .
Im allgemeine wünsche ich mir Grafisch schon länger einen größeren Sprung!
Gerade das Thema Physik finde ich etwas vernachlässigt!

Bin sehr gespannt wie stark die UE5 Engine die alte 3000 und 4000ner so wie die AMD Karten vordern werden !

Bin aber auch der Meinung das das Thema hier nicht richtig ist!

ChaosTM
2022-07-21, 14:31:47
mit GI ist wenig Licht immer "teurer".


Nope, deshalb spielt auch die neue Resident Evil Serie gerne bei n8. Spart jede menge Geld.

BlacKi
2022-07-21, 14:37:26
ernsthaft leute, geht in den RT thread.

StefAlb
2022-07-21, 16:33:26
Ich kaufe mir eine 4080 oder 90 (je nachdem was preislich NVIDIA will) jedenfalls nicht für RT.

RT interessiert mich nicht.
Spreche natürlich nur für mich. Sei jedem gegönnt, der RT als Must Have sieht.

dargo
2022-07-21, 16:44:25
Ich kaufe mir eine 4080 oder 90 (je nachdem was NVIDIA will) jedenfalls nicht für RT.

RT interessiert mich nicht.
Spreche natürlich nur für mich. Sei jedem gegönnt, der RT als Must Have sieht.
Noch einer der mit der Radeon-Krankheit infiziert wurde. ;) Sorry... den konnte ich mir jetzt nicht verkneifen. :)

Ex3cut3r
2022-07-21, 17:06:26
Die Radeon Krankheit hat er ja nicht, denn er kauf nicht ohne Grund eine GeForce. ^^

Aber wenn er ohne RT spielen möchte, wurde ich ihm eher eine Radeon ans Herz legen, die sind stand jetzt für Raster Only ein bisschen schneller.

ChaosTM
2022-07-21, 17:13:42
Mein Grund für NV beim Laptop* letztes Jahr war ganz eindeutig DLSS und die mobile 6800er war auch noch nicht verfügbar. Wäre aber trotzdem die 16Gb 3080er geworden, obwohl obszön überteuert. RT ist ein zusätzliches Gimmick, dass ich gerne mitnehme.

* dient auch als desktop replacement wenn ich bei den Eltern bin.

Linmoum
2022-07-21, 17:14:07
Ich hab aktuell auch kein Verlangen nach RT. Aber einfach nur aus dem Grund, weil es selbst mit einer 3090Ti und DLSS (also jetzt natürlich nicht mit dem P-Quatsch...) Spiele gibt, wo dann in UHD keine >60fps drin sind. Und das suckt.

Bei der aktuellen Gen ist es noch nachvollziehbar, warum man RT trotzdem noch zweitrangig erachtet. Das wird mit Ada aber in meinen Augen wegfallen und daran muss sich der Markt in Form der Konkurrenz dann auch messen lassen. Zumindest dann, wenn man oberhalb von FHD und eigentlich sogar WQHD unterwegs ist.

In niedrigen Auflösungen gibt's weniger Probleme mit RT-Performance, aber dafür hol ich mir keine sauteure GPU um dann sowieso im CPU-Limit zu hängen...

Exxtreme
2022-07-21, 17:22:22
Bei der aktuellen Gen ist es noch nachvollziehbar, warum man RT trotzdem noch zweitrangig erachtet. Das wird mit Ada aber in meinen Augen wegfallen und daran muss sich der Markt in Form der Konkurrenz dann auch messen lassen. Zumindest dann, wenn man oberhalb von FHD und eigentlich sogar WQHD unterwegs ist.

Bis Spiele davon regen Gebrauch machen werden wohl noch weitere 5 Jahre vergehen. Zumal es fraglich ist ob RT dann wirklich konsequent benutzt wird.

Exakt die gleiche Argumentation gab es als die ersten 3D-Beschleuniger ala Voodoo 1 rauskamen. Endlich wird die CPU entlastet und man kann jetzt bessere KIs in die Spiele einbauen. Sind die KIs seit dem viel besser geworden? Nope. Weil das Spielen gegen eine gute KI schlicht kein Spaß macht. Und das gleiche könnte mit RT auch passieren. Weil Nacht mit RT auch wirklich Nacht ist und man absolut nichts mehr sieht. Also wird man es mit dem RT wieder nicht so genau nehmen etc.

Ergo kann ich es schon verstehen warum RT als Begründung für Ada nicht an erster Stelle steht. ;)

aufkrawall
2022-07-21, 17:25:42
In niedrigen Auflösungen gibt's weniger Probleme mit RT-Performance, aber dafür hol ich mir keine sauteure GPU um dann sowieso im CPU-Limit zu hängen...
Du hast da eine ziemliche Fehlvorstellung, dass man mit RT überall sofort im CPU-Limit hängt. Mit CP77 und WD Legion haut das etwas stärker rein, aber mit ADL + RAM-OC trotzdem häufig bei Bildraten nicht weit unter 100fps. Und in zig Spielen spielt das CPU-Limit halt trotzdem auch mit RT gar keine Rolle.
Btw. kann DLSS Performance in 4k häufig immer noch besser aussehen als native TAA-Matsche. Hört sich bei dir leider relativ vorurteilsbehaftet an.

Btw.2 kann man z.B. Fortnite mit Reflex und DLSS auf einer 3060 besser spielen als auf einer 6700 XT, und das ganz ohne RT.
Dass sich Ex3cut3r eine Karte ohne DLSS-Support kauft, mag er sich in Momenten des Ärgers über Nvidia D3D12-CPU-Limit einreden. Passieren wird es trotzdem nicht, zumindest nicht über die 14 Tage Widerrufsfrist hinaus. :cool: Würde ich jetzt einfach mal drauf wetten.

Lyka
2022-07-21, 18:10:09
Die Offtopic-RT-Diskussionen genau jetzt beenden. Danke im Voraus. Bitte Topic beachten. Ich danke ebenso im Voraus. :smile:

PHuV
2022-07-21, 18:31:15
Die 1499 € für die 3090 FE hatte ich ja noch bereitwillig hingelegt. Aber ob ich 1999 € für eine 4090 FE hinlege, weiß ich noch gar nicht. Hier bin ich mal echt gespannt, was Nvidia als Preise angesichts voller 30x0 Lager so aufrufen will. 4090 wird ja dieses Jahr noch kommen, die unteren Karten werden erst 2023 kommen.

Sardaukar.nsn
2022-07-21, 19:00:05
Mal sehen wohin die Inflation im nächsten Jahr noch gehen wird. Wenn man dieses Jahr noch eine 4090 zur UVP kaufen kann, wird das sicher okay sein.

Linmoum
2022-07-21, 19:00:27
Du hast da eine ziemliche Fehlvorstellung, dass man mit RT überall sofort im CPU-Limit hängt. Mit CP77 und WD Legion haut das etwas stärker rein, aber mit ADL + RAM-OC trotzdem häufig bei Bildraten nicht weit unter 100fps. Und in zig Spielen spielt das CPU-Limit halt trotzdem auch mit RT gar keine Rolle.Das war schon bewusst auf Ada bezogen und nicht auf die aktuellen GPUs. Ausgehend von doppelter Performance - egal ob mit oder ohne RT - wirst du das Vergnügen in FHD und WQHD sehr häufig haben, dass deiner CPU vorher die Puste ausgeht, bevor die GPU an ihre Grenzen kommt. Daher denke ich auch nicht, dass sich halbwegs klar denkende Nerds da draußen, die über einigermaßen mehr Wissen als das eines 0815-Bernds verfügen, eine 4080 und aufwärts holen, um damit dann in FHD rumzugurken. Das Geld kann man auch anders verbennen.

Bzgl. DLSS P (oder eigentlich auch schon Balanced) hatte bis Ende 2020 eine 2080 und die werkelte danach bei meinem Bruder, war also nicht außer Reichweite. Ich hatte kein Spiel, wo ich sage, da würde ich irgendwas unterhalb von Quality statt Nativ+TAA anfassen. Aber vielleicht gibt's genug Leute da draußen, die trotzdem damit glücklich sind. Sei ihnen gegönnt, ich gehöre nicht dazu.

Mit einer 4090 Ende des Jahres dürfte sich das aber eh erledigt haben, dass man noch auf irgendwas unterhalb von Quality zurückgreifen muss. Vorausgesetzt, man kann auch welche kaufen. ;)

Thunderburne
2022-07-21, 19:02:53
Ist gerade schon etwas verführerisch teils 1239 € schon gesehen für ne 3090 hab meine 3080TiFE noch für 1175 verkauft !
Die hatte ich von NBB für 1204€
Es macht halt kein Sinn zur Zeit im Sommer Spiele ich eh kaum bis gar nicht und die neue 4000 Gen wird da noch ordentlich Leistung nach legen!
Die Next Gen Spiele wurden auch verschoben!
Ein Vorteil hat es die PS5 wird mal ein wenig genutzt wen es mal juckt!

ChaosTM
2022-07-21, 19:10:08
Falls AMD mit der neuen Gen vorpreschen sollte, könnte NV genötigt sein früher zu veröffentlichen.
Mal schauen was im Herbst passiert. So viele "wenns" ^^

Slipknot79
2022-07-21, 19:10:52
Bevor die 4090 rausgeballert wird, werden die Amperlager erstmal leer gemacht. Auch der Gebrauchtmarkt muss geräumt werden. Sonst braucht Lederjacke die 4090 nicht um 2000EUR bringen. (y)
Selbst bei 2k stellt sich die Frage, ob man nicht lieber ne Konsole checkt, auch wenn schwer verfügbar.

ChaosTM
2022-07-21, 19:13:07
Bin schon gespannt was er den Aktionären diesmal für Bullshit verkaufen wird, um wieder mal verklagt zu werden.
Tut NV aber nicht weh.

Ex3cut3r
2022-07-21, 19:23:08
Wer wird denn jetzt eigentlich alles gleich zum rls. eine 4090 oder 4080 kaufen? Oder sind es wieder einmal die üblichen Verdächtigen?

Also ich sag jetzt schon mal, ich bin raus (diesmal wirklich) ich schaue mir vlt. die zukünftige 4080 Ti an, die aber erst später kommt. Und was für welche zukünftige AAA Spiele kommen, die meine 3080 Ti in 1440p mit oder ohne RT/DLSS an die Grenze von 60 FPS bringt. Und entscheide erst dann. Der Stromverbrauch ist halt ein gewaltiges Manko. Die 3080 Ti mit 350W heizt mein O11 dynamic mit 6 intake fans (3 unten, 3 seitlich) unfassbar auf, sogar der RAM wird viel heißer, als mit der 200W RTX 2080 davor.

ChaosTM
2022-07-21, 19:26:45
Falls es deutlich unter 2k bleibt bin ich diesmal dabei. Also eher nicht..

aufkrawall
2022-07-21, 19:37:58
Das war schon bewusst auf Ada bezogen und nicht auf die aktuellen GPUs. Ausgehend von doppelter Performance - egal ob mit oder ohne RT - wirst du das Vergnügen in FHD und WQHD sehr häufig haben, dass deiner CPU vorher die Puste ausgeht, bevor die GPU an ihre Grenzen kommt.

Sehe ich mit RT nicht, erst recht nicht mit allen Effekten. Jeder weitere RT-Effekt belastet ja fast nur die GPU, während die CPU schon durch einen einzelnen Effekt ~am stärksten belastet wird. Ist doch gut, wenn man endlich sorgenfrei alle Effekte einschalten kann, oder nicht? Die richtige CPU braucht es natürlich auch dazu, aber das versteht sich doch von selbst. Ab und zu mal 90fps im CPU-Limit in einem Open World Spiel sind da aber imho auch nicht der Untergang. Wobei DL2 wahrscheinlich mit einem deutlichen Vielfachen davon im CPU-Limit läuft.



Bzgl. DLSS P (oder eigentlich auch schon Balanced) hatte bis Ende 2020 eine 2080 und die werkelte danach bei meinem Bruder, war also nicht außer Reichweite. Ich hatte kein Spiel, wo ich sage, da würde ich irgendwas unterhalb von Quality statt Nativ+TAA anfassen.
Da gabs ja auch nur DLSS 2.1.x, das würd ich mir auch nicht geben wollen. ;)
2.2.6 kam erst Mai 2021, und das aktuelle 2.4.6 sieht insbesondere mit Balanced/Performance im Vergleich nochmal besser aus. Häufig wird Q mit 2.1.x sogar schlechter aussehen als Performance mit 2.4.6, erst recht in Bewegung. Perfekt ist es zwar noch längst nicht, aber es hat sich schon einiges getan.

Slipknot79
2022-07-21, 19:38:19
Wer wird denn jetzt eigentlich alles gleich zum rls. eine 4090 oder 4080 kaufen? Oder sind es wieder einmal die üblichen Verdächtigen?

Kommt auf den price und Benchmarks an. Wenn die Shice 2k kosten soll, dann warte ich up, für den Fall, dass das Teil liegen bleibt und Lederjacke den price korrigieren muss. (y)
Kommt aber auch darauf an, was da alles angekündigt wird. Etwa ob es Daten auch zu 4080 und 4070 geben wird? Selektierte Benchmarks?

Thunderburne
2022-07-21, 19:46:57
Wer wird denn jetzt eigentlich alles gleich zum rls. eine 4090 oder 4080 kaufen? Oder sind es wieder einmal die üblichen Verdächtigen?


Erstmal schauen was NV dafür will !
Sollte die Karte zu teuer sein bei release wird erstmal gewartet und geschaut was AMD da bringt!
Eine 4080 Ti 20GB wäre nice habe aber die Befürchtung das die Karte ziemlich spät kommt bzw. so frühsten zum Frühjahr 2023

Sardaukar.nsn
2022-07-21, 19:55:14
Mit fast flächendeckend DLSS hat meine 3080 für mein Setup mit 1440p Ultrawide gefühlt noch genug Dampf. Könnte aber sein das der haben-wollen-Faktor bei der 4090/4080 wieder kommt, aber bin da bisher noch entspannt. #nohype

BlacKi
2022-07-21, 20:11:08
Wer wird denn jetzt eigentlich alles gleich zum rls. eine 4090 oder 4080 kaufen?


wäre ich auf wakü unterwegs, wäre eine 4080 wohl perfekt. da ich derzeit aber passiv unterwegs bin, wirds wohl eine stark auf effizienz getrimmte 4070 sein. passiv natürlich, hoffenlich mit 12gb. wird sich dann immernoch mit einer 3080/3090 anlegen können. keine ahnung ob es so kommt, aber die passiv gekühlte 3060 hier läuft auch 1800-1900 mit 120-130w. das sind fast stock clocks. das werde ich mir der 4070 im itx format nicht hinbekommen, aber statt 3ghz 2-2,5ghz bei 150-170w hört sich für mich plausibel an.

The_Invisible
2022-07-21, 20:17:22
Wer wird denn jetzt eigentlich alles gleich zum rls. eine 4090 oder 4080 kaufen? Oder sind es wieder einmal die üblichen Verdächtigen?

Kommt drauf an, als 4k Monitor User kann man nie genug Leistung haben, eine 4080 ist aber mindestens eingeplant wenn sie mit zumindest 16GB und min. 50% mehr Leistung als meine olle 3080 Ti hat :D

StefAlb
2022-07-21, 20:26:28
Meine 1080Ti ist wohl gestorben. Jetzt bin ich doch etwas unter Zugzwang. Habe eine 970 ausgeliehen bekommen, aber die ist halt doch ein ganz anderes Kaliber als die 1080ti.

Für 1499 die 4090 und ich würde sofort zuschlagen.

Aber kann an den Preis nicht wirklich glauben.

iamthebear
2022-07-21, 21:43:16
Also ich würde sagen der best case das erste halbe Jahr nach Release ist:
.) 1500$ UVP
.) Realer Verkaufspreis 1700$
.) 1:1 umgerechnet in Euro mit Mehrwertsteuer drauf 2000 Euro

Ich will nicht so wirklich an vernünftige Preise glauben. Nvidia wird sich mit Händen und Füßen dagegen sträuben zusätzlich zum gefallenen Umsatz auch noch auf Marge zu verzichten und wenn Nvidia nichts macht, dann wird AMD auch nicht wirklich angreifen. Die wollen schließlich auch Gewinn machen bzw. brauchen die Kapazität für den Serverbereich.

Ich erinnere hier nur an die Turing Preise. Das war auch nach einem Miningcrash.

Slipknot79
2022-07-21, 21:51:37
Meine 1080Ti ist wohl gestorben. Jetzt bin ich doch etwas unter Zugzwang. Habe eine 970 ausgeliehen bekommen, aber die ist halt doch ein ganz anderes Kaliber als die 1080ti.

Für 1499 die 4090 und ich würde sofort zuschlagen.

Aber kann an den Preis nicht wirklich glauben.

Nimm doch GeFurz Now für 20EUR im Monat, bis Ada rauskommt.

r3ptil3
2022-07-21, 21:51:54
Die RTX 4090 wird/muss für unter 1300 Euro kommen.

dargo
2022-07-21, 21:53:18
Die RTX 4090 wird/muss für unter 1300 Euro kommen.
Na wenn du das sagst kommt das bestimmt bei Lederjacke an. ;D

ChaosTM
2022-07-21, 21:54:05
Dein Wort in Gottes Ohr, aber ich glaub ned dran..

1800 ist die absolute Untergrenze. 2k für Customs.

ChaosTM
2022-07-21, 21:54:51
doppel..

dargo
2022-07-21, 22:06:21
1800 ist die absolute Untergrenze. 2k für Customs.
Mir fällt jedenfalls kein vernünftiger Grund ein warum eine 4090 "nur" 1300€ kosten sollte wenn schon der Vorgänger bei 1500$ lag. Wir haben einen teureren Fertigungsprozess, wir haben eine Inflation und wir haben einen schwachen Euro.

Slipknot79
2022-07-21, 22:09:55
Es ist im Moment schwer nen price abzuschätzen
pro hoch (ca 2k EUR):
- EURUSD Kurs
- Lederjacke
- China lockdown, Chip- Kompenentenmangel
- Mining
- NV liefert ab, dicke performance
- Hohe Nachfrage wegen Notgeilheit, aufgebaut durch jene, die die Ampere-Generation übersprungen sind und bei Ada zugrapschen wollen.

contra hoch (ca 1,5k EUR)
- kauft sonst niemand
- insbesondere wenn man auch noch nen Netzteil einplanen muss
- Suche nach Alternativen (AMD, Konsolen, ...)
- Inflation: Leben teurer, Meidung von Luxusartikeln.
- Verbrauch der Graka, hohe Strompreise

Irgendwie finde ich moar pro hoch Argumente. :mad:

Rampage 2
2022-07-21, 22:13:30
Die RTX 4090 wird/muss für unter 1300 Euro kommen.

Es tut mir Leid, deine Hoffnungen platzen zu lassen, aber eine UVP unter 1499$ (Dollar!) brauchst du bei der 4090 nicht zu erwarten. Da derzeit Euro-Dollar-Parität herrscht, bedeutet das in Europa einen Preis von 1800€ - falls Lederjacke gnädig sein sollte, dann "nur" 1500€.

R2

StefAlb
2022-07-21, 22:21:18
Es tut mir Leid, deine Hoffnungen platzen zu lassen, aber eine UVP unter 1499$ (Dollar!) brauchst du bei der 4090 nicht zu erwarten. Da derzeit Euro-Dollar-Parität herrscht, bedeutet das in Europa einen Preis von 1800€ - falls Lederjacke gnädig sein sollte, dann "nur" 1500€.

R2


Wobei der Dollarkurs egal ist. Bei, Kurs 1 Euro = 1.30 Dollar waren die Technikteile in Deutschland trotzdem nicht billiger als in den USA.

Thunderburne
2022-07-21, 22:59:48
Ich erinnere hier nur an die Turing Preise. Das war auch nach einem Miningcrash.
Vor Paar Jahren hatten die Menschen auch Geld in den Taschen!

Das hat sich gravierend geändert hier in Deutschland unser Markt gibt solch hohe Preise für die 1% nur noch für eine begrenzte Zeit her.
Alles ist deutlich teurer geworden von Essen ,Sprit ,Material und Energie wobei da noch kein Ende in Sicht ist!
Die Kaufkraft ist rückläufig .
Ich kenne einige die eigentlich gut verdienen den noch werden die durch die ganzen Preissteigerungen gezwungen um zu denken !

Es kann gut sein das NV den Preis hoch an setzen wird mit der 4000ner Serie !
Zum Release können sie erstmal die Early Birds melken ob die dann aber die Preise weiter so hoch halten können bezweifle ich erstmal weil ihnen die Kunden ausgehen zu den Kursen!
Wir haben halt nicht mehr 2019!

Gott1337
2022-07-22, 09:37:35
Die RTX 4090 wird/muss für unter 1300 Euro kommen.
wie soll das gehen wenn der Euro 30% an Wert verliert?

Leonidas
2022-07-22, 10:00:24
Quelle:
https://twitter.com/kopite7kimi/status/1550329286279966720


Although I don't know your name, I know you there, beast.
AD102-450-A1



Wobei der Dollarkurs egal ist. Bei, Kurs 1 Euro = 1.30 Dollar waren die Technikteile in Deutschland trotzdem nicht billiger als in den USA.

Weil die 10% Differenz stecken sich die Händler gern ein *. Aber bei 1 Euro = 1 $ wirste nicht erleben, dass die Händler Dir die MwSt schenken.

* Aber als es 1,60:1 stand, da waren die Preise in Euroland tatsächlich deutlich niedriger. Wer sich noch erinnern kann ...

Daredevil
2022-07-22, 10:05:59
Wer wird denn jetzt eigentlich alles gleich zum rls. eine 4090 oder 4080 kaufen? Oder sind es wieder einmal die üblichen Verdächtigen?

Also ich sag jetzt schon mal, ich bin raus (diesmal wirklich) ich schaue mir vlt. die zukünftige 4080 Ti an, die aber erst später kommt. Und was für welche zukünftige AAA Spiele kommen, die meine 3080 Ti in 1440p mit oder ohne RT/DLSS an die Grenze von 60 FPS bringt. Und entscheide erst dann. Der Stromverbrauch ist halt ein gewaltiges Manko. Die 3080 Ti mit 350W heizt mein O11 dynamic mit 6 intake fans (3 unten, 3 seitlich) unfassbar auf, sogar der RAM wird viel heißer, als mit der 200W RTX 2080 davor.
Ich glaube das ist einfach ein Nobrainer, wenn man das passende Geld auf dem Konto hat und nichts besseres damit anzufangen weiß.
Egal ob 980ti, 1080ti, 2080ti oder 3090, der nächste Mining Hype kommt bestimmt und demnach kann die Karte auch 2000, 3000 oder 4000€ kaufen, man bekommt sie am Ende fürs gleiche oder mehr Geld vertickt.
Bis dahin hat man einfach Spaß mit der Karte, man muss ja selbst nicht mal die Mining Software dafür anwerfen. :)
Ich sehe GPUs seit 2017 nicht mehr als "Konsum", da ich nie damit Geld verloren habe.

Mein Gehäuse und mein Airflow sind ready für die Karte, auch wenn es im Winter eh nur WoW wird für ein paar Monate. :freak:
Aber besser haben als wollen.

AffenJack
2022-07-22, 11:33:52
Wobei der Dollarkurs egal ist. Bei, Kurs 1 Euro = 1.30 Dollar waren die Technikteile in Deutschland trotzdem nicht billiger als in den USA.

Doch waren sie. Der Blödsinn wird hier immer wieder wiederholt und hat keinerlei Grundlage. Die Dollarkurse bei Grafikkarten wurden schon seit Jahren immer ziemlich genau mit dem Umtauschkurz *1,19 in Euro übertragen, wenn keine Sondereffekte wie Miner reinspielten. Schon ab Euro/Dollar 1,15 hatten wir sehr oft niedrigere Preise, da die Händlermargen in Deutschland aufgrund von Preisvergleichsportalen niedriger sind als in den USA.

w0mbat
2022-07-22, 14:40:20
wie soll das gehen wenn der Euro 30% an Wert verliert?
Genau so wie es kein Problem war € = $ zu setzen als der Euro 60% mehr Wert war. Ich war 2008 in den USA und dort war alles deutlich günstiger als hier.

Gott1337
2022-07-22, 15:08:17
Genau so wie es kein Problem war € = $ zu setzen als der Euro 60% mehr Wert war. Ich war 2008 in den USA und dort war alles deutlich günstiger als hier.
das schwankte in dem Jahr auch zwischen 1.25 und 1.55 ja, Mehr Gewinn abschöpfen ist ja wohl möglich für eine Firma, Verluste zu machen pro verkauftem Produkt eher weniger.

PHuV
2022-07-23, 01:50:03
Die RTX 4090 wird/muss für unter 1300 Euro kommen.
Träum weiter. Die 3090 TI wird auf den genannten Preis gesenkt, und die 4090 wird bei 1899-1999 € verkauft.

dargo
2022-07-23, 07:50:19
Mal was zum lachen wenns nicht so traurig wäre. :tongue:

g4eqlW6q4Ys

Hat der Typ eigentlich bei dem Punkt recht, dass eine 3090TI weiter verkauft wird obwohl die 4090 released wird? Dann gebe ich schon mal 1999$ für die 4090 als Preisschild an. ;D

Zossel
2022-07-23, 08:04:38
contra hoch (ca 1,5k EUR)
- kauft sonst niemand
- insbesondere wenn man auch noch nen Netzteil einplanen muss


Mit nur einem neuen Netzteil (was gegenüber den Kosten für die GPU Kinderkacke ist) wird das nix werden, es braucht entsprechende Infrastruktur um die Abwärme loszuwerden.

HOT
2022-07-23, 08:17:15
Mal was zum lachen wenns nicht so traurig wäre. :tongue:

https://youtu.be/g4eqlW6q4Ys

Hat der Typ eigentlich bei dem Punkt recht, dass eine 3090TI weiter verkauft wird obwohl die 4090 released wird? Dann gebe ich schon mal 1999$ für die 4090 als Preisschild an. ;D

Kommt darauf an ob die AMDs schnell und pünktlich sind.

dargo
2022-07-23, 08:18:44
Kommt darauf an ob die AMDs schnell und pünktlich sind.
Nö... wenn Nvidia die nächste Generation vor AMD launcht muss ein Preis ohne zu wissen wie schnell die Konkurrenz ist stehen. ;) Oder es wird bei der Preisgestaltung ein Pokerspiel bei Nvidia.

Leonidas
2022-07-23, 08:28:28
falls Lederjacke gnädig sein sollte, dann "nur" 1500€.

Nichtmal Jensen kann verhindern, dass die Erbsenzähler den Dollar-Preis in Euro umrechnen (und MwSt draufknallen). Wenn also $1499 - dann €1749.

HOT
2022-07-23, 08:33:40
Nö... wenn Nvidia die nächste Generation vor AMD launcht muss ein Preis ohne zu wissen wie schnell die Konkurrenz ist stehen. ;) Oder es wird bei der Preisgestaltung ein Pokerspiel bei Nvidia.
Dann verkaufen sie halt gar nix mehr. Kommen die AMDs wie geplant auf den Markt, kann sich NV die 3000er-Karten hintern Spiegel stecken. Oder die Preise müssen echt brutal sinken.

mr coffee
2022-07-23, 08:44:04
Jo es hängt denke ich viel von AMD ab, was sich nVidia bzgl. der Preisgestaltung erlauben kann.

Thunderburne
2022-07-23, 08:49:42
Nichtmal Jensen kann verhindern, dass die Erbsenzähler den Dollar-Preis in Euro umrechnen (und MwSt draufknallen). Wenn also $1499 - dann €1749.
Zum Release auf jeden Fall bin ich bei dir !
Wen die Early Birds ab gefrühstückt sind werden die Händler das aber nicht mehr halten können die Zeiten sind vorbei !

dargo
2022-07-23, 10:11:59
Dann verkaufen sie halt gar nix mehr.
Jetzt übertreibe mal nicht. Es gibt genug Junkies denen der Preis einer 4090 völlig latte ist. Die kaufen zu jedem Preis. ;) Natürlich hat NV dann die Option noch den Preis nach unten zu korrigieren sollten zu wenige 4090-er abgesetzt werden.

basix
2022-07-23, 10:39:40
Preisanpassungen nach Release? Blasphemie! :D

Das gab es wann das letzte Mal? Kepler? Fermi?

dargo
2022-07-23, 10:48:35
Ist schon etwas lange her was ich noch im Hinterkopf habe.
https://www.it-times.de/news/nvidia-senkt-preise-fuer-neue-gtx-serie-7915/

HOT
2022-07-23, 10:58:19
Jo das wird passieren. Der Preis der 4090 wird aber stark von Preis/Leistung der N31 abhängen. NV kommt ja offenbar erst danach auf den Markt, wenn AMD den Zeitplan halten kann.
AMD wird jedenfalls keine Lagerprobleme mit 6k-Karten haben, da die Bestandsbasis sicherlich auch viel viel kleiner ist und man keine Probleme haben wird, auch hier die Preise der Altkarten (stark) zu senken. Übrigens stürzen die Preise grad ziemlich ab.

6800XT für 719
3070 für 568
3070Ti für 699
6700XT für 459
3080 12GB für 799

usw.

BlacKi
2022-07-23, 11:04:08
weiß nicht was ihr für fantasien habt. geht doch mal die letzten releases zurück. nv legt vor, und amd ist immer ein stück darunter. war das je anders? amd hat sich schon immer an nv orientiert, ganz einfach um die maximale marge rauszuziehen. die grobe preisrichtung legt nvidia vor, und amd klammert sich dann an diese preise darunter.

HOT
2022-07-23, 11:08:54
Anders ist, dass AMD weiterhin konkurrenzfähig sein könnte, von einem anderen Marktverständnis aus kommt und Kapazitätsprobleme nicht zu erwarten sind. Eigentlich ist alles anders. NV hat halt selten in ein Marktumfeld gelauncht, dass so schlecht ist wie jetzt nach dem Mininghype. Darunter leidet natürlich der Marktführer viel mehr als derjenige, der noch Wachstumspotenzial hat.

dargo
2022-07-23, 11:11:42
weiß nicht was ihr für fantasien habt. geht doch mal die letzten releases zurück. nv legt vor, und amd ist immer ein stück darunter. war das je anders? amd hat sich schon immer an nv orientiert, ganz einfach um die maximale marge rauszuziehen. die grobe preisrichtung legt nvidia vor, und amd klammert sich dann an diese preise darunter.
Aha... dieses "Gesetz" haben wir auch bei AMD vs. Intel immer gesehen. ;D

HOT
2022-07-23, 11:14:49
NV ist heftig in der Zwickmühle:

- Schmeissen sie die ganzen auf Halde liegenden 3000er weg? -> nur Kosten, kein Gewinn+Umsatz, Preise bleiben hoch
- verkaufen sie die Karten ab? -> NV muss die Chippreise massiv senken, da die Kartenhersteller sonst nicht mitspielen werden -> weit weniger Traummarge, Umsatzkorrektur nach unten notwendig
- verzögert NV den Marktstart weiter? -> Konkurrenz rollt den Markt auf, Preissenkungen trotzdem unumgänglich
- Macht NV gar nichts -> Lagerkosten für die 3000er-Chips, müssen dann irgendwann entsorgt oder verschleudert werden (wenn sie jemand haben will).

Blöd gelaufen. AMD hat das riesige Glück, ohne Probleme bei den alten Karten die neuen einfach launchen zu können und damit die besten Produkte am Markt zu haben.

ChaosTM
2022-07-23, 11:32:55
Alles was NV momentan machen kann ist den Krypto Markt zu pushen so gut es geht.
Man hat natürlich aus dem letzten Crash wieder genau nichts gelernt aus Geldgier, aber das ist nun mal das "Kerngeschäft". :)
Die Aktionäre wird es nicht freuen, aber da der Konsumer-Grafikkarten Markt für Nvidia sowieso immer "unwichtiger" wird kein soo großes Problem.
NV steht auch so gut da.

Dovregubben
2022-07-23, 11:47:31
AMD wird jedenfalls keine Lagerprobleme mit 6k-Karten haben, da die Bestandsbasis sicherlich auch viel viel kleiner ist und man keine Probleme haben wird, auch hier die Preise der Altkarten (stark) zu senken.
Sie haben viel weniger, aber verkaufen auch viel weniger. Dass der Lagerbestand ein kleineres Problem für AMD ist, ist reine Spekulation.

Übrigens stürzen die Preise grad ziemlich ab.

6800XT für 719
3070 für 568
3070Ti für 699
6700XT für 459
3080 12GB für 799

usw.
"Absturz" würde ich es nicht nennen, wenn wir vor dem Launch der Nachfolger immer noch über UVP sind.

Leonidas
2022-07-23, 12:13:13
Teilweise sind keine bessere Preise zu machen wegen des schlechten Euro-Kurses.

Schau mal die 6800XT für 719 Ocken. UVP war 649 Euro/Dollar. 719 Euro jetzt sind 616 Dollar ohne Mwst. Faktisch ist die unter Listenpreis, auch wenn es optisch nicht so aussieht. Vor allem aber geht es eben für Euroland kaum weiter runter. Erst wenn es in Amiland unter 600 Dollar geht, kann auch der Euro-Preis Der Karte weiter fallen.

Oder halt der Wechselkurs würde wieder "normal" werden ;)

Troyan
2022-07-23, 12:16:03
Nimm die 6900XT. Die kostet doch auch nur noch 799€ 885€. Offizieller Preis ist $999. Das müsste aktuell also knapp 1165€ sein. Also bald 400€ 280€ oder 32% 24% unter UVP. Die für 799€ ist nicht mehr verfügbar.

Aber laut einigen alles okay so für AMD. Haben die nicht auch erst vor zwei Monaten komplett überteuerte Refreshes auf den Markt gebracht? Lmao.

Thunderburne
2022-07-23, 12:16:38
Jo das wird passieren. Der Preis der 4090 wird aber stark von Preis/Leistung der N31 abhängen. NV kommt ja offenbar erst danach auf den Markt, wenn AMD den Zeitplan halten kann.
AMD wird jedenfalls keine Lagerprobleme mit 6k-Karten haben, da die Bestandsbasis sicherlich auch viel viel kleiner ist und man keine Probleme haben wird, auch hier die Preise der Altkarten (stark) zu senken. Übrigens stürzen die Preise grad ziemlich ab.

6800XT für 719
3070 für 568
3070Ti für 699
6700XT für 459
3080 12GB für 799

usw.

Jup 3090 kurzzeitig bei 1249 schon gesehen die 3090 Ti ab 1499 zu haben!
Da geht noch richtig was !

basix
2022-07-23, 12:16:43
weiß nicht was ihr für fantasien habt. geht doch mal die letzten releases zurück. nv legt vor, und amd ist immer ein stück darunter. war das je anders? amd hat sich schon immer an nv orientiert, ganz einfach um die maximale marge rauszuziehen. die grobe preisrichtung legt nvidia vor, und amd klammert sich dann an diese preise darunter.

Der, der zuerst am Markt ist legt vor. Der zweite passt sich dann entsprechend an. Egal ob AMD oder Nvidia. Egal ob die zweiten Karten dann schneller oder langsamer sind.

Seit Maxwell war der erste halt immer Nvidia und nicht AMD. Und zudem noch schneller und meistens (Ausnahme: RDNA2 vs. Ampere) energieeffizienter. Klar konnten sie damit den Markt diktieren und mussten auch nach Release der AMD Karten nicht reagieren. Bei Ur-GCN war AMD zuerst. Kepler war dann halt schneller und Nvidia konnte höhere Preise verlangen.

Jetzt bei RDNA3 besteht die Möglichkeit, dass AMD so nahe wie schon ewig nicht mehr an Nvidia dran ist. Auch hinsichtlich Featureset (RT-Performance, DLSS/FSR, Matrix-Cores?). Und je nach dem sogar schneller und/oder energieeffizienter. Momentan sieht es aber wieder danach aus, dass Nvidia als erstes am Markt erscheint. Was hat das für einen Vorteil für Nvidia? Sie können den Startpreis diktieren und somit versuchen, ihre Ziel-Marge zu etablieren. Mit der teuersten Karte zuerst geht das am einfachsten, insbesondere wenn man noch hohe Altbestände hat. Und man verliert nicht das Gesicht, wenn die kleineren Karten sich dann preislich günstigeren AMD Karten angleichen müssten (die 4090 ist ja eine "Halo" Karte). Das ist mMn einer der Gründe, wieso der Big-Lovelace Release nicht nach hinten verschoben wird, trotz voller Lager mit Ampere-Karten. Zudem ist eine 4090 keine direkte Konkurrenz für Ampere, die wird preislich garantiert >3090 Ti liegen. Nvidia muss aber dennoch schauen, dass sie die 3090er möglichst schnell loswerden. Die werden nicht mehr gut laufen, sobald die 4090 draussen ist. Die 3080er sind MSRP mässig an einem ganz anderen Ort, erinnert sich jemand noch and die 699$ für die 3080 10GB? ;) Dort könnte Nvidia zulassen, dass die Ampere Preise während des Abverkaufs langsam in Richtung MSRP tendieren. Ampere wird eh noch eine gewisse Zeit parallel zu Lovelace mitlaufen (Dual-Sourcing TSMC & Samsung).

Wenn dann die 4090er Verkaufszahlen aufgrund hoher Preise nicht gegen Null tendieren und AMDs Karten sehr konkurrenzfähig sind, wird AMD automatisch den Preis an denen Nvidias angleichen. Auch AMD will hohe Margen. Die Polaris-Zeiten, wo die Karten fast verschleudert wurden, sind vorbei.

Ein weiterer Grund für diese Taktik ist, dass N5/N6/N7 immer noch mit Kapazitätsengpässen zu kämpfen hat. Deswegen produziert man am Anschlag und versucht, den maximalen Gewinn pro Chip zu realisieren. Nur wenn es diese Engässe nicht gäbe und man auf Marktanteile aus ist, könnte mit dem Preis unten rein schiessen. Und das weiss alles auch Nvidia. Deswegen: 4090 Release sobald möglich, um ihre Ziel-Marge mit höherer Wahrscheinlichkeit sichern zu können. Käme N31 vorher raus, zu einem tieferen Preis als von Nvidia erwünscht (AMDs Kostenstrukturen aufgrund Chiplets könnten das zulassen), und Nvidias Karten wären sogar langsamer, dann kann Nvidia fast unmöglich höhere Preise als AMD verlangen. Klar, Nvidia ist noch ein starker Markennahme und Nvidia könnte gleiche Preise verlangen, auch wenn sie etwas langsamer sind. Die Richtvorgabe hinsichtlich Preis käme aber von AMD und nicht Nvidia.

Jup 3090 kurzzeitig bei 1249 schon gesehen die 3090 Ti ab 1499
Genau wie von mir oben beschrieben: Nvidia will die 3090er loswerden ;)

"Absturz" würde ich es nicht nennen, wenn wir vor dem Launch der Nachfolger immer noch über UVP sind.
Seit Maxwell waren eigentlich immer alle Karten auch vor Release noch bei MSRP. Nur nach der Ampere Vorstellung gab es bei Turing ein paar Panik-Preissenkungen.

Troyan
2022-07-23, 12:21:08
Jetzt bei RDNA3 besteht die Möglichkeit, dass AMD so nahe wie schon ewig nicht mehr an Nvidia dran ist. .

Also, wenn nVidia seit Jahren mal wieder auf dem selben Prozess wie AMD ist, hätte AMD bessere Chancen als wenn nVidia einen schlechteren Prozess verwendet. Man, Logik at best hier im Thread. :rolleyes:

Wird Zeit, dass endlich mehr Leaks kommen.

basix
2022-07-23, 12:27:21
Danke Troyan, für den überaus fundierten Post ;)

Aber bei dir war es ja auch völlig klar, dass RDNA2 niemals ähnlich energieffizient wie Ampere sein kann. Da ja N7 -> N7 bei AMD und 12FFN -> 8nm Samsung bei Nvidia ;)

Edit:
Nur um noch zu ergänzen. Dein Punkt ist nicht unlogisch. TSMCs Prozesse sind besser als die von Samsung.

AMD selbst spricht mal von >1.5x Energieffizienz (und das höchstoffiziell auf Folien vom letzten FAD). Von Nvidia gibt es mittlerweile Leaks, die ~2.0x Performance versprechen (Control mit Raytracing, TSE). Das allerdings bei 450W vs. 350W. Was ergibt das? ~1.5x Energieffizienz. Auf was läuft es nach momentaner "Informationslage" raus? Ungefähren Gleichstand, je nach Power Limits der Karten.

Slipknot79
2022-07-23, 14:07:03
Jo es hängt denke ich viel von AMD ab, was sich nVidia bzgl. der Preisgestaltung erlauben kann.


In einem Oligopol erlauben sich beide viel. :wink:
Huch, plötzlich kostet eine 3090Ti statt 2200EUR -> 1600EUR (y)
Huch, plötzlich kosten 2000$ Intel CPUs nur noch 1000$ als AMD mit Ryzen daher kam.
Da ist noch genug Huch drinen.
Das wird bei der 4090 nicht anders werden, egal was AMD m8. (y) Die 4090 um 1800EUR würde auch um 1000EUR immer noch Gewinn abwerfen. (y)
Das einzige was hilft, ist einfach nur, dass die Masse nicht mitm8. Und weil die Masse finanziell dumm und emotional unkontrolliert ist, werden auch die Preise eben hoch bleiben. :wink:

StefAlb
2022-07-23, 14:18:03
NVIDIA muss schauen, wie schnell der Navi31 wird und AMD dafür will.

NVIDIA kann zB keine 2000 Euro für die 4090 ansetzen, wenn der Navi31 überall 10% schneller wäre und nur 1400 Euro kosten würde.

Natürlich könnte AMD auch sagen, dann nehmen wir doch auch 2000 Euro,wenn wir 10% schneller sind reicht das als Verkaufsargument für AMD.

BlacKi
2022-07-23, 14:34:00
Natürlich könnte AMD auch sagen, dann nehmen wir doch auch 2000 Euro,wenn wir 10% schneller sind reicht das als Verkaufsargument für AMD.es würde schon reichen wenn man 1$ unter dem von nvidia läge und minimal schneller.


ich bezweifle aber stark das man schneller als nvidia wird. möglicherweiße schneller als die 4090, aber gegen einer nochmals 20% schnellere ti? sehe ich nicht kommen, deshalb kann und wird obenraus nvidia die preise diktieren. schwieriger wirds im mittelfeld, aber auch ja kann man sicher gut mit ti und super kontern. ist doch nichts neues, alles schon dagewesen.

StefAlb
2022-07-23, 15:23:48
es würde schon reichen wenn man 1$ unter dem von nvidia läge und minimal schneller.


Ne,bei Grafikkarten,CPUs,Autos, Handys usw müssen die "Kleinen" schon deutlich besser oder günstiger sein, damit die Kundschaft wechselt.

Der Platzhirsch hat es da in der Regel leichter.

Gott1337
2022-07-23, 16:07:34
es würde schon reichen wenn man 1$ unter dem von nvidia läge und minimal schneller.


ich bezweifle aber stark das man schneller als nvidia wird. möglicherweiße schneller als die 4090, aber gegen einer nochmals 20% schnellere ti? sehe ich nicht kommen, deshalb kann und wird obenraus nvidia die preise diktieren. schwieriger wirds im mittelfeld, aber auch ja kann man sicher gut mit ti und super kontern. ist doch nichts neues, alles schon dagewesen.
die Leute geben doch rund 200€ mehr für eine Nvidia GPU aus, das hat schon seine Gründe. Viele wollen auf Nvidia Only features nicht verzichten.

AMD muss erst einmal wieder Marktanteile zurück gewinnen, unter 20% ist einfach inakzeptabel

basix
2022-07-23, 17:10:27
die Leute geben doch rund 200€ mehr für eine Nvidia GPU aus, das hat schon seine Gründe. Viele wollen auf Nvidia Only features nicht verzichten.
Welche mit RDNA3 vermutlich weniger werden ;)

Klar, DLSS gibt es noch. Für neue Games ist das aber bei weitem nicht mehr ein so grosses Surplus, da FSR 2.0 gut aufgeholt hat.


AMD muss erst einmal wieder Marktanteile zurück gewinnen, unter 20% ist einfach inakzeptabel
Ist langfristig zu wenig, ja. Ist nur die Frage, ob das die Strategie für RDNA3 ist? Knappe Wafer Allocation wird mittelfristig nicht weggehen. RDNA3 soll mMn eher mal Mind Share gewinnen (schnellste und effizienteste GPUs, Feature Parität mit Nvidia, etc.) und im High End Bereich abgrasen was geht. Desktop wie Mobile. Unten rum wird Lovelace deutlich attraktiver sein als die mitgeschleppten N23/24. Und unten rum sind halt die höchsten Stückzahlen. Ergo wird mMn hinsichtlich Marktanteile nur im oberen Produkt-Segment eine Steigerung für AMD erfolgen.

Hinsichtlich Marktanteile sehe ich eher RDNA4 als guten Kandidaten an. Gab mal Gerüchte, dass es dort N41-N45 geben soll. Was eher in Richtung breites Portfolio und einer Strategie für mehr Marktanteile hindeutet. Was ich hier eine gute Strategie finden würde: Release von RDNA4 bereits Ende Q1/2024 und nicht erst Q3/2024. Im besten Fall wäre es dann nämlich so, dass Nvidia ihren Ada-Next erst später im Jahr geplant hat (Q3/2023 würde sich anbieten). Dann hätte AMD ~6 Monate Vorsprung, mit grossen Performance-Vorteil. Viele Enthusiasten würden dann bereits wechseln und man hätte Nvidia bereits einen guten Teil des Kuchens weggeschnappt. Und wenn das dank Chiplets gleich von Top to Bottom mit N41-N45 klappen würde, sogar über das gesamte Portfolio von Enthusiast bis Entry Level. Damit würde AMD Marktanteile gewinnen.

aufkrawall
2022-07-23, 17:15:03
Klar, DLSS gibt es noch. Für neue Games ist das aber bei weitem nicht mehr ein so grosses Surplus, da FSR 2.0 gut aufgeholt hat.

DLSS hat so natürlich an Relevanz verloren, aber Entwickler sind leider blöd und unterstützen nicht immer beide Features.
Durchaus möglich, dass FSR 2.x noch besser wird und sich weiter verbreitet. Aber das wird wohl auch eher ein Prozess, also entscheidender für die übernächste Gen.

Thunder99
2022-07-23, 17:35:52
DLSS ist eine Spur besser als FSR 2.0 und bleibt es.
Mal schauen ob am Ende wirklich beide Technologien angeboten werden.

Nvidia braucht DLSS damit die Tensor Cores nicht umsonst sind, oder?

Bleibt spannend

Ex3cut3r
2022-07-23, 18:00:48
Also das neue Spider-Man Remastered wird stand jetzt wieder einmal mit DLSS und ohne FSR 2.0 ausgeliefert, außerdem kommt es mit Raytracing für Spiegelungen und wahrscheinlich AO. Eine 3070 wird mit einer 6900XT für RT genannt, sieht ähnlich wie bei CP77, Dying Light 2, Control, aus, dass Ampere wieder einmal erheblich schneller unterwegs ist, wo RT halt nicht "sparsam" eingesetzt wird.

Allerdings gibt es die Spiegelungen auch auf der PS5, nur in erheblicher Low Quality Resolution, muss man mal sehen ob es das Setting "Low" auch in der PC Version gibt. Mit dem riesigen Wolkenkratzern und den Fenster Spielgelungen wurde ich niemals auf die RT Spieglungen verzichten wollen.

ChaosTM
2022-07-23, 18:03:00
Hoffentlich sieht man es auch. Wäre wieder mal zeit für eine "Killer Applikation".

dargo
2022-07-23, 19:20:10
Teilweise sind keine bessere Preise zu machen wegen des schlechten Euro-Kurses.

Schau mal die 6800XT für 719 Ocken. UVP war 649 Euro/Dollar.
Es wird nicht richtiger je öfter es wiederholt wird. Es gibt/gab keine Custom 6800XT für 649$.

btw.
Das Beispiel vom Trojaner und der RX 6900XT ist mal ausnahmsweise korrekt. Referenz 999$, Customs drüber und aktuell liegen die Customs unterhalb der Referenz in Euro obwohl sogar der Euro schwach ist.

aufkrawall
2022-07-23, 19:32:57
Die $-MSRPs sind doch vor Steuer, oder nicht?

dargo
2022-07-23, 19:33:47
Korrekt.

dargo
2022-07-23, 20:04:19
ich bezweifle aber stark das man schneller als nvidia wird. möglicherweiße schneller als die 4090, aber gegen einer nochmals 20% schnellere ti? sehe ich nicht kommen, deshalb kann und wird obenraus nvidia die preise diktieren.
Eine 4090TI soll ganze 20% schneller sein als eine 4090? Hmm... gehen wir mal die Details durch. Die 4090 (Referenz) kommt also mit 450W (noch nicht ganz geklärt). Damit eine 4090TI 20% schneller wird reichen da nie im Leben 20% mehr Energie für. Also sehen wir hier schon mindestens die 600+W? :tongue: Selbst wenn N31 knapp unter dieser 4090TI landet, dafür aber bei 400-450W rauskommt glaubst du ernsthaft diese 4090TI hat am Markt irgendwelche nennenswerte Relevanz? Die 3090TI verstaubt schon praktisch im Regal wenn ich mir die Zahlen bei MF so ansehe.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+3090+Ti.html

Klar... global gesehen mag das etwas anders sein, da fehlen mir konkrete Zahlen dazu.

btw.
Die 3090TI braucht für lächerliche +5% gleich 71W mehr als die 3090 Strix OC.
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/3/

Das ganze mal Faktor 4 da lande ich schon bei fast +300W für den Nachfolger Ada um 20% mehr Performance rauszukitzeln, das wird ein Spaß. ;D

StefAlb
2022-07-23, 20:17:21
NVIDIA und AMD müssen auch langsam mal schauen, dass sie den Bogen nicht überspannen.

Der Markt für 2000 Euro Grafikkarten ist extrem dünn.

Wieviel % der PC Spieler geben denn soviel aus? 1%? Weniger?

Das Forum hier ist ja kein Maßstab für die Verkäufe.

Genauso wie bei Transfermarkt.de sich wohl mehr Fussballinteressierte im Forum finden, als im Schnitt der Bevölkerung :D

Kurzum, je absurder die Preise werden, um so weniger wird NVIDIA und AMD verkaufen.

BlacKi
2022-07-23, 20:33:46
Das ganze mal Faktor 4 da lande ich schon bei fast +300W für den Nachfolger Ada um 20% mehr Performance rauszukitzeln, das wird ein Spaß. ;D




ja, der stromverbrauch ist absolut gesehen hoch. aber schon beim selben takt, und die 4090 soll ja schon deutlich unter dem maximum boosten, also reserven haben, dann kommen nochmals 15% mehr rechenleistung pro takt obendrauf. ehrlich gesagt sind das mehr als 25%. bei 800w. bei 600w so um die 20%.



das ist viel, und so eine karte will ich auch nciht im system haben, aber man kann damit ziemlich sicher alles schlagen was von amd kommt. und die karte wird auch einen seehr hohen preis haben.


NVIDIA und AMD müssen auch langsam mal schauen, dass sie den Bogen nicht überspannen.

Der Markt für 2000 Euro Grafikkarten ist extrem dünn.

wenn eine firma in solche karten anbietet, und scheinbar die leute die 3090 nicht abschreckt, dann wird das ausgebaut. massiv. der markt scheint da zu sein. tellerrand und so.

dargo
2022-07-23, 20:35:13
das ist viel, und so eine karte will ich auch nciht im system haben, aber man kann damit ziemlich sicher alles schlagen was von amd kommt. und die karte wird auch einen seehr hohen preis haben.
Und was macht dich so sicher, dass AMD diesen völligen Irrsinn über das Powerlimit nicht mitgeht? Zb. mit einer superduper Edition wo der Verbrauch völlig latte ist?

ehrlich gesagt sind das mehr als 25%.
Träum weiter. :ulol:

ja, der stromverbrauch ist absolut gesehen hoch. aber schon beim selben takt, und die 4090 soll ja schon deutlich unter dem maximum boosten, also reserven haben...

Das klingt bei dir so als ob das was Positives wäre. Wenn die 4090 schon so stark bei den Frequenzen gebremst wird warum säuft die dann trotzdem ganze 450W? Und sollten diese stark eingebremsten Frequenzen bei einer 4090TI gelöst werden wird der Stromverbrauch völlig durch die Decke gehen. Gerade Frequenzen einer Architektur am oberen Ende saufen ohne Ende.

StefAlb
2022-07-23, 20:46:36
wenn eine firma in solche karten anbietet, und scheinbar die leute die 3090 nicht abschreckt, dann wird das ausgebaut. massiv. der markt scheint da zu sein. tellerrand und so.

Nur bringt es der Firma wenig, wenn sie 10 Karten für 2000 Euro verkaufen kann, aber die gleiche Karte 100 mal für zB 1500 Euro.
Der Gewinn wäre bei der 1500 Euro Variante massiv höher, auch wenn er pro Karte geringer ausfällt.

BlacKi
2022-07-23, 21:07:08
Nur bringt es der Firma wenig, wenn sie 10 Karten für 2000 Euro verkaufen kann, aber die gleiche Karte 100 mal für zB 1500 Euro.
Der Gewinn wäre bei der 1500 Euro Variante massiv höher, auch wenn er pro Karte geringer ausfällt.ich rede hier von 500-1000€$ aufpreis, für dieselbe karte nur mit 100$ teurerem kühler und anderem bios. bei mehr als nur 10 karten. zum anderen reden wir nicht von 10 karten oder 100 sondern zig tausend. aber selbst mit deinen zahlen reden wir nicht von 10 vs 100 karten sondern 90günstige+10teure vs 100 günstige.
quadro karten waren schon immer 10x teurer und haben sich verkauft. in ausreichender stückzahl. kleingeister wie ihr können das nicht verstehen;)

das man lederjackes marketing erfolg noch anzweifelt wundert mich etwas.

dargo
2022-07-23, 21:11:28
Quadrokarten sind produktive Karten und kein Gaming Scheiß. ;)

BlacKi
2022-07-23, 21:22:11
its mixed these days.

Mangel76
2022-07-23, 21:52:52
Nennt sich Preisdikriminierung. Greife bei jedem Kunden einen Preis möglichst nah an der individuellen Zahlungsbereitschaft ab. Maximiert die Produzentenrente, minimiert die Konsumentenrente.

Slipknot79
2022-07-23, 22:03:45
PX84uujpVLc

Er ist der Meinung, dass Ada erst in einem Jahr released wird laut seinen sources. (y)

kmf
2022-07-23, 22:10:08
Nennt sich Preisdikriminierung. Greife bei jedem Kunden einen Preis möglichst nah an der individuellen Zahlungsbereitschaft ab. Maximiert die Produzentenrente, minimiert die Konsumentenrente.Also ich nenn's beim Wort: Ausnehmen! So heißt das bei uns.

Fing mit RTX RTX2080TI an. Plötzlich war die Karte gute 400€ teurer, als deren Vorgänger.

dargo
2022-07-23, 22:15:51
https://youtu.be/PX84uujpVLc

Er ist der Meinung, dass Ada erst in einem Jahr released wird laut seinen sources. (y)
WTF? X-D :freak:

iamthebear
2022-07-23, 22:56:56
Also solange er da ganz alleine mit diesem Gerücht da steht glaube ichnkein Wort.
Ja Nvidia wird die Midrangekarten etwas verzögern bis sie genug Deppen gefunden haben, die jetzt noch den alten Kram kaufen aber 1 Jahr komplett auf sämtlichen Umsatz verzichten kann sich denke ich Nvidia nicht leisten.
Ich denke eher, dass ab Mitte September die große Flut angebrauchten Miningkarten kommt und die Miningfarmen eine riesige Aktion mit mit Refurbed Karten machen und sich Ampere zum aktuellen UVP sowieso nicht mehr verkaufen.

Gleichzeitig sitzen sowohl Nvidia als auch AMD auf zu vielen Waferkapazitäten, die TSMC nicht zurücknimmt. Mag sein, dass sich der Marktpreis stabilisieren lässt indem beide ein halbes Jahr nichts mehr liefern aber ohne ein vernünftiges P/L Verhältnis wird der Markt nicht mehr groß genug sein. In den letzten 5 Jahren hat man viele potentielle Kunden vergrault.

prinz_valium_2
2022-07-23, 23:21:01
WTF? X-D :freak:

Also auf dieses Jahr sollte ja langsam bei allen als Geschichte angekommen sein.
Denke einen Paperlaunch für 4090 könnte es am Ende des Jahres geben. Release dann Anfang 2023.


AMD denke ich auch, dass nur die neuen Ryzen kommen und GPUs dann nächstes Jahr

StefAlb
2022-07-23, 23:38:04
https://youtu.be/PX84uujpVLc

Er ist der Meinung, dass Ada erst in einem Jahr released wird laut seinen sources. (y)


Und NVIDIA will dann noch 3090Tis so lange verkaufen für 1200 Euro, die so schnell ist wie die 500 Euro Navi 33 7600?? ;D

Eher unwahrscheinlich.

aufkrawall
2022-07-24, 00:22:04
Wenige Monate vor dem Ampere-Launch hatte Huang auch gesagt, es würde nichts kommen. Und das war sicherlich nicht auf die Verfügbarkeit bezogen. ;)
Jeden Morgen steht ein Depp auf...

Thunderburne
2022-07-24, 06:51:29
Und NVIDIA will dann noch 3090Tis so lange verkaufen für 1200 Euro, die so schnell ist wie die 500 Euro Navi 33 7600?? ;D

Eher unwahrscheinlich.
Die 7600 sehen wir wohl auch nicht vor Frühjahr 23 .
Wieviel Später kam den die 6600 nach der der 6800/6900?

amdfanuwe
2022-07-24, 07:41:55
Die letzten 2 Jahre waren aber auch nicht normal.
Momentan scheint die Lieferkette wieder besser zu funktionieren, der allgemeine Bedarf und Mining hat nachgelassen.
Leider die Preise noch nicht entsprechend.
AMD und Nvidia wollen natürlich ein Maximum erwirtschaften. Dementsprechend fallen die Produktplatzierungen und Preise aus.

HOT
2022-07-24, 07:56:33
https://youtu.be/PX84uujpVLc

Er ist der Meinung, dass Ada erst in einem Jahr released wird laut seinen sources. (y)
Durchaus interessant, aber auch ne Menge Blödsinn, was er ja auch selbst zugibt, das er rumspekuliert.
Es ist natürlich klar, wenn NV die Produktion von Ada einschränkt, wird der gestaffelte Launch in die Länge gezogen, dann kann es durchaus sein, dass eine 4060 erst im Sommer 23 verfügbar ist. Ich teile aber überhaupt nicht seine emotionsgeladene Einschätzung bezüglich der Gebrauchtkarten aus dem Mining, der Markt wird die schon abnehmen, da seh ich überhaupt keine Hindernisse. Ob das auch hier ankommt oder sich komplett in Asien abspielt ist da wieder ne andere Frage.

Also auf dieses Jahr sollte ja langsam bei allen als Geschichte angekommen sein.
Denke einen Paperlaunch für 4090 könnte es am Ende des Jahres geben. Release dann Anfang 2023.


AMD denke ich auch, dass nur die neuen Ryzen kommen und GPUs dann nächstes Jahr

Was hat AMD damit zu tun? Bei deren Lineup ist nur N21 betroffen und davon gibts mit sehr großer Sicherheit keine großen Lagerbestände. AMD dürfte ganz normal pünktlich launchen, da gibts keine Hindernisse, es sei denn technischer Natur, was natürlich immer mal passieren kann. Wenn NV alles verzögert, kann AMD allerdings die Preise diktieren, was wiederum nicht so gut für den Kunden wäre.

DrFreaK666
2022-07-24, 08:05:55
NVIDIA und AMD müssen auch langsam mal schauen, dass sie den Bogen nicht überspannen.

Der Markt für 2000 Euro Grafikkarten ist extrem dünn...

Es muss niemand 2000€ für eine Grafikkarte ausgeben

Thunder99
2022-07-24, 10:15:37
Mega Verzögerung kann ich mir nicht vorstellen, da würde man ja das Feld AMD überlassen. Das wird sicher nicht freiwillig passieren.

Wenn man man zu viele Karten hat der alten Generation einfach den Preis senken...
Oder Recycling machen würde da sehr gut sein um Ressourcen zu sparen

Slipknot79
2022-07-24, 11:00:09
Durchaus interessant, aber auch ne Menge Blödsinn, was er ja auch selbst zugibt, das er rumspekuliert.
Es ist natürlich klar, wenn NV die Produktion von Ada einschränkt, wird der gestaffelte Launch in die Länge gezogen, dann kann es durchaus sein, dass eine 4060 erst im Sommer 23 verfügbar ist.

Nach Spekulation klingt das weniger, er habe angeblich mehrere Quellen die das gleiche behaupten.
Außerdem stellt er auch klar, dass in einem Jahr die Launchkarten (4090) kommen soll und nicht die langsameren Karten wenn schon die Launchkarten lange draussen sind.
Es klingt mehr nach Tatsache, aber eben es ist auch nichts offizielles, was sich wieder ändern can.

Ich can den Shice aber auch nicht glauben. Ich glaube immer noch an Herbst für den Release.

HOT
2022-07-24, 11:01:48
Nach Spekulation klingt das weniger, er habe angeblich mehrere Quellen die das gleiche behaupten.
Außerdem stellt er auch klar, dass in einem Jahr die Launchkarten (4090) kommen soll und nicht die langsameren Karten wenn schon die Launchkarten lange draussen sind.
Es klingt mehr nach Tatsache, aber eben es ist auch nichts offizielles, was sich wieder ändern can.

Ich can den Shice aber auch nicht glauben. Ich glaube immer noch an Herbst für den Release.
Das hab ich nicht bezweifelt. Aber man muss auch zuhören, was er sagt, denn er sagt, dass es Produkte gibt, die erst im Sommer releast werden könnten. Er sagt nicht, dass die 4090 nächsten Sommer kommt.

Slipknot79
2022-07-24, 11:07:44
Ne, er stellt das schon so dar, dass eben die Launchkarten im Sommer kommen sollen. Und die Reihenfolge ist immer Dickschiff zuerst, das war schon immer so sein Argument. Auch erzählt er etwas über diese Reihenfolge und stellt dann eben klar was er meint, also Dickschiff=Launchkarte erst im Sommer 2023.

ChaosTM
2022-07-24, 11:09:15
Man wird abwarten was AMD macht und zur Not haut man dann halt das Flaggschiff raus*, damit man den "Längsten" hat ;)
Mit den anderen Modellen kann man warten bis der Rest abverkauft ist.

* in sehr kleine Dosen und extrem überteuert

Linmoum
2022-07-24, 11:19:54
Was Jayz da sagt, ist schon eindeutig wie Slipknot es schreibt. Trotzdem keine Ahnung, wann oder ob er bisher überhaupt schon mal mit Insiderwissen glänzen konnte. Klingt für mich schlicht nach ausgedachtem Quatsch.

StefAlb
2022-07-24, 11:26:42
Man wird abwarten was AMD macht und zur Not haut man dann halt das Flaggschiff raus*, damit man den "Längsten" hat ;)
Mit den anderen Modellen kann man warten bis der Rest abverkauft ist.

* in sehr kleine Dosen und extrem überteuert

NVIDIA wird sicherlich nicht 1 Jahr lang AMD das Feld überlassen.

Wenn die neuen 7x Karten auch nur halbwegs das versprechen was spekuliert wird, dann müsste NVIDIA die Preise direkt halbieren um noch zu verkaufen.

Halte ich für ausgeschlossen.

Kallenpeter
2022-07-24, 11:41:17
Gibt es irgendwelche Hinweise oder Erfahrungswerte bezüglich der mobilen Varianten? Wollte mir einen neuen Laptop kaufen, im Idealfall natürlich mit den neuen GPUs (AMD oder nvidia egal, Preis ebenfalls egal). Aber wenn es eh immer so ist, das die mobilen Varianten erst 6 Monate später kommen als die Desktop-Varianten, würde ich evtl. einfach einen Laptop mit den alten GPUs nehmen.

Troyan
2022-07-24, 11:52:43
Naja, Notebooks-Chips werden von nVidia meisten auf der CES präsentiert. Sollte auch diesmal der Fall sein, da die Verfügbarkeit sowieso meistens erst Monate später stattfindet - z.B. bei Ampere: https://blogs.nvidia.com/blog/2021/01/14/ces-auto-drones-gaming/

ChaosTM
2022-07-24, 11:52:45
NVIDIA wird sicherlich nicht 1 Jahr lang AMD das Feld überlassen.

Wenn die neuen 7x Karten auch nur halbwegs das versprechen was spekuliert wird, dann müsste NVIDIA die Preise direkt halbieren um noch zu verkaufen.

Halte ich für ausgeschlossen.


Niemand sagt was von Feld überlassen. Man wartet ab und reagiert dann auf die jeweilige Situation (7700, 7600 etc) und sei es auch nur mit einer Ankündigung und "geleakten" Benchmarks. Das reicht meistens, um die Leute abwartet zu lassen.

Im schlimmsten Fall muss man die 3er Serie halt günstiger als gewollt abverkaufen.

Troyan
2022-07-24, 11:57:28
Hört doch endlich mal auf euch Dinge auszudenken. nVidia wird nicht auf AMD warten. Diesen Unsinn wird von den selben Leuten seit Jahren hier geschrieben und es trifft nie zu: Weder bei Maxwell, bei Pascal, bei Turing und Ampere. Auch Turing wurde mitten im Crash veröffentlicht.

AMD ist die Firma, die wartet, weil die zurückhängen und dann ihre Karten überteuert verkaufen wollen. Aber irgendwie scheint Realität nie mit den Wunschdenken von einigen übereinzustimmen.

Cyberfries
2022-07-24, 12:12:03
Trotzdem keine Ahnung, wann oder ob er bisher überhaupt schon mal mit Insiderwissen glänzen konnte.

War das nicht der Kerl, der die ganzen Bilder der N21 Referenzdesigns in Umlauf brachte?

Hört doch endlich mal auf euch Dinge auszudenken. nVidia wird nicht auf AMD warten ... AMD ist die Firma, die wartet ...

Dass beide Unternehmen durchaus auf das Handeln des anderen eingehen steht wohl außer Frage.
Da wird das eigene Produktportfolio passend abgestimmt, mediales Störfeuer gezündet, etc.
"Warten" wird da wohl keiner, aber auch niemand den Zeitplan massiv umwerfen um der Konkurrenz ein paar Tage voraus zu sein.
Die Produkte kommen, sobald sie soweit sind.
Wenn die Anderen schneller sind, dann wird eben geteasert und geworben, ganz normaler Umgang, schon x-mal gesehen.

Thunder99
2022-07-24, 12:24:42
Nvidia kann sich leisten später zu releasen da sie die bessere Reputation haben.
Weiter haben sie wahrscheinlich mehr Kapazitäten reserviert um Volumen-mäßig im Vorteil zu sein.

Linmoum
2022-07-24, 12:25:16
"Warten" ist auch schlicht ein völlig falscher Ausdruck.

Irgendwer muss zuerst launchen. Dass derjenige u.a. bei der Preisgestaltung nicht erst auf die Konkurrenz blicken kann, erklärt der logische Menschenverstand. Man kann aber seine Produkte als erster so launchen, dass es - der eigenen Annahmen entsprechend - mit wenigen Prozenten für die Konkurrenz als Vorsprung oder gerade noch Augenhöhe reicht.

Nvidia hat bei Ampere nicht 50W+ für 4-5% mehr Leistung geopfert, weil sie das geil finden. Sondern weil sie unbedingt noch ein paar letzte Prozente an Leistung im Vergleich zur Konkurrenz rauskitzeln wollten. Wer was anderes behauptet, ist schlicht naiv und lügt sich selbst in die Tasche.

StefAlb
2022-07-24, 12:28:45
AMD ist die Firma, die wartet, weil die zurückhängen und dann ihre Karten überteuert verkaufen wollen. Aber irgendwie scheint Realität nie mit den Wunschdenken von einigen übereinzustimmen.

Was verstehst du denn unter "AMD überteuert verkaufen?".

6900XT für 999UVP, 3090 für UVP 1499 klingt nicht nach überteuert bei AMD :confused:

Daredevil
2022-07-24, 12:41:02
Ich könnte mir schon vorstellen, dass das stimmt. Ampere war ja am Ende auch nicht "in hohen Stückzahlen" verfügbar, insofern könnte man das ganze halt auch eben verzögern, um nicht wieder einen Paperlaunch hinzulegen, wie Nvidia und AMD es halt getan haben durch den hohen Bedarf das niedrige Angebot.

Außerdem macht AMD in letzter Zeit nichts anderes als auf Nvidia zu reagieren. Freesync, FSR, nun Voice "Canceling", was Nvidia schon seit 2 Jahren kann. Da kann man auch einfach mal AMD machen lassen und schauen, was die so zu bieten haben und danach ist man dann in der Lage, ebenfalls zu "reagieren" und steht so besser vorbereitet da.
Hoffe ich natürlich nicht, aber mei.

iamthebear
2022-07-24, 13:03:03
Nvidia will sicher zuerst launchen denn falls AMD zuert launched und sie es dann nicht schaffen an Navi21 vorbei zu kommen, dann sehen sie ziemlich alt aus.

Abgesehen davon: Die Wafer Kontingente werden normalerweise 2 Jahre im Vorhinein geplant. Das lässt sich maximal ein Quartal hin und her schieben. Der Auftrag bei Samsung läuft aus bis auf ein paar Kleinmengen für Karten ohne Nachfolger ähnlich wie bei der 1650 in 12nm oder der 1030 in 16nm.

Aber selbst wenn sich Samsung und TSMC auf so einen Deal einlassen würden gibt es aus reich technischer Sicht keinen Grund beim alten 8nm Prozess zu bleiben wenn man schon bereits 10 Mrd. für neue 5nm Wafer angezahlt hat.
Wieso sollte man GA102 mit über 600mm² fertigen wenn man stattdessen auch einen AD104 mit gleicher Performance unter 300mm² fertigen kann und die Yields beim TSMC 5nm Prozess besser sind als bei Samsung 8nm?

Nvidia könnte auch wie damals bei Pascal auch einfach nur ab AD103 abwärts launchen und die 4080 ersetzt dann eben die 3080 Ti. Und sobald AMD so weit ist schiebt man AD102 hinterher und alles rutscht mit dem Preis eine Stufe nach unten.
Oder man macht es im bewährten Nvidia Stil: Man launched AD103 um 700$ UVP verkauft ihn aber real um 1200$.

Was den guten Jay angeht: Ich will ihm hier nichts unterstellen aber für mich riecht das eher danach, dass dieser hier ein paar Werbeeverträge bekommt dafür, dass er kräftig Stimmung zum Kauf der alten GPUs macht. Außer seinen Zuschauern schadet er ja niemandem damit: Sowohl Nvidia/AMD inkl. AIBs sind ein großes Problem los und auch alle CPU/Mainboard/Gehäuse Hersteller etc. freuen sich, da das den Kauf neuer PCs ankurbelt in einer Zeit fallender Umsätze.

dargo
2022-07-24, 13:08:14
Was verstehst du denn unter "AMD überteuert verkaufen?".

6900XT für 999UVP, 3090 für UVP 1499 klingt nicht nach überteuert bei AMD :confused:
Du bist noch zu neu in diesem Forum um zu verstehen wie unser Trojaner tickt. ;)

Gott1337
2022-07-24, 13:25:44
Was verstehst du denn unter "AMD überteuert verkaufen?".

6900XT für 999UVP, 3090 für UVP 1499 klingt nicht nach überteuert bei AMD :confused:
du vergleichst einfach die UVPs? Porsche 911 GT2 RS 300k€, Golf 35k, wer verkauft die Karre hier überteuert?

50% mehr RAM und der auch noch deutlich teurer ist, mehr hard und software features... ja die 3090 ist zu teuer aber die 6900 auf jeden fall auch. 300€ für ein paar shader mehr zu verlangen ist eigentlich noch viel dreister.

davidzo
2022-07-24, 13:36:24
Denke einen Paperlaunch für 4090 könnte es am Ende des Jahres geben. Release dann Anfang 2023.

Nee, Paperlaunch auf keinen Fall, das schadet ja dem Absatz der eigenen 3000er RTX Karten, Osborne Effekt.
Sowas macht man nur wenn man gegenüber der Konkurrenz im Hintertreffen ist bzw. noch länger nicht liefern kann, aber nicht der Konkurrenz kampflos Marktanteile überlassen will. Der markt schrumpft dabei, weil man durch eine Vorankündigung zu gleichen teilen der Konkurrenz wie auch sich selbst schadet. Siehe Cypress vs Fermi, da musste man einfach ein bisschen auf Zeit spielen.


Wenn man man zu viele Karten hat der alten Generation einfach den Preis senken...
Das kostet aber massiv prestige und vor allem die Anleger würden das als Schwäche auslegen.

Ne, erst stellt das schon so dar, dass eben die Launchkarten im Sommer kommen sollen. Und die Reihenfolge ist immer Dickschiff zuerst, das war schon immer so sein Argument. Auch erzählt er etwas über diese Reihenfolge und stellt dann eben klar was er meint, also Dickschiff=Launchkarte erst im Sommer 2023.

Sehr unrealistisch. Das wäre eigentlich nur der Fall wenn nvidia tatsächlich Probleme mit der Hardware hat und einen respin, neues stepping, pcb o.Ä. oder Zeit für die Treiberentwicklung braucht. Wenn die 4090 tatsächlich fertig ist, dann gibt es keinen Grund sie nicht zu bringen. Selbst wenn AMD nicht rauskommt und die 3090ti bei 1999$ bleibt, könnte man sie bei 2499 oder 2999$ verlangen. Nicht dass man damit viel Umsatz macht, aber es bringt massive pestigepunkte für jeden der mit Abstand die schnellste Karte anbietet, während es die Sales von günstigeren RTX 3000 Karten nicht beeinträchtigt.

iamthebear
2022-07-24, 14:04:15
Die Frage ist was man damit erreichen will außer potentielle Kunden der kleineren Karten zu verunsichern denn große Stückzahlen wird man so nicht los.
Und wer wird dann wohl die ganzen 3090 Ti Energieschleudern un 1500$ kaufen. Bisher war das Argument, dass die 3090er kein LHR haben und man so einen Teil der Kosten durch Mining wieder zurück bekommt und diese dann real z.B. nur mehr 1000$ kosten. Gleichzeitig wird es eine Menge günstiger 3090er über den Gebrauchtmarkt geben.

Nazar
2022-07-24, 14:12:39
Nee, Paperlaunch auf keinen Fall, das schadet ja dem Absatz der eigenen 3000er RTX Karten, Osborne Effekt.
Sowas macht man nur wenn man gegenüber der Konkurrenz im Hintertreffen ist bzw. noch länger nicht liefern kann, aber nicht der Konkurrenz kampflos Marktanteile überlassen will. Der markt schrumpft dabei, weil man durch eine Vorankündigung zu gleichen teilen der Konkurrenz wie auch sich selbst schadet. Siehe Cypress vs Fermi, da musste man einfach ein bisschen auf Zeit spielen.


Das kostet aber massiv prestige und vor allem die Anleger würden das als Schwäche auslegen.



Sehr unrealistisch. Das wäre eigentlich nur der Fall wenn nvidia tatsächlich Probleme mit der Hardware hat und einen respin, neues stepping, pcb o.Ä. oder Zeit für die Treiberentwicklung braucht. Wenn die 4090 tatsächlich fertig ist, dann gibt es keinen Grund sie nicht zu bringen. Selbst wenn AMD nicht rauskommt und die 3090ti bei 1999$ bleibt, könnte man sie bei 2499 oder 2999$ verlangen. Nicht dass man damit viel Umsatz macht, aber es bringt massive pestigepunkte für jeden der mit Abstand die schnellste Karte anbietet, während es die Sales von günstigeren RTX 3000 Karten nicht beeinträchtigt.

Also als Anleger lebt man nicht hinterm Mond, wenn man etwas Geld in dem Geschäft verdienen will.
Glaubt ihr irgendjemand ernsthaft, dass Anlegern strategisches Denken und die Wirtschaftsnachrichten ausgegangen sind?
Eine sehr wichtige Regel ist !!!niemals!!! totes Kapital auf Lager zu haben!
Selbst wenn die aktuellen Grafikkarten weit unter Preis verkauft würden, wäre das 1000 Mal besser las volle Lager mit diesem toten Kapital zu haben, sobald die neue Generation auf dem Markt ist.
Alleine das Räumen der Lager und vernichten lassen der Produkte ist viel teurer, als wenigstens noch eine "Mark" damit gemacht zu haben.
Sollten die Lager bei >>nV<< immer noch, und nicht nur bei den Verkäufern, so voll sein, wird sich nV hüten, sehr zeitnah mit dem Launch zu starten, sondern alles daran setzen den alten Bestand so schnell wie möglich, auch unter Herstellungskosten zu verkaufen (gilt auch für AMD).
Ich glaube nicht, dass die Lager von nV voll sind, sondern, dass alles nach Plan läuft. Wäre es anders, würden die aktuellen Karten für einen Apfel und ein Ei von den Händlern verkauft, um zumindest den Kosten für die Räumung der Lager und die Vernichtung des "Schrotts" zu entgehen. Sollten sie Verträge mit nV haben, dass nV die Produkte zurücknehmen muss, wenn der Verkauf nicht so funktioniert, dann sehe die Sache anders aus. Das könnte ein Grund dafür sein, weshalb die Preise sehr stabil bleiben. Die Ressourcen bleiben bei nV und die Kosten für diese Aktion ist bei weitem als geringer anzusehen, als ein Aktienverlust aufgrund von einer Marktflutung oder weil man erst nach AMD released.
Die Schwemme mit den Asiakarten wird uns vermutlich nicht rechtzeitig erreichen, um Einfluss auf die Preisgestaltungen zu nehmen. Und die Transportkosten sind zu hoch und es wird mindestens 2+ Monate dauern, bis das Zeug dann hier ist. Und wenn die Karten dann hier sind, wird es nur wenige Abnehmer geben, die sich auf das Risiko einlassen werden, Karten zu verbauen, die ein anderes BIOS verwenden und kaum noch als Gaming GPU zu nutzen sind.
Das alles wissen die Anleger auch und noch viel mehr.
Sollte es anders sein, würden die Händler jetzt schon mit Panikabverkäufen weit unter dem UVP starten und der UVP wurde bisher nicht mal im Ansatz angekratzt.
Ich vermute, dass die Lager nicht gefüllt sind, sondern, dass die Nachfrage massiv nachgelassen hat.
Ergo, alles tutto bene. ;)

dargo
2022-07-24, 14:15:03
ja die 3090 ist zu teuer aber die 6900 auf jeden fall auch. 300€ für ein paar shader mehr zu verlangen ist eigentlich noch viel dreister.
Stimmt... die 3090TI vs. 3090 steht da wesentlich besser da. ;D ;D ;D

davidzo
2022-07-24, 14:48:45
Also als Anleger lebt man nicht hinterm Mond, wenn man etwas Geld in dem Geschäft verdienen will.
Glaubt ihr irgendjemand ernsthaft, dass Anlegern strategisches Denken und die Wirtschaftsnachrichten ausgegangen sind?
Eine sehr wichtige Regel ist !!!niemals!!! totes Kapital auf Lager zu haben!


Sollte das eine Unterstreichung meiner Ausführungen sein oder wolltest du widersprechen? Wenn letzteres, dann sehe ich nicht wo ich behauptet hätte es wäre gut Karten im Lager zu lassen und die Anleger wären blöde.

Wenn du das über dem Fettgedruckten lesen würdest, dann wäre dir klar dass du das hier aus dem Kontext ziehst, bzw. ich in eine ganz andere Kerbe haue.

Es ging um die Wahrscheinlichkeit eines Paperlaunches. Und die tendiert eben gegen null, denn der würde die ohnehin niedrige Nachfrage nach der alten Generation weiter einbrechen lassen.
Den Anlegern ist das sehr wohl klar, dass ein Paperlaunch volle Lager erzeugen würde und genau das wollen sie nicht. Selbst wenn ein Paperlaunch AMD ärgern würde, tut man dies nicht wenn man selbst auch mit Überproduktion und Resteverkauf zu kämpfen hat.


Sollten die Lager bei >>nV<< immer noch, und nicht nur bei den Verkäufern, so voll sein, wird sich nV hüten, sehr zeitnah mit dem Launch zu starten, sondern alles daran setzen den alten Bestand so schnell wie möglich, auch unter Herstellungskosten zu verkaufen (gilt auch für AMD).

Ja, genau was ich gesagt habe.


Ich glaube nicht, dass die Lager von nV voll sind, sondern, dass alles nach Plan läuft. Wäre es anders, würden die aktuellen Karten für einen Apfel und ein Ei von den Händlern verkauft, um zumindest den Kosten für die Räumung der Lager und die Vernichtung des "Schrotts" zu entgehen. Sollten sie Verträge mit nV haben, dass nV die Produkte zurücknehmen muss, wenn der Verkauf nicht so funktioniert, dann sehe die Sache anders aus.

1. Kann NV die Karten nicht einfach billiger verkaufen. Das können sie nur bei den FEs, aber bei den Partnerkarten können Sie nur Empfehlungen aussprechen. Die Partner haben sich aber an die hohen Preise der letzten beiden Jahr gewöhnt und die Kunden auch. Die behalten also lieber ihre hohe Marge und setzen dafür halt weniger Karten um. Ich denke denen ist klar dass eine drastische Preissenkung bzw. reduzierung der Marge nicht unbedingt die Nachfrage erhöht, sondern auch Faktoren eine Rolle spielen auf die man keinen Einfluss hat, wie die Mining-blase, der PC-Absatzmarkt, Konjunkturzyklus.
2. Vernichtung gibt es nicht, eher Lagern die noch ein halbes jahrzehnt. Hardware hat eines der besten Verhältnisse aus Platzbedarf / Lagerkosten zum Wert der Erzeugnisse. Eher verscheuert man überschüssige Chips in großen OEM-Deals und teildeaktiviert zum Beispiel perfekt funktionierende Chips um den anderen OEMs und dem eigenen Retail nicht zu sehr Konkurrenz zu machen.
3. Genau das ist ein Standardbestandteil eines jeden Distributorenvertrags: nennt sich Lagerausgleich. Außerdem haben die Großhändler meist Zahlungsziele von mehreren Monaten mit dem hardwarehersteller. Das ist also praktisch Kommissionsware. Lagerausgleich heißt sie können jederzeit die bei sich lagernden und noch nicht verkauften Karten gegen andere von Nvidia tauschen und zwar zum ursprünglich vereinbarten Preis (teilweise zzgl. gebühren und zeitlich begrenzt, die Hürden sind aber nicht hoch).

Ex3cut3r
2022-07-24, 15:07:04
Stimmt... die 3090TI vs. 3090 steht da wesentlich besser da. ;D ;D ;D

Im Gegensatz zur 6950XT vs 6900XT wenigstens 10-20% schneller. Und ein paar extra Shader.
Aber AMD User sehen immer nur Nvidia.

BlacKi
2022-07-24, 15:10:15
Nvidia hat bei Ampere nicht 50W+ für 4-5% mehr Leistung geopfert, weil sie das geil finden. Sondern weil sie unbedingt noch ein paar letzte Prozente an Leistung im Vergleich zur Konkurrenz rauskitzeln wollten. Wer was anderes behauptet, ist schlicht naiv und lügt sich selbst in die Tasche.
die 3090 hat aber restpotential übrig gelassen. die 3090 boostet oft nichtmal 1700mhz. und beschnitten hat man sie ebenfalls nochmal obendrauf. nur hat es, so wie sie war, schon gereicht.


dasselbe spiel mit der 4090 im herbst. klar ist es möglich, das n31 kommt und schneller wird. das ist aber für nv kein untergang, da man immernoch ad102 von der leine lassen kann. die 4090 ist im vergleich mit der ti doch deutlich beschnitten in shadern und pl.

Ex3cut3r
2022-07-24, 15:15:05
Könnte schon sein, dass AMD wieder ein wenig schneller wird in Raster Szenarien Only. Mit RT Settings hat AMD aber sicherlich wieder einmal das nachsehen. Das muss jeder für sich entscheiden. Die GeForces werden auch wieder sicherlich 100-300€ wenn nicht sogar rauf bis 500€ teuer sein. Dazu kommt noch DLSS oben drauf, was meiner Meinung nach immer noch die bessere Qualität bietet und den besseren Support stand jetzt.

dargo
2022-07-24, 15:23:56
Im Gegensatz zur 6950XT vs 6900XT wenigstens 10-20% schneller. Und ein paar extra Shader.

Die nächste Märchenstunde. :uup:
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_3840__2160

Und das ein Salvage @3090 für mindestens 1500€ über die Ladentheke ging wird von der grünen Fraktion schon als ein Vorteil angesehen. ;D

die 4090 ist im vergleich mit der ti doch deutlich beschnitten in shadern und pl.
Aha... aus welcher Glaskugel hast du dir das jetzt gezogen? Gleiches gilt für deine Performanceprognosen.

Linmoum
2022-07-24, 15:24:20
Im Gegensatz zur 6950XT vs 6900XT wenigstens 10-20% schneller. Und ein paar extra Shader.
Aber AMD User sehen immer nur Nvidia.Ein "paar extra Shader" hat die 6900XT doch? :confused: Es ging schließlich um 6800XT vs. 6900XT (die 6950XT hat auch nur einen $100 höheren MSRP) und 3090 vs. 3090Ti.

die 3090 hat aber restpotential übrig gelassen. die 3090 boostet oft nichtmal 1700mhz. und beschnitten hat man sie ebenfalls nochmal obendrauf. nur hat es, so wie sie war, schon gereicht.

dasselbe spiel mit der 4090 im herbst. klar ist es möglich, das n31 kommt und schneller wird. das ist aber für nv kein untergang, da man immernoch ad102 von der leine lassen kann. die 4090 ist im vergleich mit der ti doch deutlich beschnitten in shadern und pl.Potential hat quasi jede GPU, wenn du das PL aufdrehst. Wenn dir der Verbrauch komplett latte ist, kannst du da immer saufen lassen bis zum geht nicht mehr, bis der Chip selbst irgendwann dicht macht.

prinz_valium_2
2022-07-24, 15:33:56
Hört doch endlich mal auf euch Dinge auszudenken. nVidia wird nicht auf AMD warten. Diesen Unsinn wird von den selben Leuten seit Jahren hier geschrieben und es trifft nie zu: Weder bei Maxwell, bei Pascal, bei Turing und Ampere. Auch Turing wurde mitten im Crash veröffentlicht.

AMD ist die Firma, die wartet, weil die zurückhängen und dann ihre Karten überteuert verkaufen wollen. Aber irgendwie scheint Realität nie mit den Wunschdenken von einigen übereinzustimmen.

Was? Keine Firma wartet auf eine andere außer es passt zeitlich gut in den Plan. Also ein paar Wochen und es ist noch kein Release Event geplant etc.
Aber das ist immer nur eine sekundäre Überlegung. Niemals die primäre Entscheidung.

dargo
2022-07-24, 15:35:57
die 3090 hat aber restpotential übrig gelassen. die 3090 boostet oft nichtmal 1700mhz. und beschnitten hat man sie ebenfalls nochmal obendrauf. nur hat es, so wie sie war, schon gereicht.

Blöd nur, dass es nur zum Teil so ist, nämlich @4k. Ob Ampere bei mehr Pixel besser ausgelastet wird oder der Infinity Cache von RDNA2 bei 4k ein wenig zu knapp bemessen ist sei mal dahin gestellt. In 1440p stimmt deine These schon mal nicht, zumindest nicht im Schnitt der getesteten Spiele von CB.
https://abload.de/img/cbxxjpn.jpg

Custom 3090 vs. Custom 6900XT heißt hier kleiner Vorteil für die Radeon. Referenz kann ich jetzt schlecht vergleichen da eine 3090 Referenz bei CB im Test fehlt. Da aber die Custom 3090 nur magere 1% vor einer Referenz 6900XT liegt wird eine Referenz 3090 sich eher minimal unter der Radeon positionieren. Höchstens Gleichstand.

iamthebear
2022-07-24, 15:43:58
Die Frage ist wozu interessiert mich als Käufer 1440p wenn ich sowieso eine Karte habe, die 4K verträgt. Falls es knapp wird stellt man eben die Details von Ultra auf Hoch oder wirft DLSS an.

dargo
2022-07-24, 15:46:18
Einen high fps Spieler interessiert das sehr wohl. Es gibt gute Gründe warum ich noch nicht auf einen 4K Bildschirm gewechselt bin. Im übrigen ist in 4k die custom 3090 ganze 2% schneller als die custom 6900XT. Wow... bin absolut von der höheren Performance geflasht. :lol:

Ex3cut3r
2022-07-24, 15:59:10
Ein "paar extra Shader" hat die 6900XT doch? :confused:

Ging um 6950XT die hat nix extra bekommen, außer einen mickrigen VRAM Takt mehr. Stellt du dich eigentlich absichtlich so dumm? :rolleyes:

AMD hat zweimal diese selbe GPU rls. Eigentlich gilt es auch für die 6750XT und noch eine Name vergessen.

dargo
2022-07-24, 16:44:00
Die xx50-er bei RDNA2 waren genauso hirnverbrannt wie die 3090TI... Brechstange ahoi. Man wollte halt im Gespräch bleiben. Irgendwas weiteres zu releasen ist offenbar wichtiger als gar nichts zu bringen über einen längeren Zeitraum einer Gen. Nennt man wohl strecken der GPU-Generation. :tongue:

Troyan
2022-07-24, 16:58:58
Was? Keine Firma wartet auf eine andere außer es passt zeitlich gut in den Plan. Also ein paar Wochen und es ist noch kein Release Event geplant etc.
Aber das ist immer nur eine sekundäre Überlegung. Niemals die primäre Entscheidung.

Natürlich wartet AMD. Die wissen, dass ihr Zeug rückständig ist und nehmen dann die Preise von nVidia mit. Außer du lebst in der Welt, dass du glaubst, dass der preisliche Abstand zwischen 6800 und 6800XT so von AMD gewollt war. ;D

Ansonsten sind die Diskussionen über nVidia auch lächerlich. Die haben schon vor 6+ Monaten angefangen TSMC für Waferkontigente zu bezahlen. Es ist wirtschaftlich sinnvoller Ampere von Samsungs 8nm abzuschreiben als darauf zu warten, dass TSMC die Preise für die überteuerten 5nm Wafen aufgrund der geringeren Nachfrage reduziert.

nordic_pegasus
2022-07-24, 17:02:27
Ging um 6950XT die hat nix extra bekommen, außer einen mickrigen VRAM Takt mehr. Stellt du dich eigentlich absichtlich so dumm? :rolleyes:

AMD hat zweimal diese selbe GPU rls. Eigentlich gilt es auch für die 6750XT und noch eine Name vergessen.

eigentlich wurde Navi21XT sogar 3x gelauncht. Erst die Vanilla 6900XT, dann die gebinnte und unlocked Version als 6900 "XTXH" und dann noch die 6950XT mit mehr Speichertakt.

z.B. von der RedDevil kann man die 6900XT, 6900XT Ultimate und 6950XT kaufen. Alles Navi21 mit 5120 Shadern aber unterschiedlichen Device-IDs.

Linmoum
2022-07-24, 17:08:30
Ging um 6950XT die hat nix extra bekommen, außer einen mickrigen VRAM Takt mehr. Stellt du dich eigentlich absichtlich so dumm? :rolleyes:
Du liest aber auch schon immer brav den Kontext, oder?
ja die 3090 ist zu teuer aber die 6900 auf jeden fall auch. 300€ für ein paar shader mehr zu verlangen ist eigentlich noch viel dreister.
Weder liegt die UVP der 6950XT >=300€ höher, noch hat die 6950XT "ein paar mehr Shader", wie es in dem Zitat - welches die Diskussion angestoßen hat - nachzulesen ist. Die hat nämlich schlicht genauso viele wie die 6900XT. Es ging um die paar Shader, die die 6900XT ggü. der 6800XT mehr hat und dem, was AMD dafür an mehr Geld verlangt hat. Bevor man anderen unterstellt, dass sie sich dumm stellen, sollte man vielleicht vorher selbst noch einmal nachlesen.

Davon ab ist ganz oben P/L nüchtern betrachtet immer schlecht, egal bei welchem Hersteller. So eine Titan ist ihren absurden Aufpreis auch nie wert gewesen, aber darum geht es beim Halo-Produkt auch gar nicht. Dasselbe Spiel wird's bei 4090/4090Ti auch wieder geben.

Thunderburne
2022-07-24, 17:15:46
Ging um 6950XT die hat nix extra bekommen, außer einen mickrigen VRAM Takt mehr. Stellt du dich eigentlich absichtlich so dumm? :rolleyes:

AMD hat zweimal diese selbe GPU rls. Eigentlich gilt es auch für die 6750XT und noch eine Name vergessen.
Eigentlich sogar 3* verwurstet XT /XTXH (V Keule )und die 6950XT!
Ich muss aber sagen die 6900XT wahr schon nicht schlecht lief ordentlich einzig FSR 1.0 war Fail deswegen auf 3080 Ti gegangen!
Bei Deathloop gefällt mir FSR 2.0 optisch sogar besser weil schärfer aber etwas weniger FPS als DLSS .

Wenn AMD jetzt mit der 7000 noch bei RT zur 4000ner aufschließen könnte spricht für mich nichts mehr gegen eine AMD da ich nicht Streamen tu oder gleichen .

Bei den neuen Karten wird halt die Leistung und der Preis bestimmen was ich mir kaufen werde!

Ex3cut3r
2022-07-24, 17:30:03
Kannst du gerne so machen. Ich finde es nur immer erstaunlich, wie einiger hier (nicht alle) immer nur aufmerksam die Nvidia Fails beschreiben, dass AMD wie gesagt 3xmal die gleichen Chip/GPU bringt, wird komischerweise ausgeblendet. Die nehmens sich IMHO beide nix mehr. Auch was die Fails angeht. Und auch AMD ist teuer geworden.

Thunderburne
2022-07-24, 17:33:20
Kannst du gerne so machen. Ich finde nur immer erstaunlich, wie einiger hier (nicht alle) immer nur aufmerksam die Nvidia Fails beschreiben, dass AMD wie gesagt 3xmal die gleichen Chip/GPU bringt, alles prima, steht schließlich AMD drauf.
Ja solche Leute wird es immer wieder geben das bleibt leider nicht aus !
Manchmal kann man gar nicht so schnell schreiben wie manche Dinger raus hauen.

maximus_hertus
2022-07-24, 17:51:12
Interessant wie wenig die Postings mit Ada Lovelace zu tun haben….

Irgendwie geht es nur noch um Fails, Blamegame und die eigene Meinung durchdrücken. Schade.

Wie ist jetzt der aktuelle Stand?
4090 Oktober
4080 November / Ende November
4070 CES 2023

Kommt das so hin? Und am Black Friday der große RTX 3000 Ausverkauf?

Thunderburne
2022-07-24, 17:57:34
Wie ist jetzt der aktuelle Stand?
4090 Oktober
4080 November / Ende November
4070 CES 2023

Kommt das so hin? Und am Black Friday der große RTX 3000 Ausverkauf?
Ja so in etwa sieht es zur Zeit aus was davon am Ende zu trifft müssen wir jetzt abwarten !
Der Ausverkauf hat ja schon begonnen die Händler tasten sich jetzt nach unten und versuchen das Maximum abzuschöpfen!

BlacKi
2022-07-24, 18:00:57
Blöd nur, dass es nur zum Teil so ist, nämlich @4k.


puh, ein glück, mir reicht das:biggrin:


eins kann ich euch jetzt schon prophezeien. avg fps titelübergreifend werden in den zukünftigen test nichtmehr aussagekraftig, wenn man bedenkt das ein großer teil der benchmarkzeit cpu limit anliegt.

prinz_valium_2
2022-07-24, 18:05:04
Natürlich wartet AMD. Die wissen, dass ihr Zeug rückständig ist und nehmen dann die Preise von nVidia mit. Außer du lebst in der Welt, dass du glaubst, dass der preisliche Abstand zwischen 6800 und 6800XT so von AMD gewollt war. ;D

Ansonsten sind die Diskussionen über nVidia auch lächerlich. Die haben schon vor 6+ Monaten angefangen TSMC für Waferkontigente zu bezahlen. Es ist wirtschaftlich sinnvoller Ampere von Samsungs 8nm abzuschreiben als darauf zu warten, dass TSMC die Preise für die überteuerten 5nm Wafen aufgrund der geringeren Nachfrage reduziert.

AMD wartet nicht. Wenn das Zeug fertig ist und der Plan steht, wird gelauncht außer Nvidia ist ein paar Wochen vorher oder später dran.


Wie gesagt. Kein Unternehmen plant seine Produktroadmap und Release aufgrund der Konkurrenz und was die möglicherweise macht oder auch nicht.

dargo
2022-07-24, 18:09:18
puh, ein glück, mir reicht das:biggrin:

Ja... ich weiß. Wenn GPU A 2% mehr fps liefert als GPU B dann sind die Games mit GPU B natürlich völlig unspielbar. ;D Diese Minderwertigkeitskomplexe mancher User hier sind echt bemerkenswert. Die muss man dann irgendwie kompensieren.


eins kann ich euch jetzt schon prophezeien. avg fps titelübergreifend werden in den zukünftigen test nichtmehr aussagekraftig, wenn man bedenkt das ein großer teil der benchmarkzeit cpu limit anliegt.
Breaking News wenn ca. Faktor 2 erwartet wird. :uup: Haust halt 8k ohne das Gedöns @DLSS/FSR rein und gut ist. Bei 4k + max. RT ohne das vorher genannte Gedöns wird bei einigen Kandidaten auch reichen um die neuen Karten in die Knie zu zwingen. Zur Erinnerung... CP77 läuft in 4k auf ner 3090TI @max. + RT so. :ulol:
https://www.youtube.com/watch?v=KaYanVko2oU

Vergiss es, da ist sogar DLSS-B drin, habs übersehen.

Troyan
2022-07-24, 18:10:42
Wie gesagt. Kein Unternehmen plant seine Produktroadmap und Release aufgrund der Konkurrenz und was die möglicherweise macht oder auch nicht.

Ein paar Wochen später ist doch normal. Einfach abwarten und fertig.

BlacKi
2022-07-24, 18:18:33
Breaking News wenn ca. Faktor 2 erwartet wird. :uup: Haust halt 8k ohne das Gedöns @DLSS/FSR rein und gut ist. Bei 4k + max. RT ohne das vorher genannte Gedöns wird bei einigen Kandidaten auch reichen um die neuen Karten in die Knie zu zwingen.


RT ja, das wird ja schon gemacht. aber 8k? höchstens als extra. CB hat schon die benchmarks und hardware angepasst, dort sehe ich kein 8k. die wenigsten werden 8k benchs machen.

Linmoum
2022-07-24, 18:27:07
8K geht vielleicht in zwei Gens nach den kommenden GPUs, sofern man nicht Settings nach unten schrauben will für vernünftige (min.) fps. Okay, wer Spiele von 2015 spielt kann das auch früher, aber das wird weniger der Anspruch vieler sein. ;)

Wenn wir in den nächsten Monaten tatsächlich >2x Performancezuwachs (ggf. sogar mehr mit RT) bekommen, ist man erstmals an einem Punkt, wo man auch in UHD inkl. RT bei max. Settings >60fps landen wird, bevor man noch überhaupt DLSS/FSR dazuschalten muss. Das wäre erstmal ein schöner Anfang.

dargo
2022-07-24, 18:32:03
Wenn wir in den nächsten Monaten tatsächlich >2x Performancezuwachs (ggf. sogar mehr mit RT) bekommen, ist man erstmals an einem Punkt, wo man auch in UHD inkl. RT bei max. Settings >60fps landen wird, bevor man noch überhaupt DLSS/FSR dazuschalten muss. Das wäre erstmal ein schöner Anfang.
Bis zu dem Punkt wo sich dann DEVs trauen paar Strahlen mehr loszuschicken und alles fängt wieder von vorne an. ;D Aber hey... 2024 gehen wir dann auf die 1kw zu dann passt das schon. :D

Zossel
2022-07-24, 18:40:17
Also als Anleger lebt man nicht hinterm Mond, wenn man etwas Geld in dem Geschäft verdienen will.
Glaubt ihr irgendjemand ernsthaft, dass Anlegern strategisches Denken und die Wirtschaftsnachrichten ausgegangen sind?
Eine sehr wichtige Regel ist !!!niemals!!! totes Kapital auf Lager zu haben!


Das mit dem kein totes Kapital auf Lager ist so einigen in letzter Zeit ziemlich um die Ohren geflogen, hast du das nicht mitbekommen?

Thunderburne
2022-07-24, 18:40:31
Bis zu dem Punkt wo sich dann DEVs trauen paar Strahlen mehr loszuschicken und alles fängt wieder von vorne an. ;D Aber hey... 2024 gehen wir dann auf die 1kw zu dann passt das schon. :D

Ist ja eigentlich nicht notwendig gibt ja schon Paar Spiele die Maxout mit RT ohne DLSS alles abverlangen in 4K!

Ex3cut3r
2022-07-24, 21:19:49
3090TI @max. + RT so. :ulol:
Zur Erinnerung... CP77 läuft in 4k auf ner 3090TI @max. + RT so. :ulol:
https://www.youtube.com/watch?v=KaYanVko2oU

Vergiss es, da ist sogar DLSS-B drin, habs übersehen.

Was macht denn da eine 6800XT bzw. 6900XT? Kommt man auf zweistellige FPS? :ulol:

Ah. Hier haben wir es ja. Gibt 9 FPS. ;D

https://youtu.be/ReGyH2LkDnE?t=646

HAHAHAHA. 1200€+ und dann sowas. Na so was. Schön nä?
Kann ich auch, was du hier täglich abziehst. :rolleyes:

dargo
2022-07-24, 21:51:08
Das zeigt mal wieder sehr schön, dass du nicht mal über deine Nasenspitze hinaus denken kannst. Wo habe ich geschrieben das würde bei AMD besser laufen? Du hast immer noch nicht das Kernproblem von Raytracing + höhere Pixellast verstanden, unfassbar. Dabei spielt es keine Rolle ob bei deinem Penis Nvidia, AMD oder Intel drauf steht.

Ex3cut3r
2022-07-24, 22:46:18
Das ist doch dein Stil den du hier täglich ablässt, du basht nur noch gegen Nvidia oder gegen Intel. Das die 6900XT 3xmal schlechter läuft als die 3090 Ti wird gar nicht von dir erwähnt, warum?

Und das hier ist dein Lieblingssmiley -> :ulol:

Das ist nur pure Provokation bzw. Trolling. Gib es wenigstens zu.

Tesseract
2022-07-24, 23:02:30
Bis zu dem Punkt wo sich dann DEVs trauen paar Strahlen mehr loszuschicken und alles fängt wieder von vorne an. ;D Aber hey... 2024 gehen wir dann auf die 1kw zu dann passt das schon. :D

metro zeigt wie man mit relativ wenigen strahlen dank temporaler komponente sehr gute ergebnisse erzielen kann - viel mehr braucht es eigentlich nicht um nahezu grain-frei zu sein. deren RT-system reicht sogar für die konsolen mit vergleichsweise winzigen GPUs auf RDNA2 basis.

kmf
2022-07-25, 02:57:06
Das ist doch dein Stil den du hier täglich ablässt, du basht nur noch gegen Nvidia oder gegen Intel. Das die 6900XT 3xmal schlechter läuft als die 3090 Ti wird gar nicht von dir erwähnt, warum?

Und das hier ist dein Lieblingssmiley -> :ulol:

Das ist nur pure Provokation bzw. Trolling. Gib es wenigstens zu.
3x schlechter ist aber auch übertrieben, aber egal. Wer interessiert sich noch in 3..4 Monaten, wegen meiner auch in einem halben Jahr für den kalten Kakao, sei's der von Nvidia oder der von AMD?
Ich hätt mir liebend gerne eine RTX3090 geholt für max. 1200€. Die gab's aber ned zu meinem Kaufzeitpunkt. Alternative war nur die RX6900XT für 999€, weil RTX3080 sowie die RX6800XT auch noch für weit über 1000€ über die Ladentheke gingen.
Ich brauchte aber eine neue Karte und zwar dringend, hab mich Monate mit einer meiner Sammlerkarten der GTX295 rumgeärgert, so was Lautes war mir seit Zeiten des Nvidia-Föhns nimmer untergekommen. Wollt halt noch mal Sli ausprobieren. :D

dargo
2022-07-25, 07:24:04
Das ist doch dein Stil den du hier täglich ablässt, du basht nur noch gegen Nvidia oder gegen Intel. Das die 6900XT 3xmal schlechter läuft als die 3090 Ti wird gar nicht von dir erwähnt, warum?

Erstens ist die 3090TI nicht 3x schneller mit RT in CP77 als die 6900XT. Wo du dir das immer raussaugst ist mir ein Rätsel. Zweitens bin ich nicht dem Raytracing-Marketing Bullshit verfallen und drittens ist es mir latte ob GPU A 10fps und GPU B 20fps schafft. Beides ist völlig unspielbar (selbst 30fps wären meilenweit davon entfernt was ich unter gut spielbar verstehe) und gleichzeitig absolut albern wenn man die Kosten und nötige Energie in Relation stellt. Zumal wir hier bei RT nur von Teilaspekten im Bereich Grafik sprechen wie zb. Licht, Schatten oder Reflektionen. Wenn ich dann bei RT aber feststellen muss, dass die Reflektionen grieseln und/oder mit lächerlichen Auflösung dargestellt werden die einen Bruchteil meiner gewählten Auflösung entsprechen dann ist das für mich keine Verbesserung sondern nur ein deutlich teureres Fail. Diese ganzen Sparmaßnahmen zeigen nur eins... Raytracing ist noch nicht massentauglich egal was Lederjacke oder sonst wer da rausposaunt. Mir ist natürlich schon klar, dass dies denjenigen die nur an die eigene Nase denken können egal ist. :rolleyes:

metro zeigt wie man mit relativ wenigen strahlen dank temporaler komponente sehr gute ergebnisse erzielen kann - viel mehr braucht es eigentlich nicht um nahezu grain-frei zu sein.
Sag das CDPR und nicht mir. Wobei man dabei fairerweise sagen muss, dass Metro Exodus eine wesentlich niedrigere Grundlast hat als CP77 @max. Settings, auch ohne RT. Und das sind beides noch Spiele die unter Berücksichtigung der lastgen Konsolen entwickelt wurden. Was glaubst du wie es dann mit der Grundlast (oder nennen wir es von mir aus Rasterizerlast) aussieht wenn nur noch die neuen Konsolen berücksichtigt werden und dann oben drauf noch RT draufgeknallt wird?

Edit:
Und bei aller Liebe... das ist nichts auf was man stolz sein kann bei einem 1500+€ Boliden mit 350+W.
https://youtu.be/zkMAuNWESCA?t=425

Übrigens... kann uns vielleicht Exe mal zeigen wo die 3090(TI) 3x schneller mit RT bei Metro Exodus ist als eine RX 6900XT. :rolleyes:
https://youtu.be/zkMAuNWESCA?t=567
https://youtu.be/nMglwkhRGU0?t=493

DrFreaK666
2022-07-25, 08:22:29
komisches Video. So schnell wie er durch die Optionen scrollt, erkennt man kaum, was er gerade verändert hat

dargo
2022-07-25, 08:25:05
Und du bist nicht in der Lage das Video zu pausieren oder die Geschwindigkeit zu verlangsamen wenn es dir zu schnell geht? :freak:

aufkrawall
2022-07-25, 08:25:30
Edit:
Und bei aller Liebe... das ist nichts auf was man stolz sein kann bei einem 1500+€ Boliden mit 350+W.
https://youtu.be/zkMAuNWESCA?t=425

Das ist nicht die EE...

BiG OnE
2022-07-25, 08:31:02
Vergesst es Leute, dargo ist wieder auf nVidia Jagd.

Gott1337
2022-07-25, 08:33:48
Du liest aber auch schon immer brav den Kontext, oder?

Weder liegt die UVP der 6950XT >=300€ höher, noch hat die 6950XT "ein paar mehr Shader", wie es in dem Zitat - welches die Diskussion angestoßen hat - nachzulesen ist. Die hat nämlich schlicht genauso viele wie die 6900XT. Es ging um die paar Shader, die die 6900XT ggü. der 6800XT mehr hat und dem, was AMD dafür an mehr Geld verlangt hat. Bevor man anderen unterstellt, dass sie sich dumm stellen, sollte man vielleicht vorher selbst noch einmal nachlesen.

Davon ab ist ganz oben P/L nüchtern betrachtet immer schlecht, egal bei welchem Hersteller. So eine Titan ist ihren absurden Aufpreis auch nie wert gewesen, aber darum geht es beim Halo-Produkt auch gar nicht. Dasselbe Spiel wird's bei 4090/4090Ti auch wieder geben.
du zitierst jemand anderen und unterstellst mir das ich anderen unterstelle das sie dumm seien... also dreister gehts ja gar nicht ;D

dargo
2022-07-25, 08:38:41
Das ist nicht die EE...
Mag sein, spielt das aber eine so große Rolle im Kontext? Schließlich ist es auch bei Radeon nicht die EE im Video. Wenn die EE effizienter läuft sollte es auf beide IHVs zutreffen.

Edit:
Von CB geklaut, ändert sich nichts.
https://abload.de/thumb/me_eeikjxz.jpg (https://abload.de/image.php?img=me_eeikjxz.jpg)

+39% bei 3090 vs. 6900XT und +30% bei 3080 vs. 6800XT bei absolut miesen Frameraten. Witzigerweise wird unten rum der Abstand immer kleiner... bei der 3070 vs. 6800 sind es "nur" noch 14%. Bei den avgs. wohlgemerkt... bei den 0,2% Perzentiles werden die Abstände noch kleiner zwischen beiden IHVs. 6800 vs. 3070 ist sogar Gleichstand. Hier haben offenbar manche ziemlich verklärte Erinnerungen (oder die typischen Äpfel/Birnen Vergleiche) was RT-Performance bei Ampere bedeutet weil in der Regel zusätzlich inkl. DLSS gemessen wird wo bei AMD FSR 2.0 Implementierung noch fehlt.

DrFreaK666
2022-07-25, 08:44:24
Und du bist nicht in der Lage das Video zu pausieren oder die Geschwindigkeit zu verlangsamen wenn es dir zu schnell geht? :freak:

Da bin ich zu faul für :D

dargo
2022-07-25, 08:45:18
Ich hoffe du vergisst deine Atmung nicht vor lauter Faulheit.

Platos
2022-07-25, 10:22:31
Dargo wieder mal am cherry-picken, wenns ihm grad förderlich für die Argumentationsweise ist :D

Tesseract
2022-07-25, 10:26:10
weil in der Regel zusätzlich inkl. DLSS gemessen wird wo bei AMD FSR 2.0 Implementierung noch fehlt.

natürlich wird es das, genau das ist der sinn der sache. mit DLSS (oder später alternativ FSR) ist man mit so einem renderer schon bei current gen nahe am bzw. im dreistelligen fps-bereich und das mit einem vollen RT-workflow.

DrFreaK666
2022-07-25, 10:40:04
Ich hoffe du vergisst deine Atmung nicht vor lauter Faulheit.

Hab Wichtigeres zu tun als YT-Videos auf meinem Smartphone zu pausieren. Vielleicht mache ich das später in meiner Freizeit

dargo
2022-07-25, 11:53:36
natürlich wird es das, genau das ist der sinn der sache. mit DLSS (oder später alternativ FSR) ist man mit so einem renderer schon bei current gen nahe am bzw. im dreistelligen fps-bereich und das mit einem vollen RT-workflow.
Lol... DLSS/FSR sind nichts weiter als Notlösungen aktuell damit der Kram überhaupt mal halbwegs läuft. Mit den bekannten Problemen hier und da. Wenn man die natürlich nicht sieht oder sehen will...

DrFreaK666
2022-07-25, 11:58:47
Lol... DLSS/FSR sind nichts weiter als Notlösungen aktuell damit der Kram überhaupt mal halbwegs läuft. Mit den bekannten Problemen hier und da. Wenn man die natürlich nicht sieht oder sehen will...

Probleme mit Rasterizing sind hingegen in Ordnung?

dargo
2022-07-25, 12:07:07
Ich dachte du hast was Wichtigeres zu tun?

Edit:
Um mal beim Thema zu bleiben... ich habe natürlich nichts gegen Features die Rendering beschleunigen. Dann aber bitte ohne Nebenwirkungen und nicht nach dem Motto... oh cool, dieser Szenenabschnitt sieht besser aus, dann ist der andere Abschnitt nicht mehr ganz so schlimm. Und noch besser fände ich eine Lösung für alle! Auch natürlich für Konsolen damit alle was davon haben.

DrFreaK666
2022-07-25, 12:11:51
als YT-Videos auf dem Smartphone zu pausieren. Ich warte gerade gerade auf jemanden in einem Park in Freiburg. Schreiben geht. Für Youtube weiterhin schlecht

Troyan
2022-07-25, 12:16:34
Lol... DLSS/FSR sind nichts weiter als Notlösungen aktuell damit der Kram überhaupt mal halbwegs läuft. Mit den bekannten Problemen hier und da. Wenn man die natürlich nicht sieht oder sehen will...

Lol... Fake-Beleuchtung und SSRs sind nicht weiter als Notlösungen aktuell damit der Kram überhaupt mal halbwegs vernünftig läuft. Mit den bekannten Problemen hier und da. Wenn man die natürlich nicht sieht oder sehen willl...

Rincewind
2022-07-25, 12:17:03
@dargo tief und langsam durchatmen, alternativ hilft auch ein Spaziergang.

Tesseract
2022-07-25, 12:47:11
Lol... DLSS/FSR sind nichts weiter als Notlösungen aktuell damit der Kram überhaupt mal halbwegs läuft. Mit den bekannten Problemen hier und da. Wenn man die natürlich nicht sieht oder sehen will...

echtzeitrendering als ganzes ist - und war schon immer - eine "notlösung". wenn man nicht minutenlang auf einzelne frames warten will muss man immer kompromisse eingehen und die gibt mit rasterisierung in jedem einzelnen pixel haufenweise. RT+DLSS in metro ist IMHO der größte sprung seit vielen jahren. rein vom technischen aspekt her hat mich seit doom 3 kein spiel mehr so beeindruckt im vergleich zu seinen peers.

dargo
2022-07-25, 12:59:14
Schön für dich... das mag vielleicht jemanden flashen der nur auf Technik achtet. Ich bin bei Metro Exodus fast eingeschlafen so öde ist das Game imo. Da haben mich andere Titel wie HZD, Days Gone und GoW geflasht. Und oh Wunder... kein einziger Titel verwendet RT.

Tesseract
2022-07-25, 13:02:50
deine ablenkungsmanöver kannst du dir sparen. keiner hat hier auch nur ein wort über gameplay verloren.

DrFreaK666
2022-07-25, 13:07:24
... Da haben mich andere Titel wie HZD, Days Gone und GoW geflasht. Und oh Wunder... kein einziger Titel verwendet RT.

Weil das PS4-Titel sind. :rolleyes:

dargo
2022-07-25, 13:16:47
deine ablenkungsmanöver kannst du dir sparen. keiner hat hier auch nur ein wort über gameplay verloren.
Ach stimmt ja... ich hatte vergessen, dass hier Spiele nur wegen Technik gespielt werden. Wer braucht schon interessante(s) Gameplay/Story etc.

Platos
2022-07-25, 13:32:29
Von einem zum nächsten Thema springen... Die Taktik von jemandem, der eig. gar keine Argumente hat.

HOT
2022-07-25, 13:33:59
Find ich nicht, es ist ne Tatsache, dass das was wie bisher an RT gesehen haben nur "Spielerei" ist, egal ob in Hardware oder Software. Und trotzdem trollt er euch :D. Lass mal die nächsten Konsolengeneration kommen und die entsprechendend übernächsten Grafikgenerationen, da wird das jetzt aussehen wie ne Voodoo2 ggü. ner Geforce3.

Gott1337
2022-07-25, 13:37:45
Ach stimmt ja... ich hatte vergessen, dass hier Spiele nur wegen Technik gespielt werden. Wer braucht schon interessante(s) Gameplay/Story etc.
jemand liefert dir stichhaltige Gegenargumente und du versucht so wirklich nur abzulenken... Rasterizing ist auch nur ein Kompromiss, akzeptier es einfach.

Und jetzt hör auf mit dem Quatsch, ist doch nur Zeitverschwendung für dich und alle anderen auch.

AffenJack
2022-07-25, 13:52:46
Ach stimmt ja... ich hatte vergessen, dass hier Spiele nur wegen Technik gespielt werden. Wer braucht schon interessante(s) Gameplay/Story etc.

Du hast früher Spiele wegen Async Compute oder DX12 gespielt und warst ein glühender Verfechter des Einsatzes. Da brauchst du dich nicht wundern, wenn man es etwas merkwürdig findet, wenn Technik für dich plötzlich zweitrangig geworden ist. Gerade wo es um Techniken geht, bei denen die andere Firma vorne ist.

vinacis_vivids
2022-07-25, 13:57:11
Die Diskussion um DLSS/RT, FSR 2.0 erinnert mich an "Tesselation" und "Hair works". Nvidia hat ja jeweils angefangen es in Hardware zu gießen, um da großen Balkenvorsprung zu haben,einerseits.

Andererseits wird die Verschwendung an Rechenleistung von solchen Effekten dann als Fortschritt verkauft.

Ist natürlich billiger als eine einfache Erhöhung der nativen Auflösung in Richtung 8K.

Die Pralle NV-Kriegskasse wird natürlich ausgenutzt, um Studios und Engines zu beeinflussen. Einerseits mit Exklusivität und andererseits mit Marketing und Geldzuschuss.

Technisch gesehen wird Ada leider nur ein aufgeblähter Ampere shrink ohne nennenswerte uArch Verbesserungen.

Die Tensor-Cores wird NV drastisch mit Gewalt erhöhen müssen, um überhaupt noch Vorsprung in kleineren Teilbereichen wie DLSS und RT zu bekommen zu können.

Beim Rest hat AMD die Nase weit weit vorne. Selbst die 6nm bei AMD, was eine leichte 7nm Fertigung ist, wird es mit einem Mittleren 4nm-Chip von NV aufnehmen können.

Vermutlich sogar ähnliche Chipgröße 400-450mm^2 wird es AMD sogar schaffen gegen einen Chip mit der teuereren Fertigung zu überholen.

Die Zeiten indem NV krassen Vorsprung hatte, sind lange vorbei.

Gott1337
2022-07-25, 14:14:14
Die Diskussion um DLSS/RT, FSR 2.0 erinnert mich an "Tesselation" und "Hair works". Nvidia hat ja jeweils angefangen es in Hardware zu gießen, um da großen Balkenvorsprung zu haben,einerseits.

Andererseits wird die Verschwendung an Rechenleistung von solchen Effekten dann als Fortschritt verkauft.

Ist natürlich billiger als eine einfache Erhöhung der nativen Auflösung in Richtung 8K.

Die Pralle NV-Kriegskasse wird natürlich ausgenutzt, um Studios und Engines zu beeinflussen. Einerseits mit Exklusivität und andererseits mit Marketing und Geldzuschuss.

Technisch gesehen wird Ada leider nur ein aufgeblähter Ampere shrink ohne nennenswerte uArch Verbesserungen.

Die Tensor-Cores wird NV drastisch mit Gewalt erhöhen müssen, um überhaupt noch Vorsprung in kleineren Teilbereichen wie DLSS und RT zu bekommen zu können.

Beim Rest hat AMD die Nase weit weit vorne. Selbst die 6nm bei AMD, was eine leichte 7nm Fertigung ist, wird es mit einem Mittleren 4nm-Chip von NV aufnehmen können.

Vermutlich sogar ähnliche Chipgröße 400-450mm^2 wird es AMD sogar schaffen gegen einen Chip mit der teuereren Fertigung zu überholen.

Die Zeiten indem NV krassen Vorsprung hatte, sind lange vorbei.jetzt fängst du wieder mit deinen Fantasie-Geschichten an, RT kostet in Hardware weniger Leistung als mit alter Technik. Mach mal GI ohne RT... immer und immer wieder erzählst du uns dein AMD Fanboy quatsch egal zu welchem Thema, und hier auch wieder, das ist der ADA THREAD

dargo
2022-07-25, 14:41:02
Du hast früher Spiele wegen Async Compute oder DX12 gespielt und warst ein glühender Verfechter des Einsatzes.
Ich habe mich weiter entwickelt. :) Wobei ich D3D12 weiterhin als sehr wichtig erachte da sehr großes Potential vorhanden vs. alte APIs. Vorausgesetzt natürlich die DEVs stellen damit keinen Blödsinn an. Noch lieber wäre mir heute schon "D3D13", was ähnliches wie die Hardwarenähe bei Sony. Aber mir ist bewusst, dass dies nur Wunschdenken bleibt.

Dampf
2022-07-25, 14:45:50
Ich habe mich weiter entwickelt. :) Wobei ich D3D12 weiterhin als sehr wichtig erachte da sehr großes Potential vorhanden vs. alte APIs. Vorausgesetzt natürlich die DEVs stellen damit keinen Blödsinn an.

Da frage ich mich doch schon, warum du damals eine 5700XT und keine Turing GPU hattest, wenn dir DX12 so wichtig war.

Keines der wichtigen DX12_2 Features wurde von RDNA1 unterstützt.

dargo
2022-07-25, 14:50:19
Da frage ich mich doch schon, warum du damals eine 5700XT und keine Turing GPU hattest, wenn dir DX12 so wichtig war.

Hatte ich schon mehrmals hier geschrieben. Weil ich generell keine Geforce mehr kaufe. Ich identifiziere mich nicht mit der Geschäftspolitik von Nvidia die nichts weiter verfolgt als die PC-Gaming-Gemeinschaft zu spalten. Da werfe ich schon lieber Intel Geld in den Hals ohne Alternativen. Leider kommt Intel noch nicht aus dem Quark.


Keines der wichtigen DX12_2 Features wurde von RDNA1 unterstützt.
Neueste Features sind beim PC-Gaming ein schwieriges Thema... sieht man ja schon wie viele Jahre es gebraucht hat bis D3D12/Vulkan aus den Puschen kamen, und es kommen immer noch einige AAA-Titel mit D3D11. Sollen wir mit Direct Storage weiter machen? :D Nee.. lass mal lieber. ;)

Ex3cut3r
2022-07-25, 15:56:36
Gut jetzt, dass Thema ist hier nicht Dargo und der AMD Fanatismus.

-> Neuer "Leak" von der 4090 Leistung.

https://videocardz.com/newz/nvidia-geforce-rtx-4090-is-reportedly-66-faster-than-rtx-3090-ti-in-3dmark-time-spy-extreme-test

Lehdro
2022-07-25, 16:02:41
-> Neuer "Leak" von der 4090 Leistung.

https://videocardz.com/newz/nvidia-geforce-rtx-4090-is-reportedly-66-faster-than-rtx-3090-ti-in-3dmark-time-spy-extreme-test
Hättest lieber das "Neuer" in Anführungsstrichen setzen sollen, hatten wir hier schon: Post (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13059882&postcount=2613)

Auch als News: Gerüchteküche: Erster TimeSpy-Wert zeigt GeForce RTX 4090 um +86% schneller als GeForce RTX 3090 (https://www.3dcenter.org/news/geruechtekueche-erster-timespy-wert-zeigt-geforce-rtx-4090-um-86-schneller-als-geforce-rtx-3090)

ChaosTM
2022-07-25, 16:11:16
Das macht halbwegs Sinn und läge im Bereich eines doch recht großen Node Sprungs, immer vorausgesetzt er hat sich das nicht nur aus den Fingern gesogen. ^^

Ist halt nur Timespy. Ein Spiel mit RT wäre natürlich aufschlussreicher.

HOT
2022-07-25, 16:16:22
Ich sag immernoch, dass diese "Werte" purer BS ist, weil keiner das messen kann, außer dem Treiberteam, dass grad an den ADA-Treibern arbeitet. Aber da wird das nicht leaken können. Das sind pure "Schätzungen" von "Experten", mehr nicht.

dargo
2022-07-25, 16:26:03
Ich sag immernoch, dass diese "Werte" purer BS ist, weil keiner das messen kann, außer dem Treiberteam, dass grad an den ADA-Treibern arbeitet. Aber da wird das nicht leaken können. Das sind pure "Schätzungen" von "Experten", mehr nicht.
Zum Trollen der Suchtis reichts doch. ;)

Edit:
Um mal wieder was zum Thema beizutragen... Intel wird bei der kommenden CPU-Generation 13xxx die Preise um 20% anheben. Da kann sich jeder ausmalen was uns bei den Grafikkarten erwartet.

Platos
2022-07-25, 16:55:02
Um mal wieder was zum Thema beizutragen... Intel wird bei der kommenden CPU-Generation 13xxx die Preise um 20% anheben. Da kann sich jeder ausmalen was uns bei den Grafikkarten erwartet.

Was hat Intels CPU jetzt mit Grafikkartenpreisen zu tun ?

Und ansonsten: Quelle für die 20% ?

dargo
2022-07-25, 16:58:42
Dass der Inflation keiner entkommen kann? Ich muss mich aber korrigieren, es heißt bis zu 20% je nach CPU bzw. Produkt. Hatte das in einem Video aufgeschnappt. Auf die Schnelle spuckt Onkel Google das hier aus.
https://www.pcgameshardware.de/CPU-CPU-154106/News/Intel-Bericht-ueber-Preiserhoehungen-1399310/

Platos
2022-07-25, 17:03:36
War klar, das aus dem:
Intel wird bei der kommenden CPU-Generation 13xxx die Preise um 20% anheben.

das wird:

Hatte das in einem Video aufgeschnappt.

dargo
2022-07-25, 18:18:47
Hier hast du die Originalquelle. :rolleyes:
https://asia.nikkei.com/Business/Tech/Semiconductors/Intel-plans-price-hikes-on-broad-range-of-products

StefAlb
2022-07-25, 19:22:26
Kann absolut sein.

Kann aber auch sein, dass das reine UVP ist und zB AMD so gut ist, dass Intel den Aufpreis in der Praxis gar nicht kassieren kann, weil sie sonst massiv Käufer verlieren.

dargo
2022-07-25, 19:26:37
Wir driften hier zu sehr ab. Ich rechne aber bei allen IHVs über kurz oder lang mit Preisteigerungen. Die Inflation betrifft nicht nur Intel.

Troyan
2022-07-25, 19:34:38
Von Kopite:
https://twitter.com/kopite7kimi/status/1551620934096027648?cxt=HHwWgIDUrZnBu4grAAAA

Siggraph ist in zwei Wochen und nVidia hälft eine Präsentation. Danach kommt die GTC mitte September. So lang ist es nicht mehr hin.

Platos
2022-07-25, 20:08:59
Von Kopite:
https://twitter.com/kopite7kimi/status/1551620934096027648?cxt=HHwWgIDUrZnBu4grAAAA

Siggraph ist in zwei Wochen und nVidia hälft eine Präsentation. Danach kommt die GTC mitte September. So lang ist es nicht mehr hin.

Soviel zu JayzTwoCents und seinem Jahr Wartezeit :D

Linmoum
2022-07-25, 20:11:25
Weil kopite das schreibt? Laut ihm war der Launch immerhin auch ganz sicher im Juli. ;)

StefAlb
2022-07-25, 20:13:21
Weil kopite das schreibt? Laut ihm war der Launch immerhin auch ganz sicher im Juli. ;)


Sicher? Kann mich irgendwie an keine Meldung mit Launch Juli erinnern.
Maximal Q3, was zwar Juli beinhaltet, aber halt auch September.

Aber bekomme ja nicht jede Meldung mit :D

BlacKi
2022-07-25, 20:23:13
igor hats doch schon ausführlich erklärt. er hat sogar den zeitpunkt wann leaks möglich sind korrekt vorgemerkt.

hier im video sieht man auch mass produktion august/sept. 1-2 monate später kommt die erste charge mit flugzeug, vermutlich in nicht ausreichender menge, welche dann 3-4 wochen später sich bessert.

https://youtu.be/Lenh_2kZ3lo?t=1320

bbott
2022-07-25, 20:28:08
Wir driften hier zu sehr ab. Ich rechne aber bei allen IHVs über kurz oder lang mit Preisteigerungen. Die Inflation betrifft nicht nur Intel.
Sign, dafür ist noch nicht mal eine Glaskugel notwenig :D

Leonidas
2022-07-26, 05:22:40
Weil kopite das schreibt? Laut ihm war der Launch immerhin auch ganz sicher im Juli. ;)

Kopite kann auch nicht immer richtig liegen. Aber man muß fair bleiben: Er hat sich selber korrigiert. Damit sollte man es auch lassen, dies jetzt noch als "derzeit aktuelles Gerücht" zu kritisieren. Es war mal ein Fehler in der Vergangenheit - nicht mehr, nicht weniger.

Nebenbei:
https://twitter.com/kopite7kimi/status/1551619750572457984
"the beast"
PG137-SKU0
AD102-450-A1
18176FP32
48G 24Gbps GDDR6X
total board power ~800W

prinz_valium_2
2022-07-26, 06:57:59
nVidia hat schon oft Architekturen Monate vor dem tatsächlichen Launch vorgestellt.

Zossel
2022-07-26, 07:42:38
total board power ~800W

Na dann wird ja alles gut.

dildo4u
2022-07-26, 08:40:19
Braucht NV wirklich GDDR6X?Samsung hat 24Gbps GDDR6.


https://www.servethehome.com/samsung-gddr6-24gbps-16gb-dram-launched/

Wobei hier nicht steht ob die sparsammer sind.

iamthebear
2022-07-26, 08:45:21
Das Problem von GDDR6X istndie PAM4 Codierung. Diese wird immer deutlich mehr Energie benötigen. Leider schafft es GDDR6X offensichtlich nicht sich stattdessen bei der Bitrate deutlich abzusetzen. Aktuell ist GDDR6X ein Nachteil und kein Vorteil.

Thunderburne
2022-07-26, 08:48:52
https://videocardz.com/newz/flagship-nvidia-ada-sku-might-feature-18176-cores-48gb-memory-and-800w-tdp
https://wccftech.com/nvidia-flagship-ada-lovelace-gpu-18176-cores-48-gb-memory-24-gbps-speeds-800w-tbp-rumor/

Und schon wirkt die 4090 vom Verbrauch wie eine Mittelklasse Karte 🤪

dildo4u
2022-07-26, 08:50:10
Das Problem von GDDR6X istndie PAM4 Codierung. Diese wird immer deutlich mehr Energie benötigen. Leider schafft es GDDR6X offensichtlich nicht sich stattdessen bei der Bitrate deutlich abzusetzen. Aktuell ist GDDR6X ein Nachteil und kein Vorteil.

Möglich das NV sie nimmt da AMD und Intel nicht darauf zugreifen, also einfacher verfügbar sind.

dargo
2022-07-26, 09:04:19
https://videocardz.com/newz/flagship-nvidia-ada-sku-might-feature-18176-cores-48gb-memory-and-800w-tdp
https://wccftech.com/nvidia-flagship-ada-lovelace-gpu-18176-cores-48-gb-memory-24-gbps-speeds-800w-tbp-rumor/

Und schon wirkt die 4090 vom Verbrauch wie eine Mittelklasse Karte 🤪
Ich halte die 800W TDP für Blödsinn bei nur +11% Shader vs. 4090. Eher wird das PCB darauf ausgelegt sein müssen. 600W (sofern die 450W der 4090 überhaupt stimmen) halte ich da für realistischer wenn der Takt der TI/Titan eventuell etwas höher ausfällt. Bei der 4080 gehe ich davon aus, dass diese SKU an der Kotzgrenze bei den Frequenzen betrieben wird sofern die 420W stimmen.

Gleich vorweg... egal ob 600W oder 800W. Beides ist völlig inakzeptabel und komplett gaga. ;)

btw.
Kann mir einer erklären was man im Bereich Gaming mit 48GB Vram anfangen soll? :freak: Schon 24GB sind aktuell Overkill.

Thunderburne
2022-07-26, 09:13:10
Ich halte die 800W TDP für Blödsinn bei nur +11% Shader vs. 4090. Eher wird das PCB darauf ausgelegt sein müssen. 600W (sofern die 450W der 4090 überhaupt stimmen) halte ich da für realistischer wenn der Takt der TI/Titan eventuell etwas höher ausfällt. Bei der 4080 gehe ich davon aus, dass diese SKU an der Kotzgrenze bei den Frequenzen betrieben wird sofern die 420W stimmen.
Kuck mal 3090Vs Ti 100W bei wieviel shader mehr ?
Da zu kommt noch der Takt die Spekulationen gehen von 2,5 bis 2,8 GHZ dan der Doppelte RAM !
Lass die 4090 erstmal moderat gestaltet sein 2,3- 2,55 Boost da für sprechen z.b die nur 450 W und die hohe shader Zahl gegenüber der 4080.
Der voll Ausbau später könnte Vielleicht mit 2,45 -2,75 + GHZ boost kommen.

Das weis man ja noch nicht !

Was verdächtig ist derzeit ist die speku bei der 4080 mit 420W bei nur 10*** Shadern!
Das klingt für mich wen es so kommt nach ordentlich Drezahl beim Takt und daher auch hohem Verbrauch!

Nim das *2 und pack 32GB mehr RAM rein mit dem selben Takt und zieh die knapp 2000shader mehr wieder ab .

Ich halte hier erstmal nicht für ausgeschlossen auch wen es später nur die Partnerkarten sind die das erreichen!

dargo
2022-07-26, 09:20:53
Kuck mal 3090Vs Ti 100W bei wieviel shader mehr ?

Die 3090TI hat nicht nur paar Shader mehr sondern auch einiges mehr an Takt. ;)
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/2/#abschnitt_die_tatsaechlichen_durchschnittlichen_taktraten_unter_last
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/#abschnitt_die_taktraten_unter_last

Nimm bei der 3090 die Gigabyte als Anhaltspunkt (361W) da die MSI ein noch höheres Powerlimit hat und 380W säuft. Eine 3090 FE wird also im Schnitt eher knapp unterhalb von 1,7Ghz rauskommen.

prinz_valium_2
2022-07-26, 09:43:50
Anderes PCB. 48GB anstatt 24GB. GDDR6X anstatt GDDR6. 11% mehr Shader. X% mehr Takt.
Der Takt wird bei der 4090 bestimmt noch sehr im Rahmen sein im Gegensatz zu den Karten darunter und dann auch der Karte darüber.

Das kann also schon in die Richtung laufen.

Sardaukar.nsn
2022-07-26, 09:49:10
Vielleicht wird es ja auch Custom Designs der 4090 geben die deutlich über der 450W TDP liegen. Die wird im Takt sicher gut beschränkt sein, wenn selbst eine 4080 schon mit 420W umgehen kann.

Slipknot79
2022-07-26, 09:54:19
Also 48GB wären für mich ein Grund, die Karte nicht zuzugrapschen. Was soll ich damit? Ich kaufe mir ja auch keine 8TB SSD, weil was soll ich damit? Oo Selbst die 24GB wären grenzwertig, aber gerade noch zu akzeptieren. Bei 48GB bin ich dann wohl raus.
Kommt natürlich auch auf den price an, "geschenkt" nehme ich sie auch, aber das wirds nicht spielen.

HOT
2022-07-26, 10:16:59
Für mich wär der Grund 600-800W ;). Zuviel Speicher schadet ja nicht.

Troyan
2022-07-26, 10:19:03
Das Ding hat bestimmt keine 800W. Aber gut, wenn auf Twitter was steht, muss es stimmen.

Die aktuelle Quadro-Karte liegt bei 300W mit 48GB und 16Gbit/s. Bei 800W müsste Lovelace ja schon alleine schon knapp 3x schneller sein für die selbe Effizienz. Bei 50% mehr läge man schon bei 4,5x mehr Leistung. Das ist vollkommen absurd.

Linmoum
2022-07-26, 10:19:27
Den Verbrauch kann ich zur Not selbst regulieren, den Speicher muss ich aber trotzdem mitbezahlen, ohne Verwendung dafür zu haben.

Slipknot79
2022-07-26, 10:20:12
Ich wüsste einfach nicht, womit 24GB, und vorallem 48GB als Gamer vollzubekommen sind? Oo
Ich starte das Spiel, alles maxed. Das soll 24/48GB auffüllen? Wenn die beschränkte Konsolentechnik vorgibt, was Sache ist?

Stromverbauch ist egal, trete ich nen Lambo, dann sauft der eben auch. (y)

DrFreaK666
2022-07-26, 10:34:55
Der PC Master-Racer Gamer von heute weiß nicht mehr was Mods sind?

Linmoum
2022-07-26, 10:38:49
Und mit welchen Mods in welchem Spiel kriegst du 48GiB voll?

DrFreaK666
2022-07-26, 10:40:47
mit allen Skyrim Mods geht das sicherlich irgendwie :D

Korvaun
2022-07-26, 10:58:05
800W / 48GB / sehr wenig beschnitten / hoher Takt .... warum nicht. Das Ding wird extrem teuer werden wenn es denn kommt (locker 3999 € oder mehr) und wird dann auch nur entsprechend wenig verkauft. Ist halt nicht mehr "Porsche-Level"-unvernünftig sondern eher "Lambo/McLaren-Lavel" unvernünftig ;)

dargo
2022-07-26, 11:14:56
Anderes PCB. 48GB anstatt 24GB. GDDR6X anstatt GDDR6. 11% mehr Shader. X% mehr Takt.
Der Takt wird bei der 4090 bestimmt noch sehr im Rahmen sein im Gegensatz zu den Karten darunter und dann auch der Karte darüber.

Das kann also schon in die Richtung laufen.
Eine zu starke Limitierung vom Takt halte ich für etwas schwierig da jeder Depp den dann einfach anheben kann und somit zu nah an die TI/Titan rankommt. Ob Nvidia diesen Weg geht? Schauen wir mal...

Vielleicht wird es ja auch Custom Designs der 4090 geben die deutlich über der 450W TDP liegen.
Wieso vielleicht? Das ist so sicher wie das Amen in der Kirche.

Edgecrusher86
2022-07-26, 11:25:21
Ich wüsste einfach nicht, womit 24GB, und vorallem 48GB als Gamer vollzubekommen sind? Oo
Ich starte das Spiel, alles maxed. Das soll 24/48GB auffüllen? Wenn die beschränkte Konsolentechnik vorgibt, was Sache ist?

Stromverbauch ist egal, trete ich nen Lambo, dann sauft der eben auch. (y)

Alles leicht machbar mit einem 10 Jahre alten Spiel ohne Mods - man nehme nur eine entsprechende Auflösung (dank Orb's Custom DSR Tool) und kombiniere das ganze mit 8xMSAA - schon gehen auch die 48GB baden. ;D
Hab den Screenshot gerade nicht zur Hand, aber Max Payne 3 meinte in 13760x5760 + 8xMSAA+FXAA grob 52GB (iirc) nehmen zu müssen - gleich am Anfang - also in 16K 16:9 würde ich hier Richtung 64GB empfehlen. :D
Das war bei meiner VRAM-Füll-Session. In 4x MSAA+FXAA wären es glaube 27GB gewesen, was 5760p (als 21:9) veranschlagte. ^^


Ja, generell sind über 24GB Stand heute dann wohl eher etwas für Designer, denn für Gamer. Meine nächste Karte wird dann wohl 48GB haben in Form der RTX 5090 -
wohl in Kombination mit Lunar Lake (da gehe ich von Gen 6 aus - sowohl PCI-E, als auch DDR). Ada kann ich guten Gewissens überspringen, gerade auch, da nicht mehr soviel gezockt wird. :)


Um die 3 GHz Max Boost würde mich für AD103 bei der RTX 4080 nicht wundern - wenn darunter, dann sicher nicht deutlich. So 2,8 GHz werden es wohl locker sein.

Slipknot79
2022-07-26, 11:43:38
Ist die Frage, wieviele fps da noch übrig bleiben. Immerhin könnte Ada die erste Generation sein, mit der 4k gaming zu brauchbaren fps und RT möglich sein wird in aktuellen Games. Von 8xMSAA fange ich da aber noch nicht an. (y)

Ex3cut3r
2022-07-26, 11:51:56
Welches neue AAA Spiel hat denn noch MSAA? 4K (DLSDR) und DLSS Q scheint momentan besser zu sein, als diese bescheuerten 6K oder 8K Auflösungen. Mit 4K und DLSS Q kommt man wenigstens bei geschmeidigen 90-120 FPS in aktuellen Spielen raus. Beim 8K Gammel kommt man irgendwo bei 50-30 FPS rum. Ich finde auch eine Framerate (ab 90 FPS/HZ) sorgt für ein tolles (gesamt) Bild.

Nightspider
2022-07-26, 12:19:42
Aha.
https://abload.de/thumb/dyinglightgame_x64_rwimj80.png (https://abload.de/image.php?img=dyinglightgame_x64_rwimj80.png)
https://abload.de/thumb/dyinglightgame_x64_rwmdk01.png (https://abload.de/image.php?img=dyinglightgame_x64_rwmdk01.png)

Kann ich nur bestätigen. Ich hab vorher auch den Billigmonitor auf Arbeit gehabt und fand es deshalb zu dunkel. Zuhause sieht das in Ordnung aus. Das ganze ist ein wunderbarer Test um Kackmonitore zu entlarven. Mit OLED würde ich mir das gerne noch angucken.

Ich habe jetzt mal TN vs IPS vs QD-OLED verglichen.

Klar säuft der sehr dunkle Bereich beim TN ab aber ich finde das IPS Panel sieht nicht mal soo viel besser aus in diesem fast schwarzen Bereich.

Da habe ich eher das Gefühl den IPS Glow zu sehen, als irgendwelche Details.

Beim QD-OLED habe ich dieses Gefühl nicht mehr aber dennoch sind da so wenige Details sichtbar, weil es auch fast nur schwarz ist.


Ich möchte das RT Thema nicht wieder aufleben lassen, das nahm hier echt überhand. Wollte aber auch nochmal sagen, das es auch im RT Bild viele Fehler gibt hinsichtlich der Beleuchtung und manche Dinge auf dem Bild ohne einfach besser wirken. Und das liegt definitiv nicht am TN oder IPS Panel wenn es selbst auf dem OLED falsch aussieht.

Wenn die defekten Lampen auf der Unterseite mit RT plötzlich schwarz sind, obwohl solche Lampen unten nur Reflektoren besitzen, dann siehts einfach falsch aus.
Solche Fehler erzeugt RT einfach, weil die Oberfläche keine Spiegelung besitzt sondern eine einfache Textur ist.

DrFreaK666
2022-07-26, 12:45:00
Welches neue AAA Spiel hat denn noch MSAA?..

FH5

aufkrawall
2022-07-26, 12:47:46
Wenn die defekten Lampen auf der Unterseite mit RT plötzlich schwarz sind, obwohl solche Lampen unten nur Reflektoren besitzen, dann siehts einfach falsch aus.

Die sehen auch ohne RT falsch aus, weil das Fake-Licht nicht über die miesen Material-Eigenschaften hinwegtäuschen kann. :rolleyes:
Wenn man die Sache derart kleinlich angeht, könnte man gar nicht aufs Nicht-RT-Bild schauen, denn das Ambient Lighting hat die komplett falsche Farbe und viel zu wenig Helligkeitsabstufungen, sodass nach der Definition eigentlich das ganze bild ein "Grafikfehler" wäre.
Sorry, aber das ist einfach nur eine Gewöhnung an die falsche Fake-Grafik.

Aber das wars jetzt auch von meiner Seite.

Leonidas
2022-07-26, 13:02:58
Vielleicht wird es ja auch Custom Designs der 4090 geben die deutlich über der 450W TDP liegen.

Genau das soll passieren:
https://www.3dcenter.org/news/news-des-25-juli-2022

dargo
2022-07-26, 13:26:08
FH5
Und weiter? Das Ding braucht kaum Vram trotz MSAA dank forward+ Renderer. Seitdem TAA nachgereicht wurde wird wahrscheinlich eh keiner mehr MSAA verwenden. Nüchtern betrachtet ist MSAA tot.

Nightspider
2022-07-26, 13:30:59
AMD muss erst einmal wieder Marktanteile zurück gewinnen, unter 20% ist einfach inakzeptabel
Hinsichtlich Marktanteile sehe ich eher RDNA4 als guten Kandidaten an. Gab mal Gerüchte, dass es dort N41-N45 geben soll. Was eher in Richtung breites Portfolio und einer Strategie für mehr Marktanteile hindeutet. Was ich hier eine gute Strategie finden würde: Release von RDNA4 bereits Ende Q1/2024 und nicht erst Q3/2024. Im besten Fall wäre es dann nämlich so, dass Nvidia ihren Ada-Next erst später im Jahr geplant hat (Q3/2023 würde sich anbieten). Dann hätte AMD ~6 Monate Vorsprung, mit grossen Performance-Vorteil. Viele Enthusiasten würden dann bereits wechseln und man hätte Nvidia bereits einen guten Teil des Kuchens weggeschnappt. Und wenn das dank Chiplets gleich von Top to Bottom mit N41-N45 klappen würde, sogar über das gesamte Portfolio von Enthusiast bis Entry Level. Damit würde AMD Marktanteile gewinnen.

Ich stimme da in vielen Punkten zu.

Viele hatten ja gehofft das AMD dank Chipletdesign und kleinerer Chips eher releasen kann als Nvidia mit großen Chips und schlechteren Yields.

Aber wahrscheinlich war die RDNA3 Architektur einfach nicht zeitig genug fertig und/oder die Fabs für das Stacking bei TSMC.

AMD müsste bei RNDA4 versuchen zeitiger als Nvidia am Markt zu sein um Marktanteile zu gewinnen.

Kleine Chips zum Jahresanfang für eine Notebook-Generation im 2./3. Quartal wäre genauso wichtig.

Wenn AMD Chips für eine Nische wie das Steamdeck zusammenschustern kann, dann sollten sie mal möglichst schnell auch wenigstens 1 oder 2 Chips in einem neuen Prozess für den mobilen Bereich raushauen, einfach um besser als Nvidia dazustehen.

So 1-2 kleine N3 Chips Anfang 2024 wären doch perfekt für Laptops, selbst wenn es nur geshrinkte RDAN3 N5 Chips sind. Hauptsache Vorteile ggü der Konkurrenz haben.

Lehdro
2022-07-26, 13:54:19
Die aktuelle Quadro-Karte liegt bei 300W mit 48GB und 16Gbit/s. Bei 800W müsste Lovelace ja schon alleine schon knapp 3x schneller sein für die selbe Effizienz. Bei 50% mehr läge man schon bei 4,5x mehr Leistung. Das ist vollkommen absurd.
Mit der Logik gäbe es auch keine 3090 Ti mit 450W. Oder wie ist hier die Effizienz im Verhältnis zur Quadro?

Die Frage die sich wirklich stellt ist doch nur die: Wie weit muss NV über den Sweetspot gehen damit sie ihr Ziel (welches das auch immer ist) erreichen können?

Rein technisch ist von 450-800W alles möglich.

dargo
2022-07-26, 14:15:40
Och... unter 450W wäre technisch sicherlich auch möglich. ;)

DrFreaK666
2022-07-26, 14:16:26
Und weiter?...

Was "und weiter"?
Die Frage war: "Welches neue AAA Spiel hat denn noch MSAA?"
Und das war die Antwort drauf

Troyan
2022-07-26, 14:24:04
Mit der Logik gäbe es auch keine 3090 Ti mit 450W. Oder wie ist hier die Effizienz im Verhältnis zur Quadro?

Die Frage die sich wirklich stellt ist doch nur die: Wie weit muss NV über den Sweetspot gehen damit sie ihr Ziel (welches das auch immer ist) erreichen können?

Rein technisch ist von 450-800W alles möglich.

800W sind 68% mehr als die 450W der 3090TI. Um 50% Effzienz zu erreichen (das ist locker flockig machbar, da H100 bei 80% mit 75% mehr Strom liegt), müsste die Karte also 2,5x schneller sein. Bei doppelter Leistung (nicht Verbrauch) zur 3090TI müsste die Karte also wohl >3x effizienter sein. ;D

vinacis_vivids
2022-07-26, 14:32:54
Unter 450W sieht Nvidia kein Land gegen AMD. Deswegen will Nvidia das Rennen auf 800W ausweiten um noch halbwegs an der Spitze zu bleiben.
So wie man Huang kennt, wird er keine Niederlage hinnehmen wollen und auch 800W für eine Singel-GPU verkaufen.

800W,48GB,700mm^2 - 3999$
So richtig richtig dekadent, Hauptsache Nr1 bleiben, ganz nach Huangs Geschmack.

In den unteren Reihen gibs dann 8-10GB für 1000$ und den Schalter für schlechte BQ.

Manchmal frage ich mich wirklich wie clever die Käufer sind.

Tesseract
2022-07-26, 14:41:31
manchmal habe ich fast mitleid mit fanboys die sich in ihre fantasieblase verkriechen und dann jedes mal auf's neue völlig verwundert sind wenn der markt als ganzes rationale kaufentscheidungen trifft die sich innerhalb der eigenen fantasiewelt absolut nicht erklären lassen. :freak:

Linmoum
2022-07-26, 14:53:18
Bei Leuten wie vv verwundert mich eher, dass sie ihren Standpunkt auch in den Fällen immer noch wie eine Löwenmutter ihr Baby verteidigen, wenn die entsprechenden Produkte dann kaufbar sind. Egal, wie sehr die Fakten ihrer eigenen Welt widersprechen mögen.

prinz_valium_2
2022-07-26, 14:53:48
Eine zu starke Limitierung vom Takt halte ich für etwas schwierig da jeder Depp den dann einfach anheben kann und somit zu nah an die TI/Titan rankommt. Ob Nvidia diesen Weg geht? Schauen wir mal...




Wenn die TDP limitiert, wäre dem ein Riegel vorgeschoben.
Also bei der 4090.


Aber das sind doch bisher eh alles nur Max Testexemplare. Also kann das Retail Produkt auch locker bei 600 anstatt 800 ankommen.