PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 7000 Serie: Verfügbarkeit und Preise


Seiten : 1 2 3 4 5 6 [7]

horn 12
2024-10-09, 07:17:30
Kann man verkaufen,- sind aber nur auf Radeon Karten einlösbar
da Programm die AMD Karten checkt!

Rechne die XTX sackt auf 799 bis 849 Dollar ab und verkarrt da bis Ausverkauf durch ist.

kmf
2024-10-09, 11:18:29
...

Rechne die XTX sackt auf 799 bis 849 Dollar ab und verkarrt da bis Ausverkauf durch ist.
Sagt dir das deine eigene Kristallkugel oder wie kommst du da drauf. XTX wird bis auf Weiteres HighEnd bei AMD bleiben.

Achill
2024-10-09, 11:33:29
Kann man verkaufen,- sind aber nur auf Radeon Karten einlösbar
da Programm die AMD Karten checkt!

Rechne die XTX sackt auf 799 bis 849 Dollar ab und verkarrt da bis Ausverkauf durch ist.

Selbst für diesen Preis kann man dies nicht mehr empfehlen, es steht die neue Generation von AMD und NV vor der Tür, auch wie die 8000 Serie von AMD kein Top Dog wird. Wenn man jetzt nicht eine GPU braucht weil die Alte defekt ist, dann definitiv warten, egal ob AMD oder NV.

vinacis_vivids
2024-10-09, 11:58:13
Die sehr gute RX 6800 16GB, also RX6000er Reihe ist bis heute nicht zu schlagen im Mid-Range und nach wie vor eine Empfehlung wert. Sie ist mittlerweile 4 Jahre "alt" und nur RDNA2.
Klar wird die "RX 8800XTX 16GB" besser sein, aber kostet eben auch mehr Kohle und mehr Asche.

7900XTX 96CU wird oben bleiben erstmal, mit 3,3-3,4Ghz Frontend Takt braucht sie sich vor keiner Grafikkarte verstecken, sondern schlägt die 4090 in vielen Disziplinen.

Also immer entspannt bleiben.

dargo
2024-10-09, 13:13:24
7900XTX 96CU wird oben bleiben erstmal, mit 3,3-3,4Ghz Frontend Takt braucht sie sich vor keiner Grafikkarte verstecken, sondern schlägt die 4090 in vielen Disziplinen.

Jo... als Heizofen bestimmt, da ist sie die absolute Nummer 1. :ulol:

DrFreaK666
2024-10-09, 13:33:29
Die sehr gute RX 6800 16GB, also RX6000er Reihe ist bis heute nicht zu schlagen im Mid-Range und nach wie vor eine Empfehlung wert...

Keine Empfehlung für mich. Wegen 15% rüste ich nicht auf und der Verbrauchsmonster XTX kommt mir nicht in den Tower

kmf
2024-10-09, 19:39:31
Keine Empfehlung für mich. Wegen 15% rüste ich nicht auf und der Verbrauchsmonster XTX kommt mir nicht in den Tower
Die Unkenrufe sind doch echt Käse. Ihr plappert nur nach. Meine 7900XTX bewegt sich in Spielen auch nicht viel versoffener, als meine 6900XT im Zweitrechner. Zwischen 250 und 300W bei 4K Anzeige. Selten über 300W, Ausnahme ist das Heizspiel AFOP, das hab ich auf 58Hz in der Wiederholrate begrenzt.

dargo
2024-10-09, 21:20:29
Die Unkenrufe sind doch echt Käse. Ihr plappert nur nach.
Falsch... ich hatte die 7900XTX hier und kenne sie ins kleinste Detail.

DrFreaK666
2024-10-09, 22:33:30
...Selten über 300W, Ausnahme ist das Heizspiel AFOP, das hab ich auf 58Hz in der Wiederholrate begrenzt.

58Hz? WTF? Für was hab ich einen Monitor mit bis zu 180Hz gekauft?
Hast mich überzeugt: die XTX schluckt nicht :ugly:

kmf
2024-10-09, 23:05:18
58Hz? WTF? Für was hab ich einen Monitor mit bis zu 180Hz gekauft?
Hast mich überzeugt: die XTX schluckt nicht :ugly:Kannst ja aufdrehen wie du willst, nur dann kocht die Karte im eigenen Saft. Mir ist das zu schade für die, will sie noch länger im Rechner haben. Ich hab alles gemaxt, nur die FPS begrenzt. Das heizt immer noch genug. Und Avatar ist kein Shooter, da merkt man eine FPS-Begrenzung ned. Und heizen über Gebühr tut das Game auch mit Nvidia-Karten.
Falsch... ich hatte die 7900XTX hier und kenne sie ins kleinste Detail.Oh dargo, wieso erlaubst du dir hier "Falsch" vorzubringen? Du hast bissel rumgetestet. Und warst schon vorab negativ eingestellt, weil das MorePowerTool damit ned funzt. Ich hab die jetzt fast ein dreiviertel Jahr und oft gegen die 6900er gegengetestet. Ich glaub ich kann mir da eher ein Urteil erlauben.

dargo
2024-10-10, 09:39:14
Oh dargo, wieso erlaubst du dir hier "Falsch" vorzubringen? Du hast bissel rumgetestet. Und warst schon vorab negativ eingestellt, weil das MorePowerTool damit ned funzt. Ich hab die jetzt fast ein dreiviertel Jahr und oft gegen die 6900er gegengetestet. Ich glaub ich kann mir da eher ein Urteil erlauben.
In den zwei Wochen habe ich N31 besser kennengelernt als so mancher hier in mehreren Monaten oder gar Jahren. :rolleyes: Ich schaue aber auch nicht nur auf schnöde fps, und selbst da liefert das Ding vs. N21 einfach zu wenig. Das gesamte RDNA3 Lineup ist aus technischer Sicht ein Reinfall, da gibt es nichts schön zu reden.

Schon alleine diese Aussage ist an Lächerlichkeit kaum zu überbieten.
Zwischen 250 und 300W bei 4K Anzeige. Selten über 300W, Ausnahme ist das Heizspiel AFOP, das hab ich auf 58Hz in der Wiederholrate begrenzt.
Auf 58Hz begrenzen und dann mit irgendwelchen Verbräuchen ankommen wo die Karte gar nicht ausgelastet wird... selten so gelacht. Das mag dein Usercase sein, ist aber weit von meinem entfernt.

robbitop
2024-10-10, 10:07:31
7900XTX 96CU wird oben bleiben erstmal, mit 3,3-3,4Ghz Frontend Takt braucht sie sich vor keiner Grafikkarte verstecken, sondern schlägt die 4090 in vielen Disziplinen.

Welche 7900XTX schafft denn bitte 3,3-3,4 GHz (sustained in Spielen bei Volllast)?
Ein golden Sample mit VCore Mod und Chillerkühlung?

dargo
2024-10-10, 10:25:20
Welche 7900XTX schafft denn bitte 3,3-3,4 GHz (sustained in Spielen bei Volllast)?
Ein golden Sample mit VCore Mod und Chillerkühlung?
Er übertreibt natürlich wie immer. Zudem spricht der vom Frontend und nicht Shadertakt weil größere Zahlen immer besser wirken. ;) Und selbst wenn es stimmen sollte säuft so ein Teil dann wie ein Loch bei entsprechender Gaminglast.

robbitop
2024-10-10, 10:36:50
Die Tools lesen den Shadertakt aus, oder? Kann man den Front End Takt mittlerweile auch auslesen?

robbitop
2024-10-10, 10:53:45
Wie hoch bekommt man so eine 7900XTX eigentlich mit Custom Wakü und wenn notwendig mod BIOS mit mehr TDP und VCore?
Damit meine ich sustained shadertakt in Games unter absoluter Volllast. Also kein "Herzeigetakt" der nur bei Teillast anliegt und bei Volllast dann runterthrottelt.

Also der8auer hat mit Erhöhung des Powerlimits auf >500W mittels Elmo EVC tatsächlich >3,3 GHz Shaderclock im 3DMark hinbekommen. Alles noch mit normaler custom Wakü. Schon krass und schade, dass es keine Möglichkeit für Modbios gibt (ohne HW Modding also). Mit Custom Wakü wäre das sicherlich eine Option. ^^

https://www.youtube.com/watch?v=ySxNdg13y9A&t=69s

Ist das effizient? Nein. Aber geil schon. X-D

edit: es scheint mittlerweile Mod BIOSe zu geben. Alter Verwalter. Die Karten packen ohne VCore Erhöhung 3,3 GHz Shadertakt und mehr. Wenn die TDP nicht so explodiert wäre, wäre es ggf das was AMD vorhatte weshalb sie dann gestackte MCDs gebraucht hätten (die aber für ~2,5 ish GHz nicht notwendig waren). Aber ganz ehrlich so eine SKU mit gutem 600W Kühler und gestackten MCDs wäre schon cool gewesen. Aber wäre wahrscheinlich nicht gut für's Image gewesen so wie die 5 GHz Piledriver SKU vor ~10 Jahren. Wenn man so viel säuft muss man dann auch ganz vorn liegen und das hätte die Karte dann auch nicht gepackt. Ich verstehe es schon aber es wäre trotzdem cool gewesen irgendeinen Weg zu finden, das zu veröffentlichen. Ggf als special edition von Sapphire oder ASRock oder so - etwas was nicht offiziell im AMD Lineup auftaucht.

dargo
2024-10-10, 11:13:44
Die Tools lesen den Shadertakt aus, oder? Kann man den Front End Takt mittlerweile auch auslesen?
Schon lange. Das konnte ich schon damals auslesen.

robbitop
2024-10-10, 11:32:34
edit: es scheint mittlerweile Mod BIOSe zu geben. Alter Verwalter. Die Karten packen ohne VCore Erhöhung 3,3 GHz Shadertakt und mehr. Wenn die TDP nicht so explodiert wäre, wäre es ggf das was AMD vorhatte weshalb sie dann gestackte MCDs gebraucht hätten (die aber für ~2,5 ish GHz nicht notwendig waren). Aber ganz ehrlich so eine SKU mit gutem 600W Kühler und gestackten MCDs wäre schon cool gewesen. Aber wäre wahrscheinlich nicht gut für's Image gewesen so wie die 5 GHz Piledriver SKU vor ~10 Jahren. Wenn man so viel säuft muss man dann auch ganz vorn liegen und das hätte die Karte dann auch nicht gepackt. Ich verstehe es schon aber es wäre trotzdem cool gewesen irgendeinen Weg zu finden, das zu veröffentlichen. Ggf als special edition von Sapphire oder ASRock oder so - etwas was nicht offiziell im AMD Lineup auftaucht.
Naja mal schauen was mit der 8800 XTX(?) dann so möglich sein wird. Aber man erkennt grob was hätte sein können, wenn AMDs Plan aufgegangen wäre mit den >3 GHz bei normalen TDPs.

kmf
2024-10-10, 14:19:07
In den zwei Wochen habe ich N31 besser kennengelernt als so mancher hier in mehreren Monaten oder gar Jahren. :rolleyes: Ich schaue aber auch nicht nur auf schnöde fps, und selbst da liefert das Ding vs. N21 einfach zu wenig. Das gesamte RDNA3 Lineup ist aus technischer Sicht ein Reinfall, da gibt es nichts schön zu reden.

Schon alleine diese Aussage ist an Lächerlichkeit kaum zu überbieten.

Auf 58Hz begrenzen und dann mit irgendwelchen Verbräuchen ankommen wo die Karte gar nicht ausgelastet wird... selten so gelacht. Das mag dein Usercase sein, ist aber weit von meinem entfernt.
Ich rede hier von lediglich einem Spiel. Verdreh bitte ned immer die Tatsachen, so dass es dir passt. Auch bei der 6900XT hab ich begrenzt, weil da das Netzteil zu rasseln beginnt, wenn die Karte die volle Ladung abruft. Spiel erst mal Avatar mit gemaxten Einstellungen auf deiner 6800XT und nimm dazu deine Einstellungen vom MorPowerTool weg, dann wirst du merken, von was ich rede und kannst dir selbst ein Bild machen, was das Spiel einer Grafikkarte antut.

Das gesamte RDNA3 Lineup ist aus technischer Sicht ein Reinfall, da gibt es nichts schön zu reden.Ich hingegen sehe in dem Konzept Pionierarbeit, welche sich in Zukunft in breiter Front durchsetzen wird. Die Zeit riesiger teurer monolithischer Chips wird zu Ende gehen.

Shink
2024-10-10, 15:56:41
Ich hingegen sehe in dem Konzept Pionierarbeit, welche sich in Zukunft in breiter Front durchsetzen wird. Die Zeit riesiger teurer monolithischer Chips wird zu Ende gehen.
Naja, könnte sein, oder auch nicht.
Ich würde eher vermuten, dass "in breiter Front" monolithische, nicht-riesige Chips mehr Sinn machen. Egal ob Chiplet oder "riesige Monolithen" - ich kann mir irgendwie nicht vorstellen, dass Grafikkarten in 10 Jahren so groß wie ein Midi-Tower sind.

DrFreaK666
2024-10-10, 17:30:23
... ich kann mir irgendwie nicht vorstellen, dass Grafikkarten in 10 Jahren so groß wie ein Midi-Tower sind.
Naja, back to the roots :biggrin:

dargo
2024-10-10, 18:07:05
Ich rede hier von lediglich einem Spiel. Verdreh bitte ned immer die Tatsachen, so dass es dir passt.

Mein Anspruch sind keine mickrigen 58Hz, bei keinem Spiel.


Auch bei der 6900XT hab ich begrenzt, weil da das Netzteil zu rasseln beginnt, wenn die Karte die volle Ladung abruft. Spiel erst mal Avatar mit gemaxten Einstellungen auf deiner 6800XT und nimm dazu deine Einstellungen vom MorPowerTool weg, dann wirst du merken, von was ich rede und kannst dir selbst ein Bild machen, was das Spiel einer Grafikkarte antut.

Warum sollte ich das genau tun? Damit der zugenagelte RDNA3 besser darsteht? :freak: Im übrigen hatte ich damals die RX 6800XT nur behalten wegen den sehr guten Undervolting Möglichkeiten. Ansonsten ginge die Karte wieder zurück denn 300W waren für mich von Anfang an inakzeptabel.


Ich hingegen sehe in dem Konzept Pionierarbeit, welche sich in Zukunft in breiter Front durchsetzen wird. Die Zeit riesiger teurer monolithischer Chips wird zu Ende gehen.
Ich habe nirgendwo das Chiplet Design bemängelt. N33 hat kein Chiplet Design und ist trotzdem sehr durstig geworden. Ich merke schon... aus technischer Sicht hast du kaum Überblick bei RDNA3. Ich gebe dir einen kleinen Tipp... schau dir genauer unter Gaming Workloads die V/F-Kurve von N21 und N31 an dann wird dir auffallen was beim GPU-Design von RDNA3 schief gelaufen ist. Das ist eine deutlich durstigere GPU geworden der AMD ein deutlich engeres Powerkorsett innerhalb der V/F Kurve (nicht auf die absolute Zahl bezogen, die ist ja gestiegen vs. N21) spendieren musste damit man die Dinger überhaupt noch los wird ohne sich völlig zu blamieren.

horn 12
2024-10-10, 18:44:13
Nun, muss kmf wirklich Beipflichten
Habe Navi 31, sprich AMD 7900 XTX MBA seit knapp 2 Jahren und bin hochzufrieden.
Das mein Gehäuse wenig Abluft Belüftet ist ist das Einzige Manko.
und dass der Hotspot mir mit 89 bis 92Grad zu hoch vorkommt,- aber absolut im Rahmen ist!

RDNA 7900 XTX läuft bei mir mit 285 bis 312 Watt bei ca. 2400 - 2550 Mhz bei 1,085 Volt
Absolut Stabil und lüppt wunderbar bei meinem Dell Alienware 3225QF zu 240 Hz
auch wenn die einen oder Anderen BlockBuster nur um die 55 bis 75 fps laufen alles auf Max und 4K.

kmf
2024-10-10, 19:37:45
Mein Anspruch sind keine mickrigen 58Hz, bei keinem Spiel.

Also lieber 58Hz bei geilem Bild, als 144 bei Matsch.

Ex3cut3r
2024-10-11, 06:44:43
Als ob 60HZ/FPS mit VRR auf einmal komplett unspielbar wären. Manchmal beschränke ich die FPS auch auf 60 in Singleplayer-Spielen, um Stottern oder Traversal-Stottern zu vermeiden bzw. zu entschärfen. Kurz gesagt, bei Spielen mit schlechtem Frame Pacing, die ich dennoch spielen möchte. Also kurz gesagt, jedes UE5 Game im Grunde genommen. :biggrin:

][immy
2024-10-11, 08:19:47
Als ob 60HZ/FPS mit VRR auf einmal komplett unspielbar wären. Manchmal beschränke ich die FPS auch auf 60 in Singleplayer-Spielen, um Stottern oder Traversal-Stottern zu vermeiden bzw. zu entschärfen. Kurz gesagt, bei Spielen mit schlechtem Frame Pacing, die ich dennoch spielen möchte. Also kurz gesagt, jedes UE5 Game im Grunde genommen. :biggrin:

Ich beschränke grundsätzlich auf 60fps. Reicht mir vollkommen. Hat auch Vorteile was die Akustik angeht, denn die meisten Komponenten bleiben dabei Recht einfach zu kühlen. Dafür gehe ich allerdings weniger Kompromisse bei der Auflösung ein, denn schon DLSS mochte ich nicht und FSR auch nicht. Da stören mich die Artefakte zu sehr.

fondness
2024-10-11, 12:52:30
Wie hoch bekommt man so eine 7900XTX eigentlich mit Custom Wakü und wenn notwendig mod BIOS mit mehr TDP und VCore?
Damit meine ich sustained shadertakt in Games unter absoluter Volllast. Also kein "Herzeigetakt" der nur bei Teillast anliegt und bei Volllast dann runterthrottelt.

Also der8auer hat mit Erhöhung des Powerlimits auf >500W mittels Elmo EVC tatsächlich >3,3 GHz Shaderclock im 3DMark hinbekommen. Alles noch mit normaler custom Wakü. Schon krass und schade, dass es keine Möglichkeit für Modbios gibt (ohne HW Modding also). Mit Custom Wakü wäre das sicherlich eine Option. ^^

https://www.youtube.com/watch?v=ySxNdg13y9A&t=69s

Ist das effizient? Nein. Aber geil schon. X-D

edit: es scheint mittlerweile Mod BIOSe zu geben. Alter Verwalter. Die Karten packen ohne VCore Erhöhung 3,3 GHz Shadertakt und mehr. Wenn die TDP nicht so explodiert wäre, wäre es ggf das was AMD vorhatte weshalb sie dann gestackte MCDs gebraucht hätten (die aber für ~2,5 ish GHz nicht notwendig waren). Aber ganz ehrlich so eine SKU mit gutem 600W Kühler und gestackten MCDs wäre schon cool gewesen. Aber wäre wahrscheinlich nicht gut für's Image gewesen so wie die 5 GHz Piledriver SKU vor ~10 Jahren. Wenn man so viel säuft muss man dann auch ganz vorn liegen und das hätte die Karte dann auch nicht gepackt. Ich verstehe es schon aber es wäre trotzdem cool gewesen irgendeinen Weg zu finden, das zu veröffentlichen. Ggf als special edition von Sapphire oder ASRock oder so - etwas was nicht offiziell im AMD Lineup auftaucht.

Na immerhin siehst dus jetzt ein. ;-) ich kann mich noch gut erinnern wie lange man bei dir gegen eine Wand geredet hat mit den über 3 GHz takt, obwohl es sogar offizielle amd Folien gab.

robbitop
2024-10-11, 13:00:23
Ne ne. Ich hab ja nie bezweifelt dass die GPU Taktraten grundsätzlich theoretisch schafft (gab ja schon 2022 von TPU einen Test einer 3 GHz Variante) sondern durch Bottlenecks davon abgehalten wird. Und eine unrealistische TDP ist genauso ein Flaschenhals als wenn man den Takt nicht erreicht. Das ist kein triviales Problem was irgendwie im Design durch einen Bug verkackt wurde. Auch RDNA3.5 in Strix taktet nicht höher.
Und auch die (angebliche!) RDNA4 GPU in der PS5Pro hat sogar eher eine Taktregression ggü. der non Pro. Noch gibt es keine Hinweise, dass man „mal eben“ eine Lösung dafür findet.

IMO ging da einfach der Plan nicht auf und das hat ggf keinen einfachen Fix. Ein bisschen wie damals mit dem P4 wo man irgendwann einsehen musste dass die Pläne dann wohl doch nicht aufgehen.

Ich glaube hier liegt einfach ein Verständnisproblem vor. Dass das Design es grundsätzlich auf die Taktraten schafft ist etwas ganz anderes als dass eine Serien SKU unter normalen Voraussetzungen (und dazu gehört Kühlung und Strombedarf) das auch packt. Und nur genau das habe ich bezweifelt und tue es auch nach wie vor für RDNA4 da es dafür keine Anzeichen gab und warum soll man auf einmal 500-800MHz mehr schaffen ohne dass einem die Leistungsaufnahme explodiert. (obgleich ich immer geschrieben habe dass ich hoffe hier falsch zu liegen)

Was ich hier im vorherigen Post zum Ausdruck bringen wollte war dass man eine sehr geile OC Karte zugenagelt hat und man die Chance verpasst hat eine ~600W Wakü SKU mit 3.2+ GHz und Doppel MCDs zu releasen aber mir auch klar war warum.
Jedenfalls wäre es für enthusiastische Wakü Besitzer zumindest nett gewesen wenn man es dem User nicht so extrem schwer gemacht hätte das Power Envelope zu öffnen.

Achill
2024-10-11, 13:15:28
Wenn man +500W gebraucht hat, um auf diese Frequenzen zu kommen, aber eben wahrscheinlich die 4090 nicht in größeren Bereichen geschlagen hätte, dann war das imho genau die richtige Entscheidung.

Was wäre es denn wieder für ein großer medialer Aufschrei gewesen (insb. von unseren YTlern) wenn das High End mehr verbraucht aber eben die 4090 nicht (gut) schlägt. Hatten wir alles schon in der Vergangenheit ... wäre diesmal nicht besser geworden.

Andere Firmen (z.B. Intel) dürfen im Vergleich ein paar Generationen mehr verbrauchen, AMD fehlt hier noch die Soziale Reichweite um sowas leichter unter den Teppich zu kehren.

robbitop
2024-10-11, 13:23:27
Wenn man +500W gebraucht hat, um auf diese Frequenzen zu kommen, aber eben wahrscheinlich die 4090 nicht in größeren Bereichen geschlagen hätte, dann war das imho genau die richtige Entscheidung.

Was wäre es denn wieder für ein großer medialer Aufschrei gewesen (insb. von unseren YTlern) wenn das High End mehr verbraucht aber eben die 4090 nicht (gut) schlägt. Hatten wir alles schon in der Vergangenheit ... wäre diesmal nicht besser geworden.

Andere Firmen (z.B. Intel) dürfen im Vergleich ein paar Generationen mehr verbrauchen, AMD fehlt hier noch die Soziale Reichweite um sowas leichter unter den Teppich zu kehren.
Absolut. Das war wahrscheinlich der Grund. Aber zumindest für die Übertakter hätte man es einfacher machen können die Karte „aufzumachen“.

vinacis_vivids
2024-10-11, 13:39:55
Gab auch Zeiten, da konnte man die Pipelines bei ATI per Bios-Mod freischalten (Radeon 9500 @ 256bit -> Radeon 9700) oder X800 Pro/GTO @ X800 XT. Die Zeiten sind leider lange lange vorbei.

Heute wird "Performance" mit Hochskalierung und Erzeugung von KI-Frames "freigeschaltet". Die Zeiten haben sich geändert, insbesondere dadurch, dass Huang an der Spitze ist, wo jeder Cent von den Gamers abgeschöpft wird um KI-Hype zu finanzieren.

Langlay
2024-10-11, 15:21:10
Die Zeiten haben sich geändert, insbesondere dadurch, dass Huang an der Spitze ist, wo jeder Cent von den Gamers abgeschöpft wird um KI-Hype zu finanzieren.


Selten so gelacht. Ja und VW verkauft Currywurst um ihr Automobilbusiness zu finanzieren.

kmf
2024-10-11, 16:07:47
Selten so gelacht. Ja und VW verkauft Currywurst um ihr Automobilbusiness zu finanzieren.
Naja von der Hand weisen, kann man es auch nicht. Keiner von uns kennt das genaue Geschäftsmodell von Nvidia. Aber die dicke Kohle kommt nachweislich vom Verkauf von AI und wieso soll die Entwicklung nicht durch Teile der Gewinne aus der Gamesparte quersubventioniert werden? AMD wird da in Zukunft wohl auch nachziehen müssen.

Langlay
2024-10-11, 16:14:55
Naja von der Hand weisen, kann man es auch nicht. Keiner von uns kennt das genaue Geschäftsmodell von Nvidia. Aber die dicke Kohle kommt nachweislich vom Verkauf von AI und wieso soll die Entwicklung nicht durch Teile der Gewinne aus der Gamesparte quersubventioniert werden? AMD wird da in Zukunft wohl auch nachziehen müssen.


Die Datacenter Umsatz war im Q2 2024 26,3 Mrd. $. Gaming und AI PC war 2.9 Mrd. $.

Der Datacenterbereich ist fast 10x so gross vom Umsatz her und auch für einen Grossteil des Gewinns verantwortlich. Gaming ist für Nvidia mehr ein Sitehustle.
Der Datacenterbereich hat es (aktuell) garnicht nötig irgendwie querfinanziert zu werden weil das der Goldesel der Firma ist und Gaming halt eher was um die Portokasse auszubessern.


https://i.ibb.co/r6bbvMf/GWGJSUXb0-AAb-JEo.jpg


Die von mir zitierte Aussage von V_V ist Bullshit und dafür muss man kein Dr. in BWL haben um drauf zu kommen. Das Nvidia sich ihr Gamingzeug auch vergolden lässt, ist eine Sache. Hat aber nichts damit zu tun das sie auf die Kohle angewiesen sind um ihr Datacenterbusiness am laufen zu halten, sie nehmen halt einfach was sie kriegen können. Ist halt ein gewinnorientiertes Unternehmen und nicht die Heilsarmee.

dargo
2024-10-11, 16:16:49
Wenn man +500W gebraucht hat, um auf diese Frequenzen zu kommen, aber eben wahrscheinlich die 4090 nicht in größeren Bereichen geschlagen hätte, dann war das imho genau die richtige Entscheidung.

Öhm... wenn das Ding von Anfang an für 500+W geplant war wieso wirbt dann AMD lange vor Release mit +50% Perf/W vs. N21? :| Ich meine diese Zahl hat man selbst mit dem 350W engem Korsett bei weitem verfehlt. Wie sähe das dann mit 500+W wohl aus? :freak:

Achill
2024-10-11, 21:43:21
Öhm... wenn das Ding von Anfang an für 500+W geplant war wieso wirbt dann AMD lange vor Release mit +50% Perf/W vs. N21? :| Ich meine diese Zahl hat man selbst mit dem 350W engem Korsett bei weitem verfehlt. Wie sähe das dann mit 500+W wohl aus? :freak:

Das habe ich gar nicht sagen wollen, dass da etwas mit 500W geplant war. Mir ging es erstmal darum das eine AMD GPU die +500W verbraucht aber dann immer noch nicht in allen Bereichen spitze ist, eben DoA gewesen wäre. Man ist nicht Intel oder NV und bei NV muss man auch fairer weise sagen (egal wie man selbst die Firma findet), dass die 4090 absolut gesehen viel verbraucht aber dafür auch abliefert.

Ich denke als die Info-Folie von AMD raus kam, da hat man noch gehofft??? etwas zu fixen - wer weiß.

https://images.anandtech.com/doci/17444/2022-06-09%2013_36_23_678x452.jpg


Was dann in den deutschen Medien schnell unter ging war die doch wichtige Information über den >50% ... "projected" - also nix sicher bisher. Sah evtl. gut auf den 2022 Financial Analyst day aus, aber das daraus ein Stick gedreht wird wenn es dann nicht so eintritt, das müsste auch jeder der gerade im Marketing startet wissen.

kmf
2024-10-13, 19:50:43
Bis morgen verfügbar für 899 plus Spiel: https://www.mindfactory.de/product_info.php/24GB-Sapphire-Radeon-RX-7900-XTX-Pulse-Aktiv-PCIe-4-0-x16--Retail-_1481525.html

Edit: XFX Karten hinzugefügt.

dildo4u
2024-10-14, 16:01:10
7800XT Hellhound 480€


https://www.mindfactory.de/product_info.php/16GB-PowerColor-Radeon-RX-7800-XT-Hellhound-Aktiv-PCIe-4-0-x16--Retail-_1507067.html

Disco_STFU
2024-10-14, 18:48:11
Die hat ein Bekannter vor kurzem für 449€ erworben.

Taigatrommel
2024-10-17, 11:03:45
Im Mindstar gibt es gerade die Powercolor Hellhound 7900 XT für 649,-€ die Aktion mit den beiden Spielen gilt natürlich auch dafür.

dargo
2024-10-21, 14:34:02
Den Preis finde ich schon ganz gut, ändert nur leider nichts am missglückten RDNA3. Irgendwie zieht sich das wieder mit der nächsten Gen @RDNA4, alles sehr unbefriedigend. :usad: Ich hatte auf erste Lebenszeichen in Oktober/November bei N48 gehofft, dafür ist es aber viel zu still um den Chip.

cos
2024-10-23, 21:12:39
Was denkt ihr.... werden 79xx im Preis fallen auf Weihnachten?

Ich bräuchte eine neue, Nvidia will ich nicht. Intel? Habe schon eine A770 und muss sie ab und zu gesundpflegen und die maue Performance schönträumen. :D

Raff
2024-10-23, 22:39:17
Unwahrscheinlich. Die XTX ist bereits für weniger als 900 Euro zu haben und die XT teilweise ab 650. Und man bekommt mehrere Spiele dazu. Das dürfte das Beste sein, was geht.

MfG
Raff

The_Invisible
2024-10-23, 23:09:22
Am Besten auf RDNA4 dann gleich warten, wenn dieser FSR4 AI & bessere RT Leistung bringt ärgert man sich sonst nur, preislich wirds wohl ähnlich sein

DrFreaK666
2024-10-24, 11:58:28
ja "wenn".
Man weiß leider überhaupt nichts mit Sicherheit und das nervt. Leaks gibt's irgendwie auch keine außer "der Staplerfahrer eines Lieferanten hat auf dem Klo gehört dass..."

dargo
2024-10-24, 12:13:46
Vielleicht ist die neue Gen dermaßen langweilig, dass ein generierter Hype überflüssig ist. :ulol: Allgemein empfinde ich PC-Hardware von Gen zu Gen langweiliger. Mir passiert da viel zu wenig um zu wechseln. Oder ich werde zu alt um mich von den kleinen Fortschritten einlullen zu lassen. :freak:

DrFreaK666
2024-10-24, 12:20:33
Mein Monitor unterstützt halt bis zu 180Hz. Will nicht bis in alle Ewigkeit Vampire Survivors spielen um die Hz zu erreichen, auch wenn demnächst ein Castlevania-DLC erscheint *freu*

Taigatrommel
2024-10-24, 13:29:10
ja "wenn".
Man weiß leider überhaupt nichts mit Sicherheit und das nervt. Leaks gibt's irgendwie auch keine außer "der Staplerfahrer eines Lieferanten hat auf dem Klo gehört dass..."
Ja, das ist es eben. Ich denke schon, dass AMD wirklich weitere Sprünge bezüglich RT und hoffentlich auch PT Performance erreichen wird, nur die Frage ist eben, wie denn das RDNA 4 "Flaggschiff" - welches nach eigenen Andeutungen ja eher in der Mittelklasse einzuordnen ist - überhaupt abschneiden wird. Mich würde es nicht wundern, wenn es leistungstechnisch die 7900 XTX gar nicht überflügeln wird, zumindest im Raster, dafür aber im Bereich RT deutlich besser abschneidet, aber halt keine 1000,-€ kostet.

Andererseits ist der Markt inzwischen so kaputt, da muss man ja schon genau überlegen, ab wann man überhaupt von der Mittelklasse sprechen kann.

Ich jedenfalls gehe nicht von einem Ramschverkauf der 7900 XTX aus. Diese ist ja wie Raff schon sagte regelmäßig für unter 900€ zu bekommen, gerade gibt es bei MF die XFX Merc 7900 XTX für 869,-€ - die wird sicher nicht so schnell auf unter 800€ fallen. Höchstens vielleicht wenn RDNA 4 wirklich vor der Markteinführung steht, siehe die teils massiv gefallenen Preise der 6900 XT.

DrFreaK666
2024-10-24, 13:35:52
Die XTX kommt überhaupt nicht in Frage. Will mein Netzteil beim Grafikkarten-Kauf eigentlich auch nicht wechseln müssen

Crazy_Chris
2024-10-24, 13:42:15
Stimmt das 425W Netzteil aus deinem Profil noch? Falls ja dann könntest du auch mit einer 7800XT schon Probleme bekommen.

DrFreaK666
2024-10-24, 13:54:20
Danke für den Hinweis. Habs aktualisiert.
Habe einen BeQuiet Straight Power10 500W

kmf
2024-10-24, 22:37:02
Ja, das ist es eben. Ich denke schon, dass AMD wirklich weitere Sprünge bezüglich RT und hoffentlich auch PT Performance erreichen wird, nur die Frage ist eben, wie denn das RDNA 4 "Flaggschiff" - welches nach eigenen Andeutungen ja eher in der Mittelklasse einzuordnen ist - überhaupt abschneiden wird. Mich würde es nicht wundern, wenn es leistungstechnisch die 7900 XTX gar nicht überflügeln wird, zumindest im Raster, dafür aber im Bereich RT deutlich besser abschneidet, aber halt keine 1000,-€ kostet.

Andererseits ist der Markt inzwischen so kaputt, da muss man ja schon genau überlegen, ab wann man überhaupt von der Mittelklasse sprechen kann.

Ich jedenfalls gehe nicht von einem Ramschverkauf der 7900 XTX aus. Diese ist ja wie Raff schon sagte regelmäßig für unter 900€ zu bekommen, gerade gibt es bei MF die XFX Merc 7900 XTX für 869,-€ - die wird sicher nicht so schnell auf unter 800€ fallen. Höchstens vielleicht wenn RDNA 4 wirklich vor der Markteinführung steht, siehe die teils massiv gefallenen Preise der 6900 XT.RDNA4 ersetzt wohl nicht die 79xx-Reihe. Zumindest leite ich das aus bisherigen Spekus ab.

horn 12
2024-10-31, 02:19:21
So, nun zu meiner Bestellten ASUS 7900XTX TUF für damals 880 Euro
als Neukauf bei Kleinanzeigen.

Karte wurde nicht zugestellt, ging verloren, sprich wurde Zugestellt aber nicht bei mir
und Verkäufer gibt mir nun das Geld Retour,- sprich habe bereits erhalten.
Soviel dazu, an alle Zweifler!


Heute bekam ich von den am 27. Oktober 2023 Bezahlten 880 Euro
aber nie angekommener Grafikkarte ASUS TUF 7900XTX
nun seit exakt einem Jahr die Letzten ausstehenden 130 Euro Retour
und bin somit nochmals komplett auf Null gekommen.
Die endlosen SMS und Versprechungen möchte ich gar meinem Allergrößten Feind ersparen!

dargo
2024-10-31, 14:54:56
PowerColor RX 7900 XTX Hellhound aktuell im Mindstar für 869€ zu haben.

HOT
2024-10-31, 16:13:13
Immer noch satt zu teuer, 750 wär dafür heute okay

Duran05
2024-10-31, 23:43:34
Glaube da geht nicht mehr viel im Preis, die Neureleases sind im anderen Segment und es jetzt kann nur mehr Black Friday was kommen, Weihnachten eher höher.
Ohne Cashback bzw. Aktion lohnt das schnelle zuschlagen leider nicht.
Klar wenn man unbedingt braucht, dann ja.

Die Hellhound ist wohl eine der besseren, hab da nur wenig Negatives drüber gehört. Eher die Breite sollte Sorgen bereiten. Sonst heisst es warten bis April++ 2025 und aufwärts.

vinacis_vivids
2024-11-01, 07:11:30
https://www.asrock.com/Graphics-Card/AMD/Radeon%20RX%207900%20XTX%20Creator%2024GB/

Asrock RX 7900 XTX "Creator" mit blow-Kühler gibs jetzt frisch im Sortiment. Dazu noch 12V Stecker für neue Builds.

24GB RX 7900 XTX bleiben erst einmal Referenz für die Entwicklung von PC/Konsolengames.

=Floi=
2024-11-01, 07:34:17
Da kannst einmal auf den NV schmutz connector draufhauen und dann machst es nicht. Der stecker bleibt murks und blower lüfter ist auch nix.
Das umgekantete blech ist aber auch bestes design. :ugly:

horn 12
2024-11-01, 08:41:13
Man liest weder zu dieser Asrock Blower Karte nix
oder findet Videos zu Testberichten
ebenso zur Asus 7900XTX Dual gibt es Keine Infos!

dargo
2024-11-01, 12:19:10
Da kannst du mal sehen wie interessant diese Karten sind. :ulol:

dildo4u
2024-11-06, 11:12:12
Ist der Acer Kühler ok?

https://i.ibb.co/tB6rB4x/Screenshot-2024-11-06-111108.png (https://ibb.co/Y2Ss23y)


https://www.notebooksbilliger.de/acer+nitro+amd+radeon+rx+7600+xt+oc+grafikkarte+849520?nbbct=4001_geizhals

Ex3cut3r
2024-11-06, 18:09:46
Ist der Acer Kühler ok?

https://i.ibb.co/tB6rB4x/Screenshot-2024-11-06-111108.png (https://ibb.co/Y2Ss23y)


https://www.notebooksbilliger.de/acer+nitro+amd+radeon+rx+7600+xt+oc+grafikkarte+849520?nbbct=4001_geizhals
So wie der aussieht, absolutes Minimum schätze ich.

dildo4u
2024-11-09, 06:22:27
Acer 7700XT 370€


https://www.notebooksbilliger.de/acer+nitro+amd+radeon+rx+7700+xt+oc+827540

Acer 7800Xt 460€


https://www.notebooksbilliger.de/acer+nitro+amd+radeon+rx+7800+xt+oc+827538?nbbct=4001_geizhals

dargo
2024-11-25, 13:28:59
Wer mit dem Heizofen klar kommt eventuell interessant.
https://www.mydealz.de/deals/asus-tuf-gaming-radeon-rx-7900-xtx-oc-24gb-100-eur-gamesplanet-gutschein-2472058

dargo
2024-12-03, 19:18:41
PowerColor RX 7900 XT Hellhound für 659€.
https://www.alternate.de/PowerColor/Radeon-RX-7900-XT-Hellhound-20GB-OC-Grafikkarte/html/product/100032014

DrFreaK666
2024-12-03, 19:28:08
langweilig.
Nächsten Monat wird RDNA4 vorgestellt

dargo
2024-12-03, 20:04:20
Das warten auf RDNA4 ist noch langweiliger, hätte schon längst da sein müssen.

Duran05
2024-12-04, 02:08:54
Die Hellhound gab es schon um 649,- in den letzten Tagen.
Kann mir gut vorstellen das der Preis noch sinken wird wegen Abverkauf. Mit den 2-Spielen zusammen wars attraktiver.

Die neue Serie wird ja kaum interessant, hier muss man auch die 16 GB sehen. 20 GB sind da schon eine Ecke besser.
Stromverbrauch vielleicht aufgebessert aber der Rest? Leistung muss erstmal überzeugen.

horn 12
2024-12-08, 14:56:59
Hat den niemand die die Asus 7900XTX Dual
welcher er beim Gamen benutzt,- denn im Netz findet man einfach nix dazu zu jener Karte.

Taigatrommel
2024-12-08, 16:13:20
Die Hellhound gab es schon um 649,- in den letzten Tagen.
Kann mir gut vorstellen das der Preis noch sinken wird wegen Abverkauf. Mit den 2-Spielen zusammen wars attraktiver.

Die neue Serie wird ja kaum interessant, hier muss man auch die 16 GB sehen. 20 GB sind da schon eine Ecke besser.
Stromverbrauch vielleicht aufgebessert aber der Rest? Leistung muss erstmal überzeugen.
Aktuell gibt es sie im Mindstar für 669,-€. Allerdings stimme ich zu:
In diesem Preisbereich würde ich, sofern es nicht wirklich dringend ist, eher die paar Wochen noch auf die neue Generation warten. Es ist ja grob absehbar, dass die 8800 (XT) durch die Bank interessanter als die 7900 XT sein dürfte.

Für High-End AMD Nutzer wird es hingegen wirklich langweilig, die neue Generation wird wohl eher bestenfalls ein Sidegrade, mit vielleicht irgendwo besserer RT Leistung, allerdings kein klares Upgrade. Also entweder die 7900 XTX weiterhin behalten oder halt im grünen Lager gucken.

kmf
2024-12-08, 17:01:12
Aktuell gibt es sie im Mindstar für 669,-€. Allerdings stimme ich zu:
In diesem Preisbereich würde ich, sofern es nicht wirklich dringend ist, eher die paar Wochen noch auf die neue Generation warten. Es ist ja grob absehbar, dass die 8800 (XT) durch die Bank interessanter als die 7900 XT sein dürfte.

Für High-End AMD Nutzer wird es hingegen wirklich langweilig, die neue Generation wird wohl eher bestenfalls ein Sidegrade, mit vielleicht irgendwo besserer RT Leistung, allerdings kein klares Upgrade. Also entweder die 7900 XTX weiterhin behalten oder halt im grünen Lager gucken.
Welche grüne könnte die XTX ablösen, bleibt ja nur die 4090, deren aktuelle Gebrauchtpreise weit über dem Neupreis der XTX liegen und deren Neupreise, wenn man noch eine kriegen kann, grad durch die Decke gehen.
So brachial schneller als die XTX ist die in 4K auch nicht, wenn man RT mal außen vor lässt. Und vom Stromverbrauch liegen sie auch ziemlich auf gleicher Höhe. Ich behalt meine Nitro+ mindestens noch bis zur übernächsten Generation.

BlacKi
2024-12-12, 15:22:04
keine ahnung was das für leute sind, aber meine GRE die ich nun ein jahr genutzt habe, konnte ich für ca 550€ wieder verkaufen. ich finde das einfach komisch. für 350-400€ ist so eine karte für mich wert, aber keine 550€.

vinacis_vivids
2024-12-13, 16:32:41
Radeon RX 7900 GRE ist sehr konstant bei der Preisentwicklung und hat das beste P/L Verhältnis aller 16GB GPUs derzeit. Da gibs keinen Verhandlungsspielraum bis evtl. RDNA4.

BlacKi
2024-12-13, 17:14:08
das finde ich nicht. es gab schon die 7800xt für weniger als 470€, ich würde sagen, das diese karte ein besseres perf./€ verhältnis hat. damals war der preisunterschied geringer. da war die GRE 30-50€ teurer. das war noch ok, gerade deshalb weil sie auch effizenter und besser zu OCen war. aber 100€ unterschied macht das nicht wett.

dildo4u
2024-12-13, 19:16:41
Ist es nicht öfter so das sich die GRE nicht absetzen kann?
Indiana Jones das neue Beispiel.

https://www.computerbase.de/artikel/gaming/indiana-jones-und-der-grosse-kreis-benchmark-test.90500/seite-2#abschnitt_benchmarks_in_full_hd_wqhd_uwqhd_und_ultra_hd

svk
2024-12-27, 12:10:21
Was wurde aus dem angeblichen refresh der xtx mit Tech der neuen Karten? Da wurde doch auf messe mal so ne Platine gezeigt wenn ich nicht irre?

robbitop
2024-12-27, 12:41:07
Wenn ich spekulieren müsste: N31 und N32 werden auslaufen. Aber eine N31 mit gestackten MCMs (also 192 MiB IF Cache) und von der Leine gelassen (also 500W dann mit echten 3,2 GHz) - das wäre schon geil. Aber wird wahrscheinlich nicht passieren weil es ähnlich dastehen würde wie damals der FX 9590 (den AMD auf 5 GHz geprügelt hat).

Palpatin
2024-12-28, 00:28:28
das finde ich nicht. es gab schon die 7800xt für weniger als 470€, ich würde sagen, das diese karte ein besseres perf./€ verhältnis hat. damals war der preisunterschied geringer. da war die GRE 30-50€ teurer. das war noch ok, gerade deshalb weil sie auch effizenter und besser zu OCen war. aber 100€ unterschied macht das nicht wett.
In meinen Augen hat auch die ca 20% teurere 7900xt ein besseres PL, ist ja auch gut 20% schneller und bietet mehr als 16gb.