Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
prinz_valium_2
2023-08-25, 11:01:20
Wer nutzt die Karten denn bitte für 4k am PC?
Und wenn 4k, dann weißt du, dass du Abstriche machen musst.
Linmoum
2023-08-25, 11:14:26
263W :ulol:
Und dabei scheint der Takt nichtmal geprügelt worden zu sein, bei 2,4x Ghz Boost. Alter Schwede ist die GPU schlecht.Bei AMD kann man die Uhr danach stellen und nach der GRE konnte man fast schon erwarten, dass sie N32 prügeln, um an die GRE heranzukommen so gut es geht. Wobei "prügeln" in dem Fall eigentlich komisch klingt, da der offizielle Takt nur auf 7900XT-Niveau und sogar 200MHz unterhalb von N33 liegt. Wenn ich das so sehe kann ich mir auch denken, warum man das Ding erst jetzt raushaut. Das sieht auch vs. N21 einfach nur schlecht aus.
Achso, die 7700XT haut auch noch 245W raus :freak:
Wenn die nicht an der 6800 nonXT vorbeikommt (was bei dem verkleinerten SI nicht unwahrscheinlich ist), wäre sie sogar ineffizienter als N21. Sowas hab ich selten erlebt bei Hardware-Vorstellungen.Das kann ich mir allerdings tatsächlich nicht vorstellen, von etwaigen Einzelfällen mal abgesehen. Dafür müsste die 7800XT >=20% schneller als die 7700XT sein, das sehe ich trotz allem nicht.
Der_Korken
2023-08-25, 11:34:27
Das kann ich mir allerdings tatsächlich nicht vorstellen, von etwaigen Einzelfällen mal abgesehen. Dafür müsste die 7800XT >=20% schneller als die 7700XT sein, das sehe ich trotz allem nicht.
Das kommt wie gesagt drauf an, wie stark das SI reinhaut. Der Speichertakt sinkt gegenüber der 7800XT auch von 19,5 auf 18Gbps, d.h. die 7800XT hat 44,4% mehr Speicherbandbreite als die 7700XT, dafür aber nur 11% mehr CUs bei weniger Takt. Vom Verhältnis Rechenleistung und Speicherbandbreite ist die 7700XT eher mit der 7900GRE vergleichbar: 75% der Bandbreite, 67,5% der CUs, aber ~15% mehr Boost Clock, d.h. auch etwa 75% der Rechenleistung. 360% (3DC 4K-Index) mal 0,75 ergibt 270% und damit leicht unterhalb der 6800 non XT.
prinz_valium_2
2023-08-25, 11:43:55
Falls der Speicher limitiert, wird man den ja zum Glück easy anheben können
reaperrr
2023-08-25, 11:54:45
Falls der Speicher limitiert, wird man den ja zum Glück easy anheben können
Die 7700XT wird 18Gbps Speicherchips verwenden, fraglich ob die so hoch gehen wie die 20Gbps Chips der 7800XT.
Aber selbst wenn, den 1MB weniger L2, die 16MB weniger IF$ und das 64bit schmalere SI kannst du damit nicht kompensieren.
In Sachen Perf/W wird die 7700XT wahrscheinlich schlechter als die 7800XT.
Dino-Fossil
2023-08-25, 12:40:00
Ich hätte ja ähnlich wie bei N33 einfach keine XT gelauncht. Als 7800 mit ein paar Watt weniger sähe die Karte vermutlich vernünftiger aus vs der 6800. Hat man halt keinen direkten Nachfolger zur 6800XT. Das Namensschema für die 7000er ist doch eh Banane.
reaperrr
2023-08-25, 13:51:30
Ich hätte ja ähnlich wie bei N33 einfach keine XT gelauncht. Als 7800 mit ein paar Watt weniger sähe die Karte vermutlich vernünftiger aus vs der 6800. Hat man halt keinen direkten Nachfolger zur 6800XT. Das Namensschema für die 7000er ist doch eh Banane.
Joa, eigentlich ist die 7900XT die 6800XT dieser Generation (außer vom Preis her).
Die 7800XT müsste eigentlich 7700XT heißen und die 77XT hätte 7700 oder 7600XT heißen müssen, dann wäre auch jede Karte klar schneller als der Namens-Vorgänger gewesen.
So aber lässt AMD durch die Nummern-Inflation die Karten marketingtechnisch relativ schwach im Vergleich zum jeweiligen namentlichen Vorgänger aussehen, obwohl z.B. N32Full gegenüber der 6750XT in Sachen Leistung, Speicherausstattung und Perf/W durchaus einiges draufpackt.
robbitop
2023-08-25, 14:40:36
Hat man sich schön bei Ada abgeguckt. Da scheint es auch zu funktionieren. X-D
Dino-Fossil
2023-08-25, 14:57:26
Ja, vielleicht haben die sich ja bei AMD gedacht, sie bringen ihr Marketing endlich auf Vordermann, indem sie einfach nVidia abkupfern. :ugly:
OgrEGT
2023-08-25, 15:41:44
https://videocardz.com/newz/amd-fidelityfx-super-resolution-3-fsr3-is-coming-soon-to-forspoken-and-immortals-of-aveum
Erste Games mit FSR3 Support angekündigt...
Fluid Motion Frames FTW
Das genaue Release Date gibt es ggf heute Nachmittag...
Der_Korken
2023-08-25, 16:17:56
Tatsächlich finde ich Frame Generation gar nicht so spannend. Da Nvidia das von längerer Hand geplant zu haben scheint, würde ich erwarten, dass AMDs Lösung holpriger laufen wird, d.h. mehr Ghosting oder schlechtere Latenzen. Ray Reconstruction dagegen fand ich viel interessanter. AMD wird irgendwann nachziehen, aber so wie ich das einschätzen würde, wurden sie auch von diesem Feature komplett überrascht und müssen from scratch erstmal anfangen sowas zu entwickeln.
auf Twitch gibts nen Gamescon AMD Livestream mit offiziell "großer Ankündigung" gegen 17 Uhr.
Muss leider Ton ausschalten, weil ich nimmer so cool-hip bin wie die Moderation
https://www.twitch.tv/amd?sf268492946=1
Something big is coming.
9:30 AM EST - AMD Highlight Show
11 AM EST - Special Announcements from @AzorFrank @sherkelman
Live from: https://www.twitch.tv/amd?sf268492946=1
basix
2023-08-25, 17:07:08
7800XT = 499$
7700XT = 449$
dildo4u
2023-08-25, 17:07:17
https://i.imgur.com/DJUakx6.png
Linmoum
2023-08-25, 17:08:00
https://i.gyazo.com/cd9a3cb2fd38790639ed6ddbcd5b7d50.png
lol
Troyan
2023-08-25, 17:08:00
Ist das wieder so eine Panik-Preissenkung? Was sollen $50 Unterschied?!
/edit: $499 ist okay für die 7800XT. Aber die 7700XT... Wer kauft das?!
das eine ist ohne Steuer (USA), das andere mit MWST (Europa)
Linmoum
2023-08-25, 17:10:27
Preisfindung und AMD sind zwei Dinge, die bei Grafikkarten scheinbar nie (mehr) zusammenpassen. Keine Ahnung, wen man damit erreichen will. Die $50 Unterschied riechen auch schon wieder danach, dass man nicht viel Spielraum nach unten hat für hohe Margen, die man aber haben will.
basix
2023-08-25, 17:11:23
Korrekt, da stimme ich Linmoum zu. Ähnlich bei N31
w0mbat
2023-08-25, 17:11:34
Der Preisunterschied ist wirklich sehr klein, d.h. die Karten sind eher 7800 XT und 7800. Komische Namensgebung. Oder die 7700 XT ist wie die 7900 XT und hat ein schlechtes P/L-Verhältnis.
basix
2023-08-25, 17:13:00
Ausser -4GByte kostet das Ding halt fast gleich viel zu produzieren. Da ist der Einwurf hinsichtlich Margen sehr richtig
dildo4u
2023-08-25, 17:13:58
Der Preisunterschied ist wirklich sehr klein, d.h. die Karten sind eher 7800 XT und 7800. Komische Namensgebung. Oder die 7700 XT ist wie die 7900 XT und hat ein schlechtes P/L-Verhältnis.
Nicht wunderlich die Vorgänger waren nicht der selbe Chip, die 6700XT war massiv kleiner als 6800XT.
Die Lücke von 7600 zu 7700XT ist massiv.
DrFreaK666
2023-08-25, 17:14:05
Lieber zu NV greifen. Dort sind die Preise realistisch :rolleyes:
Wie hoch ist der Preisunterschied nochmal zwischen 4060Ti 16GB und 4070?
ca. 30€
maximus_hertus
2023-08-25, 17:14:20
7700XT also DOA, wie damals die 7900XT.
Was rauchen die da? Klar, warten wir mal die Benchmarks ab, aber das wirkt mal wieder typisch AMD Radeon. Die haben keine Ahnung wie man Launches vernünftig hinbekommt.
Ich hoffe für alle, dass es zu den Launchbenchmarks kein böses Erwachen gibt.
basix
2023-08-25, 17:14:59
Was ist das Problem? Die 7800XT hat dafür ein relativ gutes P/L.
Wenn jemandem die 7700XT nicht passt, dann soll man halt +50$ in die Hand nehmen.
Linmoum
2023-08-25, 17:16:17
Ich halte das definitiv für naheliegend. Die 7700XT "will" man nicht billiger bepreisen, weil man damit Margen aufgeben würde (noch mehr, als das bei dem Preis womöglich sowieso schon der Fall ist) und die 7800XT "kann" man nach oben hin wiederum nicht höher bepreisen, weil man eingesehen hat, dass man dadurch vs. der 4070 größere Probleme bekommen würde.
Und dann kommt halt am Ende sowas raus.
DrFreaK666
2023-08-25, 17:16:41
Die 7900XT wurde auch dann im Preis angepasst
Troyan
2023-08-25, 17:17:07
Was ist das Problem? Die 7800XT hat dafür ein relativ gutes P/L.
Wenn jemandem die 7700XT nicht passt, dann soll man halt +50$ in die Hand nehmen.
Wozu etwas produzieren, was du nicht verkaufen willst?
Der_Korken
2023-08-25, 17:17:09
Ausser -4GByte kostet das Ding halt fast gleich viel zu produzieren. Da ist der Einwurf hinsichtlich Margen sehr richtig
Man spart (im Gegensatz zu früheren Designs) auch einen MCD, also Silizium ein. Außerdem verwertet man die teildefekten N32-Dies und kann auch schlechtere MCDs nutzen, die nur 18Gbps schaffen. Das alles mag zwar kostentechnisch immer noch keinen größere Preisdifferenz rechtfertigen, aber wie hat HWU es bei der 7900XT sinngemäß gesagt: This is what you see, if products are designed by accountants and not by engineers.
Die 499$ sehen im Vergleich zu den 599$ der 4070 ganz OK aus, wobei letztere mittlerweile auch für 599€ zu haben ist. Die 449$ der 7700XT dagegen kommen mir viel zu teuer vor. Ich erwarte, dass die 7800XT 20% schneller als die 7700XT sein wird wegen des stark beschnittenen SIs und IF$.
Edit: Offenbar erwartet das auch AMD: https://pics.computerbase.de/1/0/8/9/8/5-0d636dc7e2045c8e/3-1080.909ed8da.png
dildo4u
2023-08-25, 17:17:14
7700XT also DOA, wie damals die 7900XT.
Was rauchen die da? Klar, warten wir mal die Benchmarks ab, aber das wirkt mal wieder typisch AMD Radeon. Die haben keine Ahnung wie man Launches vernünftig hinbekommt.
Ich hoffe für alle, dass es zu den Launchbenchmarks kein böses Erwachen gibt.
Das liegt ganz alleine an der 4060 TI hätte die 12GB würde sich AMD diese Preise nicht erlauben, die werden gefeiert haben als der Preis fürs 16GB Modell bekannt wurde.
basix
2023-08-25, 17:19:02
Wozu etwas produzieren, was du nicht verkaufen willst?
Dieser Trollversich wird nicht von Erfolg gekrönt sein ;)
Wie gesagt: Die Margen sind für AMD vermutlich vergleichbar. Deswegen kann es AMD egal sein, welche der beiden Karten man kauft. Die Entscheidung liegt beim Kunden. Wenn dir eine von beiden nicht passt: Nimm die andere. Für AMD "Hans wie Heiri"
Troyan
2023-08-25, 17:20:10
Dieser Trollversich wird nicht von Erfolg gekrönt sein ;)
Wie gesagt: Die Margen sind für AMD vermutlich vergleichbar. Deswegen kann es AMD egal sein, welche der beiden Karten man kauft. Die Entscheidung liegt beim Kunden. Wenn dir ein von beiden nicht passt: Nimm die andere. Für AMD "Hans wie Heiri"
Wozu etwas produzieren, was du nichts verkaufen willst?
Was tangieren mich die Margen? Die 7800XT ist deutlich besser für den Aufpreis. Die Ersparnis erkauft man sich durch deutlich weniger "Produkt".
ChaosTM
2023-08-25, 17:22:42
AMD lebt schon seit 20+ Jahren als "Underdog" im GPU Bereich und lebt recht gut damit.
Troyan will scheinbar, dass AMD stirbt und wie dumm das ist, wissen alle außer ihm. ;)
basix
2023-08-25, 17:27:04
Was tangieren mich die Margen? Die 7800XT ist deutlich besser für den Aufpreis. Die Ersparnis erkauft man sich durch deutlich weniger "Produkt".
Ach Gottchen, hoffnungsloser Fall :rolleyes:
+10% Performance für +10% Preis. Einfach noch 4GByte Unterschied beim VRAM.
Falls DIR als Kunden das nicht gefällt, ist das deine Sache. DU bist mündig und kannst selbst Entscheidungen treffen. Und so schlimm ist das für den Kunden nicht. Für AMD stimmts auch.
Sonst hole ich hier die 4060 Ti 8GB/16GB raus und dann wird es für dich nicht mehr lustig werden ;)
Linmoum
2023-08-25, 17:29:05
Ich hab's selbst nicht nachgemessen, aber anhand der Benchmarks von AMD soll die 7800XT laut CB ~22% schneller als die 7700XT sein.
Man kriegt also >=20% mehr Performance für einen nur ~11%/~12.5% ($/€) höheren Preis. Ich mein, den Kunden freut sowas natürlich. Aber diese Preisgestaltung ist doch dann völliger Wahnsinn und nochmal extrem bescheuerter als schon bei der 7900XT(X). :freak: Wtf AMD?
Troyan
2023-08-25, 17:31:16
Die 7800XT hat fast 50% mehr Bandbreite und 4GB mehr Speicher (Ratchet sagt hallo). Die 11% Aufpreis sind daher absolut gerechtfertigt. Das ist das komplett andere Extrem zur 4060TI 16GB, die nur mehr Speicher, aber nicht mehr Bandbreite hat.
amdfanuwe
2023-08-25, 17:45:16
sieht das aktuelle Portfolio dann so aus:
7900XT ab 795€
7800XT ab 549€
6800XT ab 539€
7700XT ab 489€
6800 ab 459€
6750XT ab 397€
6700XT ab 339€
7600 ab 267€
6650XT ab 239€
Da kann der Abverkauf der alten munter weitergehen und zwischen 7600 und 7700XT ist noch viel Platz für eine 7600XT und/oder 7700 wenn die 67x0XT mal auslaufen.
basix
2023-08-25, 18:00:37
Wenn ich AMD wäre, würde ich N22 bis RDNA4 weiterlaufen lassen. P/L und Performance technisch wohl am sinnvollsten, um diese Lücke zu füllen.
amdfanuwe
2023-08-25, 18:09:13
Wenn ich AMD wäre, würde ich
meine hochbezahlten Mathematiker und BWLer damit beauftragen das Szenario mit dem größten Gewinn zu berechnen.
DrFreaK666
2023-08-25, 18:12:33
... Aber diese Preisgestaltung ist doch dann völliger Wahnsinn und nochmal extrem bescheuerter als schon bei der 7900XT(X). :freak: Wtf AMD?
Immerhin hat die schnellere Karte auch mehr Speicher :D
amdfanuwe
2023-08-25, 18:19:17
Aktuell erscheint mir für FHD Gaming immer noch die 6700XT 12GB ab ~340€ mit Starfield am interessantesten.
Oder seh ich das falsch?
dildo4u
2023-08-25, 18:27:43
Aktuell erscheint mir für FHD Gaming immer noch die 6700XT 12GB ab ~340€ mit Starfield am interessantesten.
Oder seh ich das falsch?
Ja kann sein das die noch lange Produziert werden 7600 sind 270€/7700xt 490€ die Lücke ist enorm.
mczak
2023-08-25, 18:29:23
Die 499$ der RX 7800 XT sind IMHO wirklich in Ordnung. Klar ein Quantensprung gegenüber der RX 6800 XT ist das nicht, aber immerhin schon zum Start eine kleine Verbesserung bei P/L. Und auch deutlich günstiger als die RTX 4070.
449$ für die RX 7700 XT hingegen sind gerade im Vergleich mit der RX 7800 XT schon eher hoch angesetzt. Klar wie schon erwähnt wurde mag das für AMD Sinn ergeben weil die Kosten fast gleich hoch sind (und soviele N32 Chips die bloss teildeaktiviert laufen hat man wohl nicht als dass man da wirklich grosse Stückzahlen verkaufen muss). Trotzdem, die RX 6800 kriegt man günstiger, dürfte ähnlich schnell sein und hat mehr Speicher. Da wären dann 399$ wohl doch die bessere Wahl gewesen, die Reviewer werden die wohl so kaum empfehlen. Auch klafft da jetzt (wenn man nur die neuen Karten betrachtet) ein Riesenloch im Lineup zwischen 250$ und 450$ - keine Ahnung ob da noch was kommt (in Form eines weiter abgespeckten N32, N33 kann man ja nicht wirklich weiter heraufprügeln).
ein Riesenloch im Lineup zwischen 250$ und 450$ - keine Ahnung ob da noch was kommt (in Form eines weiter abgespeckten N32, N33 kann man ja nicht wirklich weiter heraufprügeln).
Ich glaube, dieses Loch wird nimmer gestopft werden. Zumindest habe ich keine Hoffnung für Neuprodukte, die nicht wirklich-schlecht-sind.
dildo4u
2023-08-25, 18:31:51
Infos zu HYPR-RX.
https://videocardz.com/newz/amd-to-integrate-fluid-motion-frames-into-hypr-rx-one-click-solution-with-frame-generation-for-all-dx11-12-games
SimonGreen
2023-08-25, 18:32:05
Wenn ich AMD wäre, würde ich halt mal an der Effizienz-Schraube drehen und allgemein mehr Qualität ins Produkt bringen.
7800XT Verbrauch :freak:
Aber gut, so iss halt AMD.
AMD (CPU&GPU) eigentlich früher viele Jahre mein favourite gewesen. :redface:
Aber die vergeigen es jedes Jahr aufs Neue.
Effizienz miserabel
RT zum heulen
Quasi immer einen Schritt hinterher.
OK, Preis und memory kann man sich nicht beschweren.
Von der Gesamt-Qualität her schon immer ein Tick schlechter als NV.
Aber gut.
Den einen Stört die miese Effizienz oder Software nicht, den anderen bringt es auf die Palme.
NV halt auch "Lack gesoffen" teuer. Macht auch kein Spass! Memory auch seit ewigen Zeiten auf Kante genäht um die Spieler bei Kauflaune zu halten.
Kann man eigentlich nur hoffen das Intel mal ne gute GPU auf den Markt bringt um die Konkurrenz etwas zu beflügeln oder auf den Boden der Tatsachen zurückzubringen.
Otto Rehhagel sagte mal:
Ein schlechter Spieler bleibt schlecht. Da hilft keine Pille!
Ich habe fertig! :freak:
Wenn ich AMD wäre, würde ich halt mal an der Effizienz-Schraube drehen und allgemein mehr Qualität ins Produkt bringen.
7800XT Verbrauch :freak:
Aber gut, so iss halt AMD.
AMD (CPU&GPU) eigentlich früher viele Jahre mein favourite gewesen. :redface:
Aber die vergeigen es jedes Jahr aufs Neue.
Effizienz miserabel
RT zum heulen
Quasi immer einen Schritt hinterher.
OK, Preis und memory kann man sich nicht beschweren.
Von der Qualität her schon immer ein Tick schlechter als NV.
Aber gut.
Den einen Stört die miese Effizienz oder Software nicht, den anderen bringt es auf die Palme.
NV halt auch "Lack gesoffen" teuer. Macht auch kein Spass! Memory auch seit ewigen Zeiten auf Kante genäht um die Spieler bei Kauflaune zu halten.
Kann man eigentlich nur hoffen das Intel mal ne gute GPU auf den Markt bringt um die Konkurrenz etwas zu beflügeln oder auf den Boden der Tatsachen zurückzubringen.
Otto Rehhagel sagte mal:
Ein schlechter Spieler bleibt schlecht. Da hilft keine Pille!
Ich habe fertig! :freak:
So lost sieht es imo nicht aus. Eine 7900XT ist derzeit easy für 750 Tacken zu bekommen, welche im Schnitt schneller ist als eine 3090Ti. Die 4070Ti ist und bleibt crab! Ne 7800XT scheint gleichauf mit ner 4070 zu sein, dabei 100USD billiger und mit mehr Vram, nur die 7700XT ist natürlich min. 50USD zu teuer.
BlacKi
2023-08-25, 18:42:36
NV halt auch "Lack gesoffen" teuer. Macht auch kein Spass! Memory auch seit ewigen Zeiten auf Kante genäht um die Spieler bei Kauflaune zu halten.
new normal, wird sich dank AI auch nichtmehr richtig erholen. AI wird nicht crashen, wie crypto.
DrFreaK666
2023-08-25, 18:43:10
Immer diese angeblich miese AMD-Software. Was ist denn genau mies?
basix
2023-08-25, 18:49:01
Wenn ich AMD wäre, würde ich N22 bis RDNA4 weiterlaufen lassen. P/L und Performance technisch wohl am sinnvollsten, um diese Lücke zu füllen.
[...]meine hochbezahlten Mathematiker und BWLer damit beauftragen das Szenario mit dem größten Gewinn zu berechnen.
2x Posts weiter:
Aktuell erscheint mir für FHD Gaming immer noch die 6700XT 12GB ab ~340€ mit Starfield am interessantesten.
Oder seh ich das falsch?
Merkst du was? ;)
SimonGreen
2023-08-25, 18:58:23
Immer diese angeblich miese AMD-Software. Was ist denn genau mies?
AMD FSR
https://www.computerbase.de/2021-06/amd-fidelityfx-super-resolution-fsr-test/
https://www.computerbase.de/2021-07/resident-evil-village-amd-fsr-test/
Verbrauch: (Wenn man nicht mal das gefixt bekommt über ein halbes Jahr :freak:)
https://www.computerbase.de/2023-01/amd-radeon-rx-7900-xtx-adrenalin-22-12-2-test/
https://www.connect-living.de/news/amd-radeon-idle-stromverbrauch-probleme-3205691.html
Auf der anderen Seite kann man natürlich auch verbrannten Nvidias Stromstecker ankreiden.
Im Zweifel greife ich zu Nvidia und ich finde es zum heulen :O
Linmoum
2023-08-25, 19:01:04
AMD FSR
https://www.computerbase.de/2021-06/amd-fidelityfx-super-resolution-fsr-test/
https://www.computerbase.de/2021-07/resident-evil-village-amd-fsr-test/
Das ist aber FSR1 und mittlerweile längst durch FSR2 abgelöst. DLSS1.0 war auch alles andere als das Gelbe vom Ei, das wurde erst mit DLSS2 das, was man sich anfangs erhofft hat.
SimonGreen
2023-08-25, 19:01:06
So lost sieht es imo nicht aus. Eine 7900XT ist derzeit easy für 750 Tacken zu bekommen, welche im Schnitt schneller ist als eine 3090Ti. Die 4070Ti ist und bleibt crab! Ne 7800XT scheint gleichauf mit ner 4070 zu sein, dabei 100USD billiger und mit mehr Vram, nur die 7700XT ist natürlich min. 50USD zu teuer.
Richtig, "lost" sieht es nicht aus, deswegen auch meine Kritik zu NV.
Trotzdem, für mich ist AMD einfach immer nur Zweiter im Gesamtbild und auch das finde ich zum heulen.
GerryB
2023-08-25, 19:02:50
Aktuell erscheint mir für FHD Gaming immer noch die 6700XT 12GB ab ~340€ mit Starfield am interessantesten.
Oder seh ich das falsch?
6750xt@349€ im MS
DrFreaK666
2023-08-25, 19:02:58
Achso. Dachte es geht wieder um Treiberabstürze oder ähnliches.
SimonGreen
2023-08-25, 19:03:12
Das ist aber FSR1 und mittlerweile längst durch FSR2 abgelöst. DLSS1.0 war auch alles andere als das Gelbe vom Ei, das wurde erst mit DLSS2 das, was man sich anfangs erhofft hat.
Ja und FSR3 ewig bei Entwicklung gebraucht.
Auch das fällt bei mir unter "Gesamt-Qualität"
Bei NV kann ich DLSS3 gefühlt schon eine Ewigkeit benutzen.
Es ist ja auch egal.
DrFreaK666
2023-08-25, 19:08:39
Ja und FSR3 ewig bei Entwicklung gebraucht.
Auch das fällt bei mir unter "Gesamt-Qualität"
Bei NV kann ich DLSS3 gefühlt schon eine Ewigkeit benutzen.
Es ist ja auch egal.
DLSS3 wurde bestimmt an einem Tag entwickelt :ugly:
Grendizer
2023-08-25, 19:10:24
AMD nennt seine neue Technologie HypeRX ? Ernsthaft ?
Das ist doch ein schlechter Scherz ? Ist dann da der Name Programm ?
https://www.heise.de/news/AMD-Radeon-RX-7800-XT-und-7700-XT-Mit-viel-Speicher-in-die-Oberklasse-9285778.html
Außerdem soll die Bilderzeugung als Teil von HypeRX, welches Anti-Lag, Radeon Boost und FSR3 vereint, ab dem ersten Quartal 2023 in den Treiber wandern und die Technik für DirectX11- und -12-Spiele generell und ohne speziellen Support der Spiele verfügbar machen.
amdfanuwe
2023-08-25, 19:12:28
Merkst du was? ;)
Ich sag nicht, dass sie die weiterlaufen lassen sollen.
Scheinen halt noch viele 6700XT auf Lager zu liegen, sonst wären eh nur noch ein paar 6750XT im Programm.
Und die 7700XT ist halt so uninteressant eingepreist, dass sie den Abverkauf nicht stört. Da langt man lieber bei den 67x0ern zu oder legt noch was drauf für 7800XT.
Also ich habe mir gerade die Forspoken-Benchmarks von TPU gezogen. Anscheinend sind die kolportierten Werte ausgehend einer 7800XT. 36FPS=-5 FPS einer 7900xt in 4k und damit exakt zwischen einer 3080 und 3090 mit RT wohlgemerkt!
Linmoum
2023-08-25, 19:15:24
AMD nennt seine neue Technologie HypeRX ? Ernsthaft ?
Das ist doch ein schlechter Scherz ? Ist dann da der Name Programm ?
https://www.heise.de/news/AMD-Radeon-RX-7800-XT-und-7700-XT-Mit-viel-Speicher-in-die-Oberklasse-9285778.html
Außerdem soll die Bilderzeugung als Teil von HypeRX, welches Anti-Lag, Radeon Boost und FSR3 vereint, ab dem ersten Quartal 2023 in den Treiber wandern und die Technik für DirectX11- und -12-Spiele generell und ohne speziellen Support der Spiele verfügbar machen.Das ist nicht neu, denn HYPR-RX (nicht HypeRX, wie Heise es falsch nennt) wurde schon letztes Jahr offiziell angekündigt. Sollte auch eigentlich schon spätestens im Juni launchen, ist aber nicht erfolgt. Daraus wird/wurde jetzt halt Q1 2024 statt H1 2023.
ChaosTM
2023-08-25, 19:16:14
RTX - war früher real time raytraycing
HyperRX ist mindestens genauso blöd - die Marketing Abteilungen sind einfach ..
add.: Hirn einschalten und bewerten ;)
GerryB
2023-08-25, 19:21:13
HyperRX ist mindestens genauso blöd - die Marketing Abteilungen sind einfach ..
add.: Hirn einschalten und bewerten ;)
Nee, einfach die Präsi von Scooter machen lassen.(den kennt aber AMD net mehr, wohl Alle zu jung im Marketing)
amdfanuwe
2023-08-25, 19:22:20
6750xt@349€ im MS
Sind noch 27 Stück verfügbar.
Die anderen 6750XT gibts dann ab ~380€.
11% teurer für 5% Mehrleistung zur 6700XT ab 339€.
DrFreaK666
2023-08-25, 19:25:02
Hyper ist schon seit Ewigkeiten ein Teil von Radeon. Sich jetzt darüber lustig zu machen ist einfach lächerlich
https://www.anandtech.com/show/635/4
GerryB
2023-08-25, 19:26:36
Sind noch 27 Stück verfügbar.
Die anderen 6750XT gibts dann ab ~380€.
11% teurer für 5% Mehrleistung zur 6700XT ab 339€.
Da wird schon immer mal Was nachschoben.
Grendizer
2023-08-25, 19:28:39
Hyper ist schon seit Ewigkeiten ein Teil von Radeon. Sich jetzt darüber lustig zu machen ist einfach lächerlich
https://www.anandtech.com/show/635/4
Es hat halt so schön gepaßt, weil die Welt jetzt schon Ewigkeiten auf FSR 3.0 wartet. Mit dem von heise.de fehlerhaft genannten HypeRX hätte man schon eine ziemliche Steilvorlage geliefert. Aber das hat sich ja geklärt.
Ich würde abwarten. Wenn FSR3 N3x exklusiv ist, dann währe so ein Kauf ein kompletter Fail!
amdfanuwe
2023-08-25, 19:34:59
Da wird schon immer mal Was nachschoben.
Natürlich, die wollen die ja loswerden. Mal sehen, wann die 6700XT unter 300 rutscht.
Bin leider schon eingedeckt, konnte bei 439€ im MS letztes Jahr für die 6700XT nicht wiederstehen, die RX 480 wollte in Rente.
Linmoum
2023-08-25, 19:36:53
Ich würde abwarten. Wenn FSR3 N3x exklusiv ist, dann währe so ein Kauf ein kompletter Fail!FSR3 ist nicht RDNA3-exklusiv. Was aber RDNA3-exklusiv ist, ist Anti-Lag+, was nach einem (in welcher Form auch immer, viel mehr als "reduziert weiter die Latenz" gibt es von AMD ja noch nicht) Gegenstück zu Reflex ausschaut. In dem Fall kann man den Support auf anderen GPUs dann tatsächlich im Prinzip in die Tonne kloppen, außer man steht auf Latenzen des Todes.
dildo4u
2023-08-25, 19:37:03
Ich würde abwarten. Wenn FSR3 N3x exklusiv ist, dann währe so ein Kauf ein kompletter Fail!
Soll optimal mit RDNA1 oder Neuer laufen.
https://www.computerbase.de/2023-08/amd-fsr-3-frame-generation-laeuft-offiziell-ab-rx-5000-und-rtx-2000
DrFreaK666
2023-08-25, 19:51:40
FSR3 ist nicht RDNA3-exklusiv. Was aber RDNA3-exklusiv ist, ist Anti-Lag+, was nach einem (in welcher Form auch immer, viel mehr als "reduziert weiter die Latenz" gibt es von AMD ja noch nicht) Gegenstück zu Reflex ausschaut. In dem Fall kann man den Support auf anderen GPUs dann tatsächlich im Prinzip in die Tonne kloppen, außer man steht auf Latenzen des Todes.
Was du immer so alles weißt... :rolleyes:
AMD also says that FSR 3 includes further latency reduction technologies
Linmoum
2023-08-25, 20:08:23
Dass Anti-Lag+ nur mit RDNA3 funktioniert, ist ein von AMD selbst bereitgestellter Fakt.
Wenn es schon ach so tolle Verbesserungen gibt, braucht man dieses Feature doch gar nicht exklusiv für RDNA3.
horn 12
2023-08-25, 20:08:35
Funkt bei euch der AMD MBA 7900 XT Gutscheincode ?
Bei mir nicht.
TheAntitheist
2023-08-25, 20:12:12
Dass Anti-Lag+ nur mit RDNA3 funktioniert, ist ein von AMD selbst bereitgestellter Fakt.
Wenn es schon ach so tolle Verbesserungen gibt, braucht man dieses Feature doch gar nicht exklusiv für RDNA3.
Du hast schon Recht, die Fanboys juckt das nicht, auch wenn sie es Schwarz auf Weiß haben ;D
DrFreaK666
2023-08-25, 20:20:17
Dass Anti-Lag+ nur mit RDNA3 funktioniert, ist ein von AMD selbst bereitgestellter Fakt.
Wenn es schon ach so tolle Verbesserungen gibt, braucht man dieses Feature doch gar nicht exklusiv für RDNA3.
Ja, Anti-Lag+ funktioniert nur mit RDNA3, aber wie auf vielen Seiten zu lesen ist, hat FSR3 selbst anti-lag integriert (latency reduction technologies).
Deine "Latenzen des Todes" hast woher?
So wirklich funktionieren wird FSR3 eh nur mit N3x! Mit N3x soll eine Performance x3 möglich sein, ohne x1.25 und hier ist es CPU-Bound. Easy zu lesen auf Twitter.
dildo4u
2023-08-25, 20:46:49
Was Blödsinn ist weil es RDNA2 GPU gibt die schneller sind als z.b die 7600 egal wie man es dreht.
Die Qualität wird Nvidia nicht übersteigen daher wirbt man mit Kompatibilität.
prinz_valium_2
2023-08-25, 21:06:37
AMD ist wirklich nicht mehr zu helfen.
$50 unterschied zwischen der 7700XT und 7800XT
Wer kauft denn da die 7700XT
Naja immerhin die 6950 für 599€ ist ein ganz gute Karte mitterlweile.
Der_Korken
2023-08-25, 21:10:02
Sehe ich das richtig, dass es Reviews am 6. September geben wird, weil da Launch ist?
SimonGreen
2023-08-25, 21:20:36
DLSS3 wurde bestimmt an einem Tag entwickelt :ugly:
Jo, man konnte DLSS3 halt wesentlich früher nutzen.
Scheißegal wie lang die Entwicklung gebraucht hat.
Nvidia ist mit DLSS3 seit langem am Start und AMD mit FSR3 bis heute eben immer noch nicht.
Das mal zum Thema "Gesamt-Qualität"
Am Ende ist das eine Geld/Ressourcen/Management Entscheidungen und diese ist bei AMD eben (leider) zweitklassig.
BlacKi
2023-08-25, 21:21:43
AMD ist wirklich nicht mehr zu helfen.
$50 unterschied zwischen der 7700XT und 7800XT
Wer kauft denn da die 7700XT
amd liebt es wenn ein plan funktioniert.
prinz_valium_2
2023-08-25, 21:35:21
amd liebt es wenn ein plan funktioniert.
Bei Nvidia musst du $100 mehr zahlen für nur (doppelten und in der Leistungsklasse nutzenlosen) RAM
Bei AMD sparst du lediglich $50 bei dem Salvage mit weniger Ram, der in der Leistungsklasse durchaus einen Unterschied machen kann.
Die machen das doch mit Absicht.
$379 für die 7700XT und $449 für die 7800XT und alle würden jubeln, selbst ohne Benchmarks. Dafür Preise länger hoch halten. Dazu teurer AIB Modelle.
Aber die Wahrnehmung wäre so eine andere.
Ich verstehe diese GPU Hersteller nicht. Klar Nvidia scheffelt Milliarden mit AI Karten, wo Geld keinerlei Rolle spielt, aber hier. AMD schafft es bei den CPUs doch auch für Konsumenten sofort sinnvolle Preise anzubieten, wo jede SKU seine Daseinsberechtigung hat.
Aber genug Aufgeregt. Kaufe ich jetzt halt ne 6950 für Starfield. Code verkaufen, dann ist man bei knapp über 500€. Eigentlich immer noch zu viel für so alte Hardware. Aber besser als alles andere. Auf die nächste Generation warten, wird ja bei AMD mindestens ein Jahr und bei Nvidia 2 Jahre dauern.
basix
2023-08-25, 21:40:35
Am Ende ist das eine Geld/Ressourcen/Management Entscheidungen und diese ist bei AMD eben (leider) zweitklassig.
Weniger Ressourcen und Geld = Zweitklassigkeit.
Da fällt mir nur folgendes ein ;D
https://i0.wp.com/www.comicschau.de/wp-content/uploads/2021/08/aus-dem-weg-geringverdiener1.jpg?resize=1024%2C500&ssl=1
BlacKi
2023-08-25, 21:40:41
man macht höherpreisige karten damit attraktiver. kurz: potentielle kunden greifen nun eher zur 7800xt statt 7700xt. die kunden geben also mehr geld aus. dass ist das ziel.
basix
2023-08-25, 21:41:54
man macht höherpreisige karten damit attraktiver. kurz: potentielle kunden greifen nun eher zur 7800xt statt 7700xt. die kunden geben also mehr geld aus. dass ist das ziel.
Klassisches Upselling ;)
TheGood
2023-08-25, 21:50:49
AMD ist wirklich nicht mehr zu helfen.
$50 unterschied zwischen der 7700XT und 7800XT
Wer kauft denn da die 7700XT
Naja immerhin die 6950 für 599€ ist ein ganz gute Karte mittlerweile.
All die Nvidia Jünger die sich ne 4060 16 GB kaufen :D
TheGood
2023-08-25, 21:51:37
Jo, man konnte DLSS3 halt wesentlich früher nutzen.
Scheißegal wie lang die Entwicklung gebraucht hat.
Nvidia ist mit DLSS3 seit langem am Start und AMD mit FSR3 bis heute eben immer noch nicht.
Das mal zum Thema "Gesamt-Qualität"
Am Ende ist das eine Geld/Ressourcen/Management Entscheidungen und diese ist bei AMD eben (leider) zweitklassig.
Vor allem betrifft das nichtmal auf 1 % der Spiele dies es gibt. Toller nutzen ;)
TheGood
2023-08-25, 21:52:53
Danke an Leo für die objektive Einschätzung der Dinge auf der Homepage.
Am ende kommt es fast wie erwartet.
TheGood
2023-08-25, 21:56:54
Wenn ich AMD wäre, würde ich halt mal an der Effizienz-Schraube drehen und allgemein mehr Qualität ins Produkt bringen.
7800XT Verbrauch :freak:
Aber gut, so iss halt AMD.
AMD (CPU&GPU) eigentlich früher viele Jahre mein favourite gewesen. :redface:
Aber die vergeigen es jedes Jahr aufs Neue.
Effizienz miserabel
RT zum heulen
Quasi immer einen Schritt hinterher.
OK, Preis und memory kann man sich nicht beschweren.
Von der Gesamt-Qualität her schon immer ein Tick schlechter als NV.
Aber gut.
Den einen Stört die miese Effizienz oder Software nicht, den anderen bringt es auf die Palme.
NV halt auch "Lack gesoffen" teuer. Macht auch kein Spass! Memory auch seit ewigen Zeiten auf Kante genäht um die Spieler bei Kauflaune zu halten.
Kann man eigentlich nur hoffen das Intel mal ne gute GPU auf den Markt bringt um die Konkurrenz etwas zu beflügeln oder auf den Boden der Tatsachen zurückzubringen.
Otto Rehhagel sagte mal:
Ein schlechter Spieler bleibt schlecht. Da hilft keine Pille!
Ich habe fertig! :freak:
https://www.computerbase.de/2021-09/grafikkarten-tests-leistungsaufnahme/2/#abschnitt_leistungsaufnahme_beim_spielen_mit_und_ohne_fpslimiter
hier mal ein Teillasttest der Last generation. AMD ist hier um Welten besser als NVIDIA, aber damals hat KEINe SAU einen Fuzz draus gemacht. In dieser Generation ist es umgekehrt und auf einmal hat es jedes Magazin auf dem Kieker... das war schon echt spannend.
Also hört doch endlich mal mit dem Verbrauchsgelaber auf, nur weils grad in den Kram passt....
amdfanuwe
2023-08-25, 22:12:33
Kaufe ich jetzt halt ne 6950 für Starfield.
Damit handelst du genau in AMDs Interesse; erstmal das alte abverkaufen bevor die neuen attraktive Preise (sofern nötig) bekommen.
prinz_valium_2
2023-08-25, 22:21:08
Damit handelst du genau in AMDs Interesse; erstmal das alte abverkaufen bevor die neuen attraktive Preise (sofern nötig) bekommen.
1070 ist halt wirklich schwach und auf Konsole will ich nicht spielen.
Bis die 7800XT bei 399€ wird es aber noch sehr sehr lange dauern.
So what.
Gebrauchte 3080 kosten auch noch alle über 400€ und sind deutlich langsamer als ne 6950. Was bleibt da noch?
Die 6700XT ist nicht so stark. Ne 3070Ti hat nur 8GB.
Pest oder Malaria.
SimonGreen
2023-08-25, 22:27:30
https://www.computerbase.de/2021-09/grafikkarten-tests-leistungsaufnahme/2/#abschnitt_leistungsaufnahme_beim_spielen_mit_und_ohne_fpslimiter
hier mal ein Teillasttest der Last generation. AMD ist hier um Welten besser als NVIDIA, aber damals hat KEINe SAU einen Fuzz draus gemacht. In dieser Generation ist es umgekehrt und auf einmal hat es jedes Magazin auf dem Kieker... das war schon echt spannend.
Also hört doch endlich mal mit dem Verbrauchsgelaber auf, nur weils grad in den Kram passt....
Ja, da hat AMD vielleicht ein Duell der letzten 10 Generationen für sich entschieden, ach wie toll!
Entschieden wird heute und da sieht AMD kein Land m.M.n.
Ich möchte AMD um Gottes willen nicht verteufeln, aber die sind halt Zweitklassig.
BlacKi
2023-08-25, 22:30:32
1070 ist halt wirklich schwach und auf Konsole will ich nicht spielen.
Bis die 7800XT bei 399€ wird es aber noch sehr sehr lange dauern.
So what.
Gebrauchte 3080 kosten auch noch alle über 400€ und sind deutlich langsamer als ne 6950. Was bleibt da noch?
Die 6700XT ist nicht so stark. Ne 3070Ti hat nur 8GB.
Pest oder Malaria.wenn du bereit bist gebraucht zu kaufen, was stört dich an der rx 6800? das geht auch unter 400€, neu nur ca 100€ mehr für 459€
prinz_valium_2
2023-08-25, 22:46:01
wenn du bereit bist gebraucht zu kaufen, was stört dich an der rx 6800? das geht auch unter 400€, neu nur ca 100€ mehr für 459€
Wenn, dann sollte es schon eine 6800XT sein. Starfield mit dabei
Also muss es auch ein teilnehmender Händler sein.
Die Karten sind aber leider rar irgendwie. Dann sind wir Leistungstechnisch auch schon wieder bei der 7700XT. Alles irgendwie unbefriedigend.
Die 6950 für 500€ inklusive Starfield wäre mein Traum. Aber das wird nix mehr.
DrFreaK666
2023-08-25, 22:48:46
Die 6950 ist ca. 14% schneller. Welche CPU hast?
BlacKi
2023-08-25, 22:59:33
Wenn, dann sollte es schon eine 6800XT sein. Starfield mit dabei
Also muss es auch ein teilnehmender Händler sein.
Die Karten sind aber leider rar irgendwie. Dann sind wir Leistungstechnisch auch schon wieder bei der 7700XT. Alles irgendwie unbefriedigend.
Die 6950 für 500€ inklusive Starfield wäre mein Traum. Aber das wird nix mehr.die 6800 hat halt viele reserven. du bekommst halt aus einer 6800 mehr durch selbst optimierung raus aus, als mit einer 6800xt oder gar darüber. gerade die 6950 halte ich für komplett überbewertet. und starfield wirds bald für 30 € geben
prinz_valium_2
2023-08-25, 23:27:57
die 6800 hat halt viele reserven. du bekommst halt aus einer 6800 mehr durch selbst optimierung raus aus, als mit einer 6800xt oder gar darüber. gerade die 6950 halte ich für komplett überbewertet. und starfield wirds bald für 30 € geben
Bald. Ja, zu Weihnachten.
Aber jetzt bekommt man noch 70€ für nen Premium Key ;)
Die 6950 ist ca. 14% schneller. Welche CPU hast?
Als 6800XT meinst du!? JA
Als 6800 sind es doch eher 35%
5600 ist meine CPU
dargo
2023-08-26, 03:48:43
7800XT = 499$
7700XT = 449$
Ui... sogar günstiger positioniert als ich gedacht habe, not bad. Aber die nur 50$ Differenz zur RX 7700XT sehen wieder ziemlich unattraktiv aus. Mal sehen wie die Straßenpreise langfristig ausschauen. Bei der 7900XT vs. 7900XTX gibts ja mittlerweile auch >150€ Preisdifferenz obwohl die offizielle UVP-Differenz nur 100$ beträgt.
BlacKi
2023-08-26, 03:58:23
Ui... sogar günstiger positioniert als ich gedacht habe, not bad.an was hast du denn gedacht? teurer als die 6800xt obwohl sie beide praktisch gleich schnell sind? selbst die 25euro günstiger sind praktisch nichts. die 25€ billiger ist das mindeste was sie bieten mussten nach 2 jahren selber performance, ohne price dumping zu betreiben.
dargo
2023-08-26, 04:08:00
Wozu etwas produzieren, was du nicht verkaufen willst?
Troyans Logik wieder. :facepalm:
Du meinst also die ganzen N32 GCDs die die Spezifikation für eine RX 7800XT nicht schaffen soll AMD einfach auf den Müll schmeißen? Warum macht das Nvidia mit der RTX 4090 einfach nicht anstatt diesen Salvage für teures Geld zu verkaufen? Auch muss man hier die tatsächlichen Straßenpreise abwarten, siehe RX 7900XT aktuell. Natürlich nicht direkt nach dem Release sondern einige Monate später. Mich würde es nicht überraschen wenn die RX 7700XT in ca. einem halben Jahr <400€ in DE kostet.
an was hast du denn gedacht?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13379716&postcount=10996
Die RX 7700XT hätte AMD aber ruhig mal offiziell bei 419-429$ ansetzen können ausgehend von den nun offiziellen 499$ für die RX 7800XT. Würde imo einen besseren Eindruck hinterlassen. Auf der anderen Seite denke ich mir die 449$ der RX 7700XT sind mit Absicht etwas unattraktiver von AMD gesetzt damit der Ansturm darauf zumindest in den ersten Monaten nicht zu hoch ausfällt. Man darf dabei nicht vergessen, dass für diesen Preis ganze 200mm² an 5nm Diesize drauf gehen (und da fehlt noch einiges an Material bis so eine Grafikkarte vollständig ist). Dafür wirst du grob drei 5 nm Chiplets bei einer CPU los. Einfach mal nachrechnen was da unterm Strich für AMD lukrativer ist. Bei einer 449$ Grafikkarte reden wir schon eher von einem Massenprodukt was Stückzahlen angeht. Wenn hier die Nachfrage zu hoch ausfällt ist das nicht gerade von Vorteil für AMD bei begrenzten Waferbudget. Hinzu kommt noch, dass niemand weiß wie voll die Lager noch mit N21 sind.
Edit:
Mal was anderes...
RX 7900XTX = 96 CUs bei max. 2500Mhz Boostclock + 384Bit SI = 355W
RX 7800XT = 60 CUs bei max. 2430Mhz Boostclock + 256Bit SI = 265W
Obwohl N31 60% mehr CUs hat braucht der nur 34% mehr Saft. Ich denke, dass die Shader für den hohen Durst bei RDNA3 verantwortlich sind können wir somit endgültig begraben. Die Ursache muss definitiv wo anders liegen.
amdfanuwe
2023-08-26, 05:17:58
Hinzu kommt noch, dass niemand weiß wie voll die Lager noch mit N21 sind.
Du meinst wohl N22. Das Angebot an N21 GPUs, 6800 bis 6950, ist schon ziemlich zurückgegangen. An N22 in 6700 und 6750 gibt es noch eine gute Auswahl.
Bei einer günstigeren 7700 hätte man die 67x0 im Preis senken müssen um die noch loszuwerden.
dargo
2023-08-26, 05:57:48
Du meinst wohl N22.
Nein.... N21. Denn dieser konkurriert aktuell bei den Straßenpreisen mit dem kommenden N32. N21 Salvage gibt es in regelmäßigen Abständen ab 449€ in DE.
Regulär aktuell 459€ für RX 6800.
https://www.mindfactory.de/product_info.php/16GB-XFX-Radeon-RX-6800-SWFT-319-Core-Gaming-Aktiv-PCIe-4-0-x16--Retail_1420512.html
Oder 525€ für eine RX 6800XT.
https://www.mindfactory.de/DAMN
amdfanuwe
2023-08-26, 06:37:13
Wie gesagt, die Auswahl ist da schon ziemlich geschrumpft. Ich denke auch, AMD hätte den Release noch weiter hinausgezögert wenn noch viele N21 auf Lager wären.
Mal sehen, wie das Angebot an N21 am 6. September aussieht.
dargo
2023-08-26, 07:07:08
Es ist völlig egal ob die Auswahl geschrumpft ist oder nicht solange man N21 zu attraktiven Straßenpreisen kaufen kann. Ist N21 bei Tag X überhaupt nicht mehr zu guten Preisen zu bekommen wird neu bewertet.
dildo4u
2023-08-26, 07:55:41
Bin gespannt ob 7700XT die 6800 erreicht vielleicht ist es Klüger die 16GB Karte zu nehmen.
6800 könnte sogar sparsamer sein? Auf der AMD Seite steht 650 Netzteil für 6800, 700 für 7700XT.
Laut dem könnte die 4060 TI 16 im Preis sinken als 7700 Gegner.
https://youtu.be/R0x0DwdSXcE?si=qIKsA3vwt60bQM0Y&t=1011
RDNA3 bekommt schon ein exklusives Feature mit Anti Lag+, was wenn das noch weiter geht? RT Boost ist ja jetzt schon bekannt, was wenns später auch noch eine Art AI FSR gibt? Dann möchte man glaub ich doch lieber RDNA3 haben...
GerryB
2023-08-26, 08:43:12
Boost ist der größte Blödsinn überhaupt = dynamische Resi, braucht kaum Jemand mit ner ordentlichen Graka.
(typisches Notebook-Feature)
Lieber soll AMD die HyperX-Schalter voneinander trennen und Einzeln verfügbar machen.
dildo4u
2023-08-26, 08:43:30
Ich vermute die 16GB haben länger Luft die 7700XT ist eh zu teuer aber wie MILD im Video sagt die hat mehr 5 nm Silicon als 4060 TI daher der horrende Preis.
The_Invisible
2023-08-26, 08:44:39
Jap würde da auch 2 mal überlegen noch eine rdna2 Karte zuzulegen...
basix
2023-08-26, 08:45:45
Ui... sogar günstiger positioniert als ich gedacht habe, not bad. Aber die nur 50$ Differenz zur RX 7700XT sehen wieder ziemlich unattraktiv aus. Mal sehen wie die Straßenpreise langfristig ausschauen. Bei der 7900XT vs. 7900XTX gibts ja mittlerweile auch >150€ Preisdifferenz obwohl die offizielle UVP-Differenz nur 100$ beträgt.
Ja, die 7800XT hätte ich eher für 549$ erwartet und die 7700XT da wo sie jetzt ist mit 449$. Irgendwie lustig das ganze: Anstatt sich über das besser als erwartete P/L der 7800XT zu freuen, motzen viele über die nur 50$ Preisdifferenz der 7700XT. Naja, Glas halb leer oder halb voll und so ;)
RT Boost ist ja jetzt schon bekannt [...]
Dazu wurde aber nirgends irgendwas gesagt, oder?
Boost ist der größte Blödsinn überhaupt = dynamische Resi, braucht kaum Jemand mit ner ordentlichen Graka.
(typisches Notebook-Feature)
Lieber soll AMD die HyperX-Schalter voneinander trennen und Einzeln verfügbar machen.
Sind doch Einzelfeatures, kannst du doch nutzen wie du willst. HyprRX ist doch nur das bescheuerte Priofil, das man eh nicht nutzt.
basix
Der UI-Leak nahm schon Anti Lag+ vorweg, war also echt.
DrFreaK666
2023-08-26, 09:14:33
...Dazu wurde aber nirgends irgendwas gesagt, oder?
Nein, weil Gerüchte manchmal auch nur Gerüchte sind
GerryB
2023-08-26, 09:40:08
Sind doch Einzelfeatures, kannst du doch nutzen wie du willst. HyprRX ist doch nur das bescheuerte Priofil, das man eh nicht nutzt.
Leider war bisher noch Nichts von nem einzelnen Schalter für FMF zu hören, den man dann einfach zusammen mit FSR2 nutzen könnte.
Ob ich nun mit RSR anfangen würde, eher net, weil bisher keine so gute Qualität.
Falls RSR dann NEU deutlich besser ausschaut als FSR1, may be nen Versuch wert.(als nativResi+FMF)
Das sind alles einzelne Schalter im Treiber, auch FHF, wenn das mal verfügbar ist (wieder nur für RDNA3, KI-Support nötig?). Du kannst Boost, AntiLag und AntiLag+ einzeln aktivieren. Das AA muss vom Spiel unterstützt werden, braucht halt ne neuere FSR2-Version.
HyprRX ist einfach ein stinknormales Profil wie jetzt "Standard" "eSports" oder "Energiesparen".
Übrigens sind die nicht im professionellen Treiberpanel drin, weder FHF noch Boost, für Radeon Pro werden diese Features nicht gebraucht.
GerryB
2023-08-26, 10:10:18
FluidMotionFrames fehlt in Deiner Aufzählung, wäre mir am Wichtigsten
Hast Du auf der Gamescon unter Graphics reinschauen können?
FHF kommt ja erst im Laufe des Herbstes, nicht sofort.
DrFreaK666
2023-08-26, 10:21:00
Hypr-RX kommt im September, FSR3 Anfang Herbst und Fluid Motion Frames für Hypr-RX kommen im 1.Quartal
Complicated
2023-08-26, 10:23:01
Irgendwie lustig das ganze: Anstatt sich über das besser als erwartete P/L der 7800XT zu freuen, motzen viele über die nur 50$ Preisdifferenz der 7700XT.
Darauf versuche ich mir auch die ganze Zeit einen Reim zu machen. :freak:
also 550€ finde ich jetzt nicht unbedingt besser als erwartet...erwartet habe ich 500€.
Gut wären 450€ 7800XT 350€ 7700XT 200€ 7600
basix
2023-08-26, 10:33:30
Der UI-Leak nahm schon Anti Lag+ vorweg, war also echt.
Hast du einen Link dazu? Ist an mir vorbeigegangen.
Nein, weil Gerüchte manchmal auch nur Gerüchte sind
Si, claro ;)
Leider war bisher noch Nichts von nem einzelnen Schalter für FMF zu hören, den man dann einfach zusammen mit FSR2 nutzen könnte.
Ob ich nun mit RSR anfangen würde, eher net, weil bisher keine so gute Qualität.
Falls RSR dann NEU deutlich besser ausschaut als FSR1, may be nen Versuch wert.(als nativResi+FMF)
FSR2 + FMF ist garantiert nicht mit RSR oder Hypr-RX gekoppelt. FSR2 & FMF verlangen nach Spieleintegration. Hypr-RX nicht, das ist ein Treiberfeature.
Edit:
Kleine Korrektur. FMF ist auch ein Treiberfeature, aber nur wenn kein FSR3 integriert ist. Hypr-RX ist eine 1-Klick Lösung für alle Features (RSR, Radeon Boost, AntiLag, FMF) --> ergo für den DAU. Diese Features sind aber allesamt einzeln konfigurierbar
also 550€ finde ich jetzt nicht unbedingt besser als erwartet...erwartet habe ich 500€.
Gut wären 450€ 7800XT 350€ 7700XT 200€ 7600
Anhand der erwarteten Performance leicht überhalb der 4070 aber etwas schlechteren Features (DLSS, RT-Performance) und dafür 16GByte anstatt 12GByte konnte man einen Preis leicht unterhalb der 4070 erwarten. Der liegt bei 599$ MSRP. Deswegen war eine MSRP der 7800XT von 549...599$ für mich am naheliegensten. 499$ unterbietet das nun um ein gutes Stück.
Tiefere Preise wären immer gut, doch AMD ist auch nur eine Firma, die Geld verdienen will und sich dementsprechend den Marktgegebenheiten anpasst.
Linmoum
2023-08-26, 10:37:56
Hast du einen Link dazu? Ist an mir vorbeigegangen.Hatte aufkrawall hier gepostet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13376035#post13376035
Es ist also kein Gerücht, aber auch (noch) nicht klar, was das überhaupt genau bewirkt (und ob das auch jemals im klassischen Consumer-Treiber kommt?).
DrFreaK666
2023-08-26, 10:41:01
Hatte aufkrawall hier gepostet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13376035#post13376035
Es ist also kein Gerücht, aber auch (noch) nicht klar, was das überhaupt genau bewirkt (und ob das auch jemals im klassischen Consumer-Treiber kommt?).
Achso, darum gings. Total vergessen. :uponder:
FSR2 + FMF ist garantiert nicht mit RSR oder Hypr-RX gekoppelt. FSR2 & FMF verlangen nach Spieleintegration. Hypr-RX nicht, das ist ein Treiberfeature.
Edit:
Kleine Korrektur. FMF ist auch ein Treiberfeature, aber nur wenn kein FSR3 integriert ist. Hypr-RX ist eine 1-Klick Lösung für alle Features (RSR, Radeon Boost, AntiLag, FMF) --> ergo für den DAU. Diese Features sind aber allesamt einzeln konfigurierbar
Also das Hyper-RX soll es wohl nur für RDNA3 geben aber FSR3 und RSR + Framegenerierung für alle RDNA
Gibts bei FSR3 eigentlich noch weitere Änderungen als das es nur ein FSR2 + Frameinterpolation ist?
Was ist jetzt der genaue Vorteil von Hyper-RX? Ich kann mir nicht vorstellen das man eine neues Feature erschafft dessen Inhalt es ist 3 Köpfe im Treiber zu drücken.
Anhand der erwarteten Performance leicht überhalb der 4070 aber etwas schlechteren Features (DLSS, RT-Performance) und dafür 16GByte anstatt 12GByte konnte man einen Preis leicht unterhalb der 4070 erwarten. Der liegt bei 599$ MSRP. Deswegen war eine MSRP der 7800XT von 549...599$ für mich am naheliegensten. 499$ unterbietet das nun um ein gutes Stück.
Also moment du sagst Performance leicht überhalb der 4070 und zählst die RT Performance nicht als Performance? Das ist seltsam....
Eigentlich muss es heißen Performance durchwachsen. Mal leicht schneller als eine 4070 mal deutlich langsamer. Kein DLSS aber ggf. irgendwann ein "Hyper-RTX" (was auch immer das sein soll). Deutlich ineffizienter wie eine 4070 aber dafür 4GB mehr VRam.
Bei einem preislichen "leicht drunter" spricht das eher für eine 4070.
Wenn die 4060Ti mit 16GB noch ein deutliches Stück fällt wäre die sogar ein besseres Gesamtpaket.
basix
2023-08-26, 11:04:01
Hatte aufkrawall hier gepostet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13376035#post13376035
Es ist also kein Gerücht, aber auch (noch) nicht klar, was das überhaupt genau bewirkt (und ob das auch jemals im klassischen Consumer-Treiber kommt?).
Ah danke.
Ich kann mir vorstellen, das AMD irgendwas an den Beschleunigerstrukturen rumfummelt (weniger Overhead für BVH Traversal) und zusätzlich den Ray-Count irgendwie adaptiert (also reduziert). Hier kommen mir folgende Sachen in den Sinn:
https://gpuopen.com/radeon-raytracing-analyzer/ --> https://gpuopen.com/learn/improving-rt-perf-with-rra/ --> BVH Optimierungen
https://gpuopen.com/download/publications/Efficient_Spatial_Resampling_Using_the_PDF_Similarity.pdf --> --> gleiche oder bessere Qualität mit weniger Rays. Läuft wohl nur auf RDNA3 wirklich top, da im Paper via WMMA implementiert
https://gpuopen.com/download/publications/HPG2023_NeuralIntersectionFunction.pdf --> DNN basiere Intersection, das greift aber wahrscheinlich zu tief in die Engine ein
Man verschiesst für gewisse Effekte wie GI weniger Rays, da oftmals mit weniger Rays grossflächig ein ähnliches Resultat erzielt werden kann. Sobald Geometrie aber engmaschig wird, funktioniert das weniger gut. Ich denke da an so eine Art Variable Rate Shading, einfach für RT.
prinz_valium_2
2023-08-26, 11:05:56
also 550€ finde ich jetzt nicht unbedingt besser als erwartet...erwartet habe ich 500€.
Gut wären 450€ 7800XT 350€ 7700XT 200€ 7600
$449 7800XT, $379 7700XT, $219 7600
499€ 7800XT, 399€ 7700XT, 229€ 7600
Wir wollen ja nicht gierig und unrealistisch sein.
Aber das wäre locker dring gewesen und in die Richtung werden sich die Preise eh bewegen.
BlacKi
2023-08-26, 11:07:42
Was ist jetzt der genaue Vorteil von Hyper-RX? Ich kann mir nicht vorstellen das man eine neues Feature erschafft dessen Inhalt es ist 3 Köpfe im Treiber zu drücken.
doch, im prinzip ist es eine global feature management funktion, wohl aber mit mehr als 3 knöpfen. zumindest FMF kommt da wohl noch rein.
Der Supply ist offenbar so krass hoch bei den N32, dass wir ruck zuck bei 500€ und knapp über 400€ sind.
Odal
Offenbar ist der FSR3-Treiberanteil schon latenzoptimiert, Anti-Lag kommt zusätzlich dazu, zumindest hat AMD das ggü. HUB so erklärt.
Ich kann mich da auch täuschen, aber ich gehe fest jede Wette ein, dass für RDNA3 zum Jahreswechsel oder danach noch ein aktivierbares AI-Feature für FSR dazukommt, um die Bildqualität zu verbessern. Bisher ist nichts bekannt, es wäre auch dämlich sowas zu teasern, wenn man noch RDNA2 verkauft (genau wie den RT-Boost). Aber mal sehen... Ich wette dass das möglich ist und AMD braucht sowas so oder so und kommt da nicht drum herum.
basix
2023-08-26, 11:08:59
Also moment du sagst Performance leicht überhalb der 4070 und zählst die RT Performance nicht als Performance? Das ist seltsam....
Eigentlich muss es heißen Performance durchwachsen. Mal leicht schneller als eine 4070 mal deutlich langsamer. Kein DLSS aber ggf. irgendwann ein "Hyper-RTX" (was auch immer das sein soll). Deutlich ineffizienter wie eine 4070 aber dafür 4GB mehr VRam.
Bei einem preislichen "leicht drunter" spricht das eher für eine 4070.
Wenn die 4060Ti mit 16GB noch ein deutliches Stück fällt wäre die sogar ein besseres Gesamtpaket.
OK, "Grundperformance" ist leicht überhalb. Wenn sie überall schneller wäre, wäre sie ja wohl auch teurer als die 4070 ;) Es gibt viele Spiele ohne RT oder wo sich RT nicht wirklich lohnt. Oder die RT Performance von RDNA2/3 ganz gut ist. Im CB-Performance Index liegen zwischen Rasterizer und RT Index gerade mal 10%, wenn man RDNA3 und Lovelace vergleicht. Wenn man bei Rasterizing als 10% schneller ist, liegt man bei RT im Schnitt gleichauf. Gibt schon ein paar Spiele, wo RT auf AMD Karten wirklich viel langsamer läuft. Bei vielen ist es aber nicht der Rede wert, dann ist man halt 10% langsamer. Dann passt der geringere Preis aber dann wieder und insgesamt ist das P/L immer noch besser ;)
dildo4u
2023-08-26, 11:23:40
also 550€ finde ich jetzt nicht unbedingt besser als erwartet...erwartet habe ich 500€.
Gut wären 450€ 7800XT 350€ 7700XT 200€ 7600
Die EU Preise halten nicht die 7600 hatte 300€ als Empfehlung.
267€ inklusive Steuer
https://www.mindfactory.de/product_info.php/8GB-Sapphire-Radeon-RX-7600-Gaming-Pulse-Aktiv-PCIe-4-0-x16--x8-Retail-_1492363.html
270$ ohne Steuer
https://www.newegg.com/sapphire-radeon-rx-7600-11324-01-20g/p/N82E16814202432
Nicht unterschätzen wie grottig neue Games auf alter Hardware laufen Starfield Konsole ist auf 30fps gelockt wer weiß welche Hardware man für 60fps braucht, die Nachfrage nach neuen GPUs wird da sein.
Erste UE5 Games sind da 400€ GPU brauchen Upsampling für 1080p 60fps wird lustig.
https://www.techpowerup.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/5.html
doch, im prinzip ist es eine global feature management funktion, wohl aber mit mehr als 3 knöpfen. zumindest FMF kommt da wohl noch rein.
na vielleicht schaltet die ja wenigstens ein paar Sachen adaptiv an und aus. (vielleicht je nach game und Performance)
Ist die Frameinterpolation (z.B. bei DLSS3) eigentlich immer aktiv oder nur wenn die Performance knapp wird?
BlacKi
2023-08-26, 13:29:33
Ist die Frameinterpolation (z.B. bei DLSS3) eigentlich immer aktiv oder nur wenn die Performance knapp wird?an oder aus switch, nichts automatisch. in cyberpunk hat es früher(weiß nicht ob das immer noch so ist) FG deaktiviert wenn man im inventar, oder menu war. switched man zurück ins game, dann braucht es ca eine sekunde bis es wieder aktiv ist. das merkt man daran, das die frametimes eine sekunde am arsch sind. deswegen halte ich automatisches ein und ausschalten für problematisch.
Der_Korken
2023-08-26, 13:42:46
Mal was anderes...
RX 7900XTX = 96 CUs bei max. 2500Mhz Boostclock + 384Bit SI = 355W
RX 7800XT = 60 CUs bei max. 2430Mhz Boostclock + 256Bit SI = 265W
Obwohl N31 60% mehr CUs hat braucht der nur 34% mehr Saft. Ich denke, dass die Shader für den hohen Durst bei RDNA3 verantwortlich sind können wir somit endgültig begraben. Die Ursache muss definitiv wo anders liegen.
Genau das finde ich am meisten meh an N32. Ich hatte vorher schon ausgerechnet, dass der N32XT rechnerisch irgendwo zwischen 222W und 237W rauskommen müsste, je nachdem ob man von 355W ausgehend anhand der CUs oder anhand des Speichersystems runterrechnet (bezüglich ROPs und Shader Engines ist N32 sogar nur ein halber N31 ...). Unter der Annahme gleicher Taktraten wohlgemerkt. Wenn die 7800XT unter Last niedriger als die 7900XTX taktet, sieht der Vergleich sogar noch schlechter aus. Bei N22 war die schlechtere Effizienz wenigstens leicht erklärbar durch die deutlich höheren Taktraten und dass 3/4 des Speichersystems von N21 vorhanden waren.
Die Taktangaben sind bei RDNA3 eh Schall und Rauch. Das ist dermaßen Anwendungsabhängig... mal schauen wie das hinterher tatsächlich performt.
Aber es entspricht den Gerüchten, dass AMD N31 und N32 zusammen entwickelt hat und beide Chips aus der gleichen Feder stammen, es also zu N32 keinen Fortschritt gibt.
Linmoum
2023-08-26, 14:06:38
Mace (host): You have launched 7700 XT and 7800 XT. Is that going to complete the RDNA3 portfolio or is there maybe more on the horizon?
Scott: Well, the RDNA3 portfolio is now complete. Of all products that we have planned to launch, that is, this is the last few products that we will launch. We may have some different versions, but they are not a new ASIC/SKU. […] It’s been a journey, it’s been about a year since we launched the very first RDNA3 and now we are a year later finishing up the series. We should be done, we are done and we are excited. And now I think we have a broad spectrum covered for people who want RDNA3 up and down the price tag.
https://videocardz.com/newz/amd-radeon-chief-confirms-radeon-rx-7000-rdna3-portfolio-is-now-complete-no-more-skus-planned
Scheint also keine weiteren SKUs mit RDNA3 mehr zu geben.
BlacKi
2023-08-26, 14:34:10
also verschiedene modelle wie zb. eine 7850xt wäre möglich, solange die hardwareeinheiten gleich bleiben. ändern die sich, zb. mehr CU dann wäre es eine andere SKU. mehr/weniger power und mehr/weniger takt wären aber keine neue SKU.
amd spart wohl einfach R&D ein.
basix
2023-08-26, 14:34:34
https://videocardz.com/newz/amd-radeon-chief-confirms-radeon-rx-7000-rdna3-portfolio-is-now-complete-no-more-skus-planned
Scheint also keine weiteren SKUs mit RDNA3 mehr zu geben.
Then let's go to RDNA4 ;)
BlacKi
2023-08-26, 15:06:22
Then let's go to RDNA4 ;)oder man braucht das geld für AI hardware;)
dildo4u
2023-08-26, 15:10:12
Beide haben jetzt erfolgreich die 3060 Ti eliminiert die hatte schon im alten Portfolio ein viel zu gute Preis/Leitungs Verhältnis kann man ja nicht haben.
TheGood
2023-08-26, 15:16:40
Ja, die 7800XT hätte ich eher für 549$ erwartet und die 7700XT da wo sie jetzt ist mit 449$. Irgendwie lustig das ganze: Anstatt sich über das besser als erwartete P/L der 7800XT zu freuen, motzen viele über die nur 50$ Preisdifferenz der 7700XT. Naja, Glas halb leer oder halb voll und so ;)
?
DAs ist das Motzen um des Motzens willens und immer das schlechte bei AMD finden um seinen BIAS auch bestätigt zu sehen..
Natürlich könnte der Preis besser sein, aber so wie er da im Vergleich dasteht ist er vollkommen in Ordnung und entspricht der Leistungsfähigkeit der Graka und deren Langlebigkeit.
RT interesse ist und bleibt nicht riesig und man sollte nicht vergessen, dass ich hier nicht von einer 4090 ausgehen sollte, denn dann sind alle anderen Grakas raytracing krüppel und so zu denken ist einfach schwachsinnig. Man muss sehen was am Markt verfügbar ist und das ist der großteil eben 1000 2000 und rdna2 grakas und die sind am ende alle auf einem ähnlichen level....
DAs Thema führt aber über alle spiele gesehen immer noch ein absolutes Nischendasein. Ich habe eine Raytacing KArte seit einem dreiviertel Jahr und noch keinen einzigen RT Titel gespielt.... It just not relevant ;) (wird es aber in 3-5 jahren sein, wenn die komplette beleuchtung darüber läuft. DAs muss dann aber auch auf den oben genannten alten Grakas einigermaßen laufen....)
][immy
2023-08-26, 15:42:56
DAs ist das Motzen um des Motzens willens und immer das schlechte bei AMD finden um seinen BIAS auch bestätigt zu sehen..
Natürlich könnte der Preis besser sein, aber so wie er da im Vergleich dasteht ist er vollkommen in Ordnung und entspricht der Leistungsfähigkeit der Graka und deren Langlebigkeit.
RT interesse ist und bleibt nicht riesig und man sollte nicht vergessen, dass ich hier nicht von einer 4090 ausgehen sollte, denn dann sind alle anderen Grakas raytracing krüppel und so zu denken ist einfach schwachsinnig. Man muss sehen was am Markt verfügbar ist und das ist der großteil eben 1000 2000 und rdna2 grakas und die sind am ende alle auf einem ähnlichen level....
DAs Thema führt aber über alle spiele gesehen immer noch ein absolutes Nischendasein. Ich habe eine Raytacing KArte seit einem dreiviertel Jahr und noch keinen einzigen RT Titel gespielt.... It just not relevant ;) (wird es aber in 3-5 jahren sein, wenn die komplette beleuchtung darüber läuft. DAs muss dann aber auch auf den oben genannten alten Grakas einigermaßen laufen....)
Rechne noch ein paar Jahre drauf. Dadurch daß man aktuell nur im absoluten high end performance Fortschritte sieht und dies fürstlich bezahlen muss, wird es noch ne ganze Weile länger dauern bis er wirklich massenfähig wird.
Die letzten 3 Jahre hat dich entsprechend fast gar nichts getan, trotz neuer Fertigungsverfahren.
So viele Verkleinerungsschritte wird es nicht mehr geben und die 5nm wurden (durch die nicht vorhandenen Performance Zuwächse in den Massensegmenten) quasi übersprungen.
Die Karten werden einfach auf absehbarer Zeit zu teuer als das sich so ein Feature zum Standard werden könnte.
amdfanuwe
2023-08-26, 16:15:46
Keine weiteren RDNA3 SKUs.
Hatte noch mit einer 7600XT und/oder 7700 gerechnet. Scheinen aber noch zu viele N22 auf Lager zu liegen.
Da wird die 67x0XT wohl noch eine Weile die Lücke zwischen 7600 und 7700XT füllen.
Der_Korken
2023-08-26, 16:22:08
Hatte noch mit einer 7600XT und/oder 7700 gerechnet. Scheinen aber noch zu viele N22 auf Lager zu liegen.
Ich würde eher sagen, dass es keine sinnvollen Möglichkeiten mehr gibt aus den vorhandenen Chips weitere Modelle zu generieren. N33 läuft auf Anschlag, ein 16GB-Modell für 100$ Aufpreis wäre genauso ein Rohrkrepierer wie die 4060Ti 16GB. Und ein N32 mit 40CUs und 12GB wäre in der Herstellung genauso teuer wie das 54CU-Modell, nur dass AMD 100$ weniger dafür bekommt. Ergibt keinen Sinn das so zu verkaufen.
mczak
2023-08-26, 16:42:22
https://videocardz.com/newz/amd-radeon-chief-confirms-radeon-rx-7000-rdna3-portfolio-is-now-complete-no-more-skus-planned
Scheint also keine weiteren SKUs mit RDNA3 mehr zu geben.
Seltsam, mal abgesehen vom Loch zwischen 7600 und 7700 XT hätte ich zumindest noch eine Karte mit teildeaktiviertem N33 erwartet - Gerüchte über eine 7500 XT gibt es ja schon länger.
amdfanuwe
2023-08-26, 16:54:49
Und ein N32 mit 40CUs und 12GB wäre in der Herstellung genauso teuer wie das 54CU-Modell,
Klar, ist aber auch mehr eine politische Entscheidung, welchen Markt man mit welchen Gewinnmargen bedient. Noch hat man ja genug 67x0XT die man ja auch nicht verschrotten will.
Die beiden N32 Modelle laufen mit relativ hohem Takt. Da dürfte noch Ausschuss vorhanden sein, ebenso mit einem Defekt in einer SE.
Wird aber dann wohl eher im Mobile oder Instinct Markt untergebracht werden.
Oder als Sonderedition wenn sich mal genügend angesammelt haben.
AMD wird schon Möglichkeiten finden ein maximum an Chips gewinnbringend zu verkaufen.
dildo4u
2023-08-26, 17:01:12
Seltsam, mal abgesehen vom Loch zwischen 7600 und 7700 XT hätte ich zumindest noch eine Karte mit teildeaktiviertem N33 erwartet - Gerüchte über eine 7500 XT gibt es ja schon länger.
Gibt es doch für Notebooks Desktop hat 6600 die sind unter 200€.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7600m
ASRock 6600 197€
https://www.mindfactory.de/product_info.php/8GB-ASRock-Radeon-RX-6600-Challenger-D-Aktiv-PCIe-4-0-x16--x8-Retail-_1428372.html
Nvidia hat dort nur Kernschrott mit der 3050 kein Grund was Neues zu bringen.
Der_Korken
2023-08-26, 17:18:57
Klar, ist aber auch mehr eine politische Entscheidung, welchen Markt man mit welchen Gewinnmargen bedient. Noch hat man ja genug 67x0XT die man ja auch nicht verschrotten will.
Die beiden N32 Modelle laufen mit relativ hohem Takt. Da dürfte noch Ausschuss vorhanden sein, ebenso mit einem Defekt in einer SE.
N22 dürfte billiger herzustellen sein als N32, allein schon durch das knappe Packaging. Und defekte SEs, come on. Wie viele Chips sollen das sein? N21 und N32 sind Ausnahmen gewesen, davor wurde das zumindest seit GCN nicht einmal gemacht. Die 7700XT ist schon verdächtig mit ihrer hohen UVP, dass zu wenig Ausschuss rauskommt, um ein günstiges Massenprodukt draus zu machen. Vielleicht gibt es ja ein Pro-Modell mit 40 CUs aber vollbesetztem Speichersystem für Anwendungen mit wenig Rechen- aber viel Speicherbedarf.
Fusion_Power
2023-08-26, 18:14:38
Gibt es doch für Notebooks Desktop hat 6600 die sind unter 200€.
https://www.amd.com/de/products/graphics/amd-radeon-rx-7600m
ASRock 6600 197€
https://www.mindfactory.de/product_info.php/8GB-ASRock-Radeon-RX-6600-Challenger-D-Aktiv-PCIe-4-0-x16--x8-Retail-_1428372.html
Nvidia hat dort nur Kernschrott mit der 3050 kein Grund was Neues zu bringen.
Das erscheint mir als Laie ein guter Preis für ne RX 6600. Ne RX 7600 ist jedenfalls teurer, nicht wesentlich schneller UND verbrät obendrein noch mehr Strom. Ich hab mir dieses Video angeschaut und bin nicht wirklich überzeugt, warum man sich ne 7600 kaufen sollte. Außer dass sie halt neuer ist. Sind da noch irgend welche Super-Features drin die die 6600 nicht hat?
d9YS2nzUYOg
dildo4u
2023-08-26, 19:29:53
VRAM ich würde nix mehr unter 12GB kaufen 8 GB Karten waren OK als die alten Konsolen aktuell waren.
https://youtu.be/Rh7kFgHe21k?si=uxVBx3r1fxmOXg2p
amdfanuwe
2023-08-26, 20:00:40
Ne RX 6700 ist jedenfalls teurer, nicht wesentlich schneller UND verbrät obendrein noch mehr Strom.
Du meinst wohl die 7600.
Fusion_Power
2023-08-26, 20:30:00
Du meinst wohl die 7600.
Selbstverständlich, sorry für den Dreher, ich besser das gleich mal aus.
GerryB
2023-08-26, 20:46:01
Das erscheint mir als Laie ein guter Preis für ne RX 6600. Ne RX 7600 ist jedenfalls teurer, nicht wesentlich schneller ...
die mehr Fps für 50€ sind OK, ... ne 7600 gibts für 249€ bei Amazon
ansonsten
definiere wesentlich
Sollen es in zukünfigen UE5-Games dann doppelt soviel Fps sein, dann brauchste aber schon ne 6800.(die gabs Letztens für 439€)
DAS ist aber nur Was für entscheidungsfreudige Käufer gewesen, ... Wer lange wartet, wartet manchmal umsonst.
(weil es keine 7700nonXT zu dem Preis geben wird)
mczak
2023-08-26, 21:23:36
Das erscheint mir als Laie ein guter Preis für ne RX 6600. Ne RX 7600 ist jedenfalls teurer, nicht wesentlich schneller UND verbrät obendrein noch mehr Strom.
Zwischen einer 6600 und 7600 liegen performancemässig schon so 25-30%. Da ist dann eben Perf/W und auch Perf/$ doch sehr ähnlich - kann sein dass die RX 6600 bei Perf/$ zur Zeit leicht vorne liegt bei Perf/W aber eher nicht.
Theoretisch wäre es aber wohl sinnvoll Karten mit N23 komplett durch solche mit N33 zu ersetzen, weil N33 etwas günstiger zu fertigen sein sollte. Jedenfalls wenn man nicht noch Lager abverkaufen muss...
dildo4u
2023-08-26, 21:35:46
Gibt kein Grund warum die 7600 später nicht auf 200€ fallen könnte würde mich wundern wenn ein so kleiner Chip viele Defekte erzeugt, die 28 CU Modelle kannste in Notebooks stecken.
TheGood
2023-08-26, 22:06:14
MAn muss sich doch ehrlich fragen, warum überhautps ne RDNA 3 zu kaufen. Man sieht ja dass der Kluge Käufer sich mit einer RDNA2 lösung eingedeckt hat. Natürlich gibts in ein paar Monaten kein eRDNA2 mehr dann bleibt einem ja nichts anders übrig als RDNA3 zu kaufen. Bin gespannt ob die dann so gu gehen.
Man muss ja ehrlicherweise sagen, was am Ende rauskommt ist OK, aber wenn man sieht warum es so ist, dann ist das ne GEneration die ich einfach auslasse. Wie damals Vega. Da ist zuviel kaputt oder tut nicht das wie gewünscht, dass ich mir das ja nicht dauerhaft antun würde.
Daher wird es auch schnell die RDNA4 geben. AMD hat dies offensichtlich schon länger erkannt und da direkt die reisleine gezogen.
dildo4u
2023-08-26, 23:10:29
Die alten Karten sehen "gut" aus weil sie überproduziert wurden die 6700xt kam über dem Preis der 7700XT die massiv komplexer im Aufbau ist.
AMD wollte freiwillig keine 12GB Modelle für billig verkaufen daher wurde das neue Modell massiv aufgepumpt.
Seltsam, mal abgesehen vom Loch zwischen 7600 und 7700 XT hätte ich zumindest noch eine Karte mit teildeaktiviertem N33 erwartet - Gerüchte über eine 7500 XT gibt es ja schon länger.
Entweder hat sich AMD dazu entschieden, N22 weiterzuproduzieren oder man hat noch so viele davon, dass es keinen Sinn hat, ein neues Produkt aufzulegen. N32 ersetzt ja nur N21 bisher und N33 ersetzt nur die 66x0XT.
Vielleicht kommt N4x doch etwas früher als ich dachte...
eine 7500(XT) kann als reine OEM-Karte immer noch kommen. Sondereditionen hat Herkelmann nicht ausgeschlossen.
https://www.computerbase.de/2023-08/amd-rdna-3-es-wird-keine-weiteren-rx-7000-grafikkarten-geben/
GerryB
2023-08-27, 10:04:58
Sollen es in zukünfigen UE5-Games dann doppelt soviel Fps sein, dann brauchste aber schon ne 6800.(die gabs Letztens für 439€
... gerade wieder im MS für 439€ eine MERC
Ob man derzeit mit ner 6600/7600/6750 an der falschen Stelle spart und ein paar Monate später doch gern mehr Rohpower und Vram hätte.
Das klingt zwar verrückt ne 6800 für FHD, aber die UE5-Games werden crazy.
(1440p@FSR2 geht dann natürlich genauso gut)
Hatstick
2023-08-27, 10:36:18
Warum wird die 7700XT eigentlich 489€ mit 12GB kosten, wenn es für wenig mehr die 7800XT mit 16GB geben wird und für zum Teil 150€ weniger die 6700XT?
Die Preisgestaltung bei der 7700XT verstehe ich gar nicht oder habe ich da was übersehen? :freak:
GerryB
2023-08-27, 10:39:14
Wurde doch schon gesagt, der Yield ist soooo gut, das AMD kaum Interesse hat, die 7700xt zu verkaufen.
... lieber mehr 7800xt
Das war am Anfang ne Zeitlang ähnlich bei 6800xt/6900.
... es gab kaum 6800xt im AMD-Shop
dildo4u
2023-08-27, 10:42:13
Warum wird die 7700XT eigentlich 489€ mit 12GB kosten, wenn es für wenig mehr die 7800XT mit 16GB geben wird und für zum Teil 150€ weniger die 6700XT?
Die Preisgestaltung bei der 7700XT verstehe ich gar nicht oder habe ich da was übersehen? :freak:
AMD vergleicht sie gegen die 4060 TI 16GB danach ist sie billiger und schneller die Strategie ist wie immer nur minimal besser als Nvidia zu sein.
https://abload.de/img/ypjt0jltnt5pvh0m6hfyn.jpg
Linmoum
2023-08-27, 10:47:14
Die 4060Ti setzt auf AD106, der lächerliche 188mm² winzig - also kleiner als allein der gesamte N32-GCD - ist. Das hat nichts mit irgendeinem Vergleich zur Konkurrenz zu tun, die nur $50 Unterschied zwischen den beiden SKUs zeigen ziemlich deutlich, dass die Strategie hier Margen sind und nichts anderes.
robbitop
2023-08-27, 10:49:48
Die Zeiten des Preiskampfes sind leider vorbei. Beiderseitig. Mal schauen ob Intel mit Battlemage etwas mehr Wettbewerb ins midrange Segment bringt. Alchemist ist bereits im niedrigen Segment aus P/L Sicht super. Ist aber einfach eine Klasse zu niedrig. 3060 Performance (egal wie billig) lockz einfach niemanden mehr hinter dem Ofen hervor.
GerryB
2023-08-27, 11:22:09
Die 4060Ti setzt auf AD106, der lächerliche 188mm² winzig - also kleiner als allein der gesamte N32-GCD - ist. ...
ernsthaft, willste jetzt wegen ein paar mm² die Erbsen zählen?
die N32-GCD ist auch nur 200mm²
Eigentlich hat AMD sogar noch Mehrkosten für MCD+Package.
Insofern ist der Preis bei N32 net zu hoch.
The_Invisible
2023-08-27, 11:47:00
Die Zeiten des Preiskampfes sind leider vorbei. Beiderseitig. Mal schauen ob Intel mit Battlemage etwas mehr Wettbewerb ins midrange Segment bringt. Alchemist ist bereits im niedrigen Segment aus P/L Sicht super. Ist aber einfach eine Klasse zu niedrig. 3060 Performance (egal wie billig) lockz einfach niemanden mehr hinter dem Ofen hervor.
Die Frage ist ob Intel überhaupt Kampfpreise machen will oder halt nur so viel das die Karten gerade noch attraktiver sind als die Konkurrenz. Aber es gibt ja anscheinend noch immer einige die auf Grafikkartenpreise wie früher warten :D
DrFreaK666
2023-08-27, 11:47:08
Die 4060Ti setzt auf AD106, der lächerliche 188mm² winzig - also kleiner als allein der gesamte N32-GCD - ist...
Das zeigt wie lächerlich überteuert die 4060 Tis sind
Linmoum
2023-08-27, 11:51:57
Ja, zeigt es. Die Leute kaufen eine 4060Ti mit 8GiB aber trotzdem, weil der 0815-Otto keine Ahnung von Grafikchips, Die-Size und dem ganzen anderen Kram hat. Der sieht Performance und ggf. Verbrauch und freut sich über seine neue Karte.
Was an der Realität und dem Marktgefüge halt nichts ändert, zumal es ja auch nicht nur um den Preis geht, sondern AMD muss auch derart viel Silizium im Vergleich aufwenden, um überhaupt konkurrenzfähig bei der Performance zu sein.
Man stelle sich vor, Nvidia würde für die Grafikkarten ihrer Größe angemessene Preise verlangen, dann müsste AMD seinen N32 für $300 verscherbeln. Die können aus unternehmerischer Sicht froh sein, dass Nvidia seine Produkte preislich dort angesetzt hat. Nvidia würde auch bei $300 für einen AD106 noch feiern, bei AMD würden dann die Tränen laufen ob der unterirdischen Margen.
DrFreaK666
2023-08-27, 11:55:13
Ja, AMD kann froh sein - Spieler nicht
robbitop
2023-08-27, 11:58:49
Die Frage ist ob Intel überhaupt Kampfpreise machen will oder halt nur so viel das die Karten gerade noch attraktiver sind als die Konkurrenz. Aber es gibt ja anscheinend noch immer einige die auf Grafikkartenpreise wie früher warten :D
Na aktuell jedenfalls bieten sie Kampfpreise an mit Alchemist.
———————
Ja N31/32 verballern im Vergleich zu N33 viel zu viele Transistoren pro CU/WGP. Und dann gehen sicherlich noch Transistoren für das Chipletdesign drauf (ohne Interfaces geht es halt nicht)
Ich frage mich wie man RDNA3 so verkacken konnte nachdem man mit RDNA2 so eine gute Vorgängerversion hatte.
basix
2023-08-27, 12:13:14
Ich glaube jeder hat von RDNA3 mehr erhofft. Hat nun nicht wollen sein. Dann drücken wir doch die Daumen für RDNA4 ;)
amdfanuwe
2023-08-27, 12:13:35
Warum wird die 7700XT eigentlich 489€ mit 12GB kosten, wenn es für wenig mehr die 7800XT mit 16GB geben wird und für zum Teil 150€ weniger die 6700XT?
Die Preisgestaltung bei der 7700XT verstehe ich gar nicht oder habe ich da was übersehen? :freak:
Wenn die 7700XT günstiger angeboten würde, würde AMD auf Lagerbeständen von 67x0XT hocken bleiben und weniger Umsatz mit 7800XT generieren.
Also lieber erst mal weniger 7700XT verkaufen, dafür die Altware 67x0XT noch gut loswerden und erstmal mit der teureren 7800XT mehr verdienen.
Schließlich geht es für AMD um eine Gewinnmaximierung über das gesamte Produktportfolio.
Billiger werden kann man später immer noch.
GerryB
2023-08-27, 12:16:33
Ja N31/32 verballern im Vergleich zu N33 viel zu viele Transistoren pro CU/WGP. Und dann gehen sicherlich noch Transistoren für das Chipletdesign drauf (ohne Interfaces geht es halt nicht)
Der spitze Bleistift hat sicherlich ausgerechnet, das die MCD bei GPU`s preiswerter sind als 3dCache, den man besser bei den CPU´s verkaufen kann.
netter Nebeneffekt vom großen Package = RDNA3 hat deutlich bessere Temps als RDNA2 (gerade beim Hotspot)
Also lieber erst mal weniger 7700XT verkaufen, dafür die Altware 67x0XT noch gut loswerden und erstmal mit der teureren 7800XT mehr verdienen.
Schließlich geht es für AMD um eine Gewinnmaximierung über das gesamte Produktportfolio.
Billiger werden kann man später immer noch.
Jupp. Sehe ich auch so. Die Karte ist ein Alibi, damit keiner von Lücken im Portfolio sprechen kann. Solange die Altbestände nicht leer sind, kann auch ohne Konkurrenz das Preisgefüge nicht stimmig werden. Weniger RDNA3 produzieren geht. Mit RDNA2 muss man gezwungenermaßen anders umgehen.
Dino-Fossil
2023-08-27, 13:14:48
Man stelle sich vor, Nvidia würde für die Grafikkarten ihrer Größe angemessene Preise verlangen, dann müsste AMD seinen N32 für $300 verscherbeln. Die können aus unternehmerischer Sicht froh sein, dass Nvidia seine Produkte preislich dort angesetzt hat. Nvidia würde auch bei $300 für einen AD106 noch feiern, bei AMD würden dann die Tränen laufen ob der unterirdischen Margen.
Na ein Glück für AMD, das der quasi-Monopolist primär auf die eigenen Margen schaut. Fakt ist, keiner der beiden ist an einem Preiskampf interessiert. Kein Wunder, denn offensichtlich wird der überteuerte Kram gerade von nVidia ja ausreichend gekauft.
The_Invisible
2023-08-27, 13:23:13
Na aktuell jedenfalls bieten sie Kampfpreise an mit Alchemist.
Ja weil sie die Lager abverkaufen wollen, interessant ist aber was sie von Anfang an wollen und nicht später wenn die Karten eh wieder obsolet sind.
DrFreaK666
2023-08-27, 23:08:45
"AMD’s upcoming Radeon RX 6750 GRE reportedly just ‘an overclocked RX 6700 10GB"
https://videocardz.com/newz/amds-upcoming-radeon-rx-6750-gre-reportedly-just-an-overclocked-rx-6700-10gb
Die Karte muss dem Namens-Schema nach ja schneller als die 6700XT sein, weil die Zahl größer ist. Hoffentlich bleibt sie in China
Platos
2023-08-27, 23:58:42
Ich frage mich wie man RDNA3 so verkacken konnte nachdem man mit RDNA2 so eine gute Vorgängerversion hatte.
Was genau war denn so gut an RDNA 2 gegenüber RDNA 3 ?
Die Effizienz? AMD konnte mit TSMC 7nm gerade so 8nm Samsung schlagen (man sieht ja jetzt, dass das primär an der Fertigung lag).
Bei RT ist AMD jetzt sogar minimalst weniger abgehängt, wie vorher (schlecht natürlich trotzdem).
Bei Upscaling waren sie ja sogar deutlich schlechter (denn da gabs nur FSR 1).
Also was genau soll besser gewesen sein? Der Speicher? Aber auch nur bei manchen Modellen. Bei anderen war es genau so beschissen oder schlechter.
Bei den Preisen? Die waren zum Teil auch zu hoch (teils auch nicht). Und die jetzige Preise sind halt beschissen. Aber nicht beschissener wie bei nvidia.
Also ich glaube, RDNA 2 ist nur deshalb so gut im Kopf geblieben, weil das von AMD davor immer so ne Enttäuschung war ;)
RDNA 2 war einfach mal seit langem etwas, dass nicht völlig vermurkst wurde. Mehr aber auch nicht.
DrFreaK666
2023-08-28, 00:08:19
RDNA2 war so gut, weil RT Anfangs noch unwichtig war und RDNA2 in RZ Nvidia meist geschlagen hat
Platos
2023-08-28, 00:15:33
RDNA2 war so gut, weil RT Anfangs noch unwichtig war und RDNA2 in RZ Nvidia meist geschlagen hat
Das kommt dann stark auf die genutzten Spiele an.
Viel wichtiger wie RT war damals (und auch heute noch) DLSS 2.0. Und da war AMD halt quasi ohne Gegenwehr.
Naja, die letzte Gen war sowieso ein 2 Jahre andauernder Paperlaunch. Die Preise waren ja sowieso absurd. Von daher eig. nur ein Vergleich auf Papier.
DrFreaK666
2023-08-28, 00:21:00
RDNA2 erschien auch auf Konsolen. Dort profitiert man auch von FSR2, das noch vor RDNA3 erschien
TheAntitheist
2023-08-28, 00:32:35
Hätte, hätte Fahrradkette. AMDs Strategie ist ganz klar und das Chipletdesign wird auch Nvidia innerhalb der nächsten 2 Generationen aufgezwungen werden. Klar kann man jetzt Nvidia als clever bezeichnen und AMD als ineffizient, weil sie Technologie voran treiben. Eine Frage der Haltung würde ich sagen. Im Aktionärsforum wären deine Argumente ebenfalls nur die halbe Wahrheit, hier in einem Techforum feiere ich jeden Step vorwärts bei der IP.
welche Technologie treibt AMD denn voran? chiplets gibts schon seit über 20 Jahren... eher ist es Nvidia die die Tech pushen
reaperrr
2023-08-28, 02:53:21
Die Karte muss dem Namens-Schema nach ja schneller als die 6700XT sein, weil die Zahl größer ist.
Nö. Das ist ein Refresh der 6700, so wie die 6750XT ein Refresh der 6700XT war. Das Namensschema ist Marketing. Das ist einfach ne 6750, das "GRE" ist nur zum bauchpinseln der chinesischen Kunden da (genau wie bei der 7900).
Hoffentlich bleibt sie in China.
Geh ich stark von aus. Die Yield-Rate von N22 war schließlich von Anfang an so gut, dass es lange Zeit überhaupt keine 6700 unter der XT gab, dass die 6750GRE da zum weltweiten Massenprodukt wird sehe ich eher nicht.
Die 6750 GRE ist mMn Restverwertung, um auch die letzten teildefekten N22 noch für ein paar $ mehr loszuwerden, als man das könnte, wenn man einfach nur die 6700 noch billiger macht.
dargo
2023-08-28, 07:00:59
Was genau war denn so gut an RDNA 2 gegenüber RDNA 3 ?
Deutlich bessere V/F-Kurve bei RDNA2. Würde AMD bei N31 ähnliche Voltage pro Frequenz (letzteres natürlich am Fertigungsprozess gemessen) zulassen würde eine RX 7900XTX 450-500W saufen. Das wollte man offenbar um jeden Preis verhindern. Ergo lässt man die Graka deutlich tiefer in der V/F-Kurve bereits mit einem Powerlimit von 355W einbremsen.
welche Technologie treibt AMD denn voran? chiplets gibts schon seit über 20 Jahren... eher ist es Nvidia die die Tech pushen
Nvidia pusht in erster Linie Tech die nur dem eigenen Unternehmen einen Vorteil bringt. Damit ist Nvidia beim PC-Gaming fehlt am Platz, bei einer Konsole wäre Nvidia besser aufgehoben. Über die Switch kommt NV dort aber nicht hinaus.
BlacKi
2023-08-28, 07:17:37
Deutlich bessere V/F-Kurve bei RDNA2. Würde AMD bei N31 ähnliche Voltage pro Frequenz (letzteres natürlich am Fertigungsprozess gemessen) zulassen würde eine RX 7900XTX 450-500W saufen. Das wollte man offenbar um jeden Preis verhindern. Ergo lässt man die Graka deutlich tiefer in der V/F-Kurve bereits mit einem Powerlimit von 355W einbremsen.das stimmt so nicht. rdna3 hat eine höhere und damit bessere frequenz pro voltage. rdna3 braucht für den selben takt weniger voltage. wohl aber rein dem prozess geschuldet. da man das aber nicht trennen kann, ist sie besser. lediglich bei teillast schein rdna3 nicht alles beisammen zu haben wie rdna2.
dargo
2023-08-28, 07:24:17
das stimmt so nicht. rdna3 hat eine höhere und damit bessere frequenz pro voltage. rdna3 braucht für den selben takt weniger voltage.
Lesen und verstehen. :rolleyes:
Weniger Voltage pro Frequenz bei N31 ist nichts wert wenn das Ding trotzdem soviel säuft.
Edit:
Um das mal aufzuzeigen da es offenbar manche immer noch nicht verstehen was da bei RDNA3 schief gelaufen ist...
Benchmark von Cyberpunk 2077 mit meiner RX 6800XT @Stock V/F Kurve + 255W ASIC (Referenzvorgabe), was knapp unter 300W für die gesamte Karte bedeutet.
https://abload.de/thumb/cx_2023-08-28_07-31-5w6c32.png (https://abload.de/image.php?img=cx_2023-08-28_07-31-5w6c32.png)
Das Ding läuft im Schnitt mit 1111mV und 2327Mhz GPU bei ~300W. Hier sieht man die RX 7900XTX im gleichen Test.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13271699&postcount=1949
Dort läuft die RX 7900XTX mit 926mV bei 2604Mhz und 353W. Mit 90% PT sind es dann im Schnitt 2484Mhz bei 310W und mickrigen 864mV. Würde man bei N31 das Powerlimit offenlegen und 1111mV der Karte erlauben würde das Ding wohl schon grob an 550-600W kratzen sofern die Frequenz nicht limitiert. Bei ca. 2,9GHz ist ja Default Schluss laut Stock V/F-Kurve bei N31.
Der vollständigkeitshalber hier noch einer Messung der RX 6800XT bei ~310W (265W ASIC) für die gesamte Grafikkarte.
https://abload.de/thumb/cx_2023-08-28_07-53-5mof14.png (https://abload.de/image.php?img=cx_2023-08-28_07-53-5mof14.png)
Es ist einfach nur mega peinlich wie durstig N31 in 5nm (GCD) geworden ist.
RX 6800XT = 2356Mhz @1125mV bei ~310W
RX 7900XTX = 2484Mhz @864mV bei 310W
Und dieser Vergleich ist noch komplett unfair für RDNA2 da jeder weiß, dass die Perf/W am oberen Ende der V/F-Kurve wesentlich schlechter ausfällt als im unteren Bereich.
Edit 2:
Hier sieht man erst so richtig das eigentliche Übel von RDNA3 bei vergleichbarer Voltage (N31 haut da 600Mhz mehr raus, säuft nur leider dann ~155W mehr dabei trotz Fullnode-Sprung). X-D
https://abload.de/thumb/cx_2023-08-28_08-21-19eeyv.png (https://abload.de/image.php?img=cx_2023-08-28_08-21-19eeyv.png)
RX 6800XT @923mV = 170W ASIC (ca. 195-200W gesamte Karte)
RX 7900XTX @926mV = 354W
Man sieht zwar sehr gut den Taktvorteil von RDNA3 bei gleicher Voltage vs. RDNA2. Ich möchte aber zu gern wissen was da so extrem schief gelaufen ist, dass RDNA3 so viel säuft.
BlacKi
2023-08-28, 07:32:48
du schreibst da aber so. n31 säuft so viel, weil er mehr transen hat. und amd bremst das ein, damit man eben keine 500w braucht. einfach gesagt:
n31 = n21 x 1,5 (transistoren) x 0,8 (fertigungsprozess)
Freestaler
2023-08-28, 07:50:07
Leistung = Watt = (A)mpere x (V)olt. Eines alleine sagt nicht viel.
Ihr könntet Birnen nur mit Birnen vergleichen (A immer gleich dann entscheided V). N21 vs n31 sind aber aber Birnen und Äpfel. Alles andere ist schönrechnerei welche auf zufall beruht.
Edit: Watt vergleiche passen, die Volt vergleiche machen keinen Sinn.
OgrEGT
2023-08-28, 08:24:14
So einfach ist das mMn nicht. Bei Compute Rechenlast scheint N31 gut zu funktionieren mit hohen Taktraten. Es müssen bestimmte Berechnungen die nur oder häufiger bei 3D Rendering erfolgen für den hohen Verbrauch verantwortlich sein... Diese Berechnungen oder ggf eher Berechnungsmuster scheinen wohl so komplex implementiert worden zu sein dass sie im Vergleich zu anderen mehr Schaltvorgänge erfordern und somit zu der hohen Leistungsaufnahme führen...
du schreibst da aber so. n31 säuft so viel, weil er mehr transen hat. und amd bremst das ein, damit man eben keine 500w braucht. einfach gesagt:
n31 = n21 x 1,5 (transistoren) x 0,8 (fertigungsprozess)
Transistormenge ist das letzte, was du dafür an Indikator nehmen kannst.
dargo
2023-08-28, 08:27:30
So einfach ist das mMn nicht. Bei Compute Rechenlast scheint N31 gut zu funktionieren mit hohen Taktraten. Es müssen bestimmte Berechnungen die nur oder häufiger bei 3D Rendering erfolgen für den hohen Verbrauch verantwortlich sein...
Das wissen wir längst. Den Gamer interessiert Compute nicht sondern die Perf/W beim Gaming.
OgrEGT
2023-08-28, 08:34:01
Das wissen wir längst. Den Gamer interessiert Compute nicht sondern die Perf/W beim Gaming.
Wenn wir das wissen dann ist auch klar dass es da keine einfache Antwort auf die Frage gibt warum der Verbrauch so hoch ist beim Gaming wie die Kalibrierung der V/F Kurve only oder die schlichte Anzahl von Transistoren. Ein solch komplexes Rechenwerk wie eine GPU zu entwickeln ist so anspruchsvoll und aufwändig dass es alles andere als peinlich ist wenn man da teilweise ein paar % hinter der Konkurrenz liegt in einigen Szenarien.
DrFreaK666
2023-08-28, 08:36:28
Das wissen wir längst. Den Gamer interessiert Compute nicht sondern die Perf/W beim Gaming.
Den Gamern interessiert ob der Chip von Nvidia ist. P/W ist da eher zweitrangig
OgrEGT
2023-08-28, 08:37:43
Bei den wohl sehr zahlreichen und interdependen Designentscheidungen die zu treffen sind muss immer zugunsten des einen oder anderen Szensrios fein abgewogen werden. So schlimm wie manchmal getan wird ist RDNA3 nun auch nicht. Es hätte besser sein können keine Frage aber es ist keine Katastrophe...
dargo
2023-08-28, 08:56:09
Wenn wir das wissen dann ist auch klar dass es da keine einfache Antwort auf die Frage gibt warum der Verbrauch so hoch ist beim Gaming wie die Kalibrierung der V/F Kurve only oder die schlichte Anzahl von Transistoren. Ein solch komplexes Rechenwerk wie eine GPU zu entwickeln ist so anspruchsvoll und aufwändig dass es alles andere als peinlich ist wenn man da teilweise ein paar % hinter der Konkurrenz liegt in einigen Szenarien.
Wo stelle ich Vergleiche vs. Konkurrenz? Die Messlatte ist für mich das Produkt aus dem eigenen Hause, nämlich RDNA2! Für mich ist es unbegreiflich wie man sich bei einer so extrem guten Vorlage @RDNA2 so verschlechtern konnte.
Platos
2023-08-28, 09:40:49
Dargo, was laberst du ^^ ?
Was bitte interessiert die Spannung? Wichtig ist Perfomance/Watt.
Ist doch klar, dass die Karte mehr säuft bei gleicher Spannung. Hat ja schliesslich auch fast 3x mehr fp-32 Einheiten.
Die Karte säuft 351Watt bei 512% 4k Index (launch analyse). Das macht 1.45%/Watt. Die 6800XT zieht 296Watt bei 306% Index und das macht 1.03%/Watt.
Spannung ist völlig wurscht. Es zählt Perfomance/Watt.
Wie schon angemerkt wurde, ist Watt= Volt* Ampere. Was du da also vergleichst, ist völlig sinnfrei. Ist doch irgendwie klar, dass bei gleicher Spannung und höherer Leistung (also Watt) die Stromstärke ansteigen muss (oder bei dir eben gleiche Leistung und niedrigere Spannung. Also höhere Stromstärke)
Warum wohl verbraucht eine RTX 3090 bei gleicher Spannung mehr Watt, wie eine 3070 oder 3060... Weil sie mehr Transistoren/ fp-32 Einheiten hat und somit die Stromstärke steigen muss.
robbitop
2023-08-28, 09:43:51
Was genau war denn so gut an RDNA 2 gegenüber RDNA 3 ?
RDNA2 war gegenüber seinem Vorgänger in Bezug auf Perf/W (trotz gleichem Fertigungsprozess) ein angemessener Generationssprung. Und RDNA1 war in Bezug auf Perf/W auch schon ebenbürtig oder leicht besser als Turing. (ja ja besserer Prozess - aber eine gute uArch wiegt so schwer, dass das schon eine gute Leistung ist! wie oft hatte AMD schon den Prozessvorteil und trotzdem lag man in allen Metriken hinten. Das muss man ruhig mal anerkennen vom Zwerg der RTG ist verglichen mit NV)
RDNA3 hingegen hat einen fullnode shrink ggü RDNA2 und pumpt pro CU >2x Transistoren hinein. Der absolute Performancesprung und der Perf/W Sprung war wirklich enttäuschend. Darüber braucht man IMO nicht zu diskutieren.
Dann wenigstens deutlich mehr RT Leistung? Pustekuchen - ein bisschen mehr. In Extremfällen (Pathtracing) sind es immerhin ~20%. Aber von den relativen Performancekosten (raster vs RT) immer noch meilenweit von Turing/Ampere entfernt. Immernoch nur RT Level 2 HW.
Im Jahr 2020 war das noch nicht ganz so kritisch, weil RT da noch nicht so verbreitet war. Ende 2022 zu RDNA3 wog das aber schlimmer. Man muss es immer in's zeitliche Verhältnis setzen.
RDNA2 war für AMD's Verhältnisse seit langem eine sehr gute uArch. Man konnte selbst bei der größten SKU ganz oben mithalten ohne dass der Verbrauch explodiert ist. Mit einem Unternehmen als Wettbewerber was viel viel größer ist als AMD und bei AMD fokussiert sich mit RTG sogar nur ein kleiner Teil auf GPUs. Daran gemessen war RDNA2 schon fast ein kleines Wunder.
An RDNA3 kritisiere ich, dass der Sprung (trotz fullnode Sprung, trotz massivem Einsatz von Transistoren, trotz 2 Jahre RnD) relativ zu RDNA2 einfach zu klein war. Und natürlich wird man dann von Nvidia abgezogen (besonders wenn diese diesmal wieder einen modernen Node nutzen). Das schlimmste ist wie gesagt, dass RDNA3 einfach zu wenig ggü RDNA2 brachte. Und das ist für mich ein "verkackt".
Da hätte ein ähnlicher Sprung wie von RDNA1 auf 2 kommen müssen. So wie es der Zen Sparte auch seit 2017 Gen für Gen glückt.
dargo
2023-08-28, 09:51:11
@Platos
Denk mal etwas nach. :rolleyes:
1. Ich vergleiche hier zu Ungunsten von RDNA2 denn die Perf/W ist bei einer RX 6900XT etwas besser da gleicher Verbrauch wie RX 6800XT, dafür etwas schneller.
2. Nach meiner Rechnung erreicht eine RX 6900XT bei 200W (gesamte Karte) in CP77 ~83fps @1440p. Eine RX 7900XTX erreicht 140fps bei 354W. Das sind 69% mehr Performance bei 77% mehr Stromverbrauch. Wo ist da der Fortschritt @5nm bei RDNA3 im GPU-Design geblieben? Wenn du das Problem bei RDNA3 immer noch nicht siehst kann ich dir auch nicht helfen.
Ist doch klar, dass die Karte mehr säuft bei gleicher Spannung. Hat ja schliesslich auch fast 3x mehr fp-32 Einheiten.
Wen interessiert das wenn dabei viel zu wenig in Form von fps bei rumkommt?
Platos
2023-08-28, 09:51:40
@Robbitop:
Ich sehe das so: Nvidia gurkt seit jeher (also seit Turing) auf alter Fertigung rum (Turing war keine neueste Fertigung, Ampere war Samsungs 8nm) und jetzt halt eben nicht mehr.
Wäre nvidia wieder auf nem alten Prozess, würde die Effizienz auf einmal nicht mehr so schlecht aussehen von RDNA 3. Vermutlich wäre es dann wieder ähnlich wie bei RDNA2 vs Ampere.
AMD sieht eben nur so schlecht aus, weil nvidia so gut ist bei der Effizienz. Und AMD war damalas eben nur gut, weil nvidia die ganze Zeit auf alten Fertigungsverfahren rumgurkte.
Das RT immer noch nichts ist, ist natürlich unabhängig davon einfach kacke.
dargo
2023-08-28, 09:59:41
Wäre nvidia wieder auf nem alten Prozess, würde die Effizienz auf einmal nicht mehr so schlecht aussehen von RDNA 3.
Völliger Quatsch, ihr macht den Fehler immer nur mit der Konkurrenz zu vergleichen. Anstatt Rückschlüsse auf die Vorgängergeneration aus dem eigenen Hause zu ziehen. Denn das sind die Maßstäbe die man 100% als IHV kennt, was die Konkurrenz bringt steht immer etwas in den Sternen.
Warum wohl verbraucht eine RTX 3090 bei gleicher Spannung mehr Watt, wie eine 3070 oder 3060... Weil sie mehr Transistoren/ fp-32 Einheiten hat und somit die Stromstärke steigen muss.
:facepalm:
Wo ist überhaupt der Bezug zu meinen Post? :freak: Überraschung... eine RX 6600 verbraucht weniger als eine RX 6900XT. :crazy:
Platos
2023-08-28, 10:02:11
@Platos
Denk mal etwas nach. :rolleyes:
1. Ich vergleiche hier zu Ungunsten von RDNA2 denn die Perf/W ist bei einer RX 6900XT etwas besser da gleicher Verbrauch wie RX 6800XT, dafür etwas schneller.
2. Nach meiner Rechnung erreicht eine RX 6900XT bei 200W (gesamte Karte) in CP77 ~83fps @1440p. Eine RX 7900XTX erreicht 140fps bei 354W. Das sind 69% mehr Performance bei 77% mehr Stromverbrauch. Wo ist da der Fortschitt @5nm bei RDNA3 geblieben? Wenn du das Problem bei RDNA3 immer noch nicht siehst kann ich dir auch nicht helfen.
Ja, der Vergleich einer 7900XTX und einer 6800XT ist Blödsinn. Aber ich habe halt das verglichen, was du verglichen hast.
Lächerlich ist hingegen eine stark untervoltete Karte (6900XT @200Watt) mit einer default 7900xtx zu vergleichen. Ist ja klar, dass die Effizienz dann stark steigt, da weder die 6900XT noch die 7900XTX wirklich effizient betrieben werden @ default.
Laut Launchanalyse ist die 7900XTX 34% effizienter wie die 6900XT @ default. Wenn du Vergleiche bei deutlich weniger Stromverbrauch machst, dann mach das doch bitte bei beiden Karten, denn das andere ist lächerlich. Du kannst nicht eine Karte am Optimum (oder in der nähe davon) mit der anderen @ default vergleichen, da das nie das Optimum ist (oder nah dran).
Ich habe btw. nie behauptet, dass RDNA 3 eine gute Energieeffizienz hat. Ich habe nur gesagt, dass es egal ist, wie die Spannung dabei aussieht, weil Perfomance/Watt wichtig ist und nicht Spannung/Takt oder sowas.
dargo
2023-08-28, 10:07:34
Lächerlich ist hingegen eine stark untervoltete Karte (6900XT @200Watt) mit einer default 7900xtx zu vergleichen. Ist ja klar, dass die Effizienz dann stark steigt, da weder die 6900XT noch die 7900XTX wirklich effizient betrieben werden @ default.
Du hast mal wieder absolut gar nichts verstanden. Ich habe nirgendwo Undervolting bei RDNA2 betrieben sondern einfach nur mit Hilfe des Powerlimits die SKU innerhalb der Default V/F-Kurve nach unten in den gleichen Voltagebereich bewegt wo N31 operiert. Ergo nichts anderes was auch AMD @Stock bei N31 betreibt. Nur dort halt im anderen Powerlimitbereich.
Laut Launchanalyse ist die 7900XTX 34% effizienter wie die 6900XT @ default. Wenn du Vergleiche bei deutlich weniger Stromverbrauch machst, dann mach das doch bitte bei beiden Karten, denn das andere ist lächerlich. Du kannst nicht eine Karte am Optimum (oder in der nähe davon) mit der anderen @ default vergleichen, da das nie das Optimum ist (oder nah dran).
Und wieder hast du nichts beim N31 verstanden. Ich empfehle dir sich mal mit N31 genauer zu befassen. Einen N31 bekommst du in CP77 innerhalb der Default V/F-Kurve nicht mal auf 200W runter weil die SKU so durstig ist. Oder anders ausgedrückt... du müsstest dafür dermaßen den Takt verringern, dass du überproportional Performance liegen lässt, dass so ein Profil gar keinen Sinn mehr ergibt.
Platos
2023-08-28, 10:11:23
Untervolting heisst nicht, dass du dich ausserhalb der defaultkurve befindest. Das heisst nur, dass du die Kurve irgendwo kappst. Das darunter ist aber immer noch default.
Das was du meinst, ist untervolting + overclocking.
Und genau, du lässt die eine Karte auf der V/F-Kurve auf einem viel effizienteren Bereich operieren und vergleichst sie mit einer Karte, bei der du das dann aber nicht machst. Eben ein nichtsaussagender Vergleich.
Wer im Glasgaus sitzt, sollte nicht mit Steinen werfen.
Vlt. solltest du die Energie mal besser darin investieren, deine eigene Aussage zu hinterfragen, als dich mit Facepalm und sonstigen dummen Anmachen verteidigen zu wollen.
Und wieder hast du nichts beim N31 verstanden. Ich empfehle dir sich mal mit N31 genauer zu befassen. Einen N31 bekommst du in CP77 innerhalb der Default V/F-Kurve nicht mal auf 200W runter weil die SKU so durstig ist.
Entscheide dich mal. Es geht um Perfomance/Watt und nicht darum, ob die eine Karte jetzt @ 200Watt operieren kann oder nicht.
Du bist so damit beschäftigt, deine Aussage zu verteidigen, dass du irgend einen Blödsinn konstruierst, der nie behauptet wurde.
Es geht um Energieeffizienz Perfomance/Watt.
robbitop
2023-08-28, 10:16:29
@Robbitop:
Ich sehe das so: Nvidia gurkt seit jeher (also seit Turing) auf alter Fertigung rum (Turing war keine neueste Fertigung, Ampere war Samsungs 8nm) und jetzt halt eben nicht mehr.
Wäre nvidia wieder auf nem alten Prozess, würde die Effizienz auf einmal nicht mehr so schlecht aussehen von RDNA 3. Vermutlich wäre es dann wieder ähnlich wie bei RDNA2 vs Ampere.
AMD sieht eben nur so schlecht aus, weil nvidia so gut ist bei der Effizienz. Und AMD war damalas eben nur gut, weil nvidia die ganze Zeit auf alten Fertigungsverfahren rumgurkte.
Das RT immer noch nichts ist, ist natürlich unabhängig davon einfach kacke.
Du bist null auf meine Argumentation eingegangen, die die vorherige uArch als Referenz nimmt. Und genau das ist doch aber die Referenz an der sich eine uArch intern messen muss.
Ja mit dem Node hast du bei NV Recht - aber man ist ja sogar intern gemessen nicht so recht vorangekommen. Zumindest nicht so wie die letzten 2 Generationssprünge zuvor.
Schau dir die Ryzen Group an. Da gibt es zu jeder neuen Zen Iteration (+ zählt nicht) einen gesunden Sprung in allen Metriken. Mit und ohne Fullnodesprung.
Und bei RDNA3 schafft man trotz Fullnodesprung ggü RDNA2 keinen guten Sprung in keiner Metrik.
Man könnte auch relativ zu NV besser dastehen, wenn RDNA3 den gleichen Sprung geliefert hätte wie ihre Vorgänger. Man hätte ggf auch nicht gewonnen, würde aber besser dastehen. NV zu besiegen ist kaum realistisch. Die haben locker eine Größenordnung mehr Resources. Aber gewisse Sprünge zu seinem Vorgänger sollte man schon hinlegen können.
Die Oportunitätsbetrachtung wäre: keine Resources in eine neue uArch und einfach nur RDNA2 auf 5 nm shrinken und mehr WGPs verbauen. Gleiches Transistorbudget. Wahrscheinlich hätte N31 dagegen nicht gewonnen.
Mit einer neuen uArch muss man pro Transistor besser sein als die alte.
dargo
2023-08-28, 10:17:11
Und genau, du lässt die eine Karte auf der V/F-Kurve auf einem viel effizienteren Bereich operieren und vergleichst sie mit einer Karte, bei der du das dann aber nicht machst. Eben ein nichtsaussagender Vergleich.
Du laberst immer noch Blödsinn! Die Voltage hat die größe Auswirkung auf den Verbrauch und eben diese Voltage habe ich innerhalb der Default V/F-Kurve bei beiden Grafikarten angeglichen! Oder besser gesagt bei RDNA2 mit Hilfe einen deutlich tieferen Powerlimits angepasst damit die SKU die gleiche Voltage abbekommt wie N31 mit Stocksettings.
Platos
2023-08-28, 10:19:18
Du laberst immer noch Blödsinn! Die Voltage hat die größe Auswirkung auf den Verbrauch und eben diese Voltage habe ich innerhalb der Default V/F-Kurve bei beiden Grafikarten angeglichen!
Du verstehst immer noch keine Physik. Dir wurde schon vorher gesagt, dass für den Verbrauch die Betrachtung allein an der Spannung blödsinn ist.
dargo
2023-08-28, 10:20:20
Du verstehst immer noch keine Physik.
Das sagt der richtige. :facepalm: Wattage = Voltage * Stromstärke. Super komplizierte Physik. X-D
Der_Korken
2023-08-28, 10:22:25
Es macht beim Vergleich zweier Karten einen gewaltigen Unterschied wie der Arbeitspunkt gewählt ist. Ich sehe beim Vergleich 7900XTX vs 6900XT auch die 7900 bevorteilt, weil sie weiter im Sweetspot läuft als die 6900. Um die Betriebspunkte anzugleichen, müsste eine 7900 geschätzt eher irgendwo um die 400W laufen bzw. die 6900 bei 250W, damit die auf ihrer jeweiligen V/f-Kurve ungefähr an der gleichen Steigung stehen. Natürlich ist das ein hypothetischer Vergleich, der für den Kunden erstmal uninteressant ist, aber die Frage war wie viel Fortschritt RDNA3 an sich gegenüber RDNA2 bietet und zwar unabhängig davon wie AMD die Betriebspunkte der Karte festgelegt hat.
robbitop
2023-08-28, 10:26:46
Es macht beim Vergleich zweier Karten einen gewaltigen Unterschied wie der Arbeitspunkt gewählt ist. Ich sehe beim Vergleich 7900XTX vs 6900XT auch die 7900 bevorteilt, weil sie weiter im Sweetspot läuft als die 6900. Um die Betriebspunkte anzugleichen, müsste eine 7900 geschätzt eher irgendwo um die 400W laufen bzw. die 6900 bei 250W, damit die auf ihrer jeweiligen V/f-Kurve ungefähr an der gleichen Steigung stehen. Natürlich ist das ein hypothetischer Vergleich, der für den Kunden erstmal uninteressant ist, aber die Frage war wie viel Fortschritt RDNA3 an sich gegenüber RDNA2 bietet und zwar unabhängig davon wie AMD die Betriebspunkte der Karte festgelegt hat.
Dazu kommt noch, dass Silizium ja auch noch streut. Also müsste man idealerweise eine repräsentative Stichprobengröße testen.
Und am besten ermittelt man mit dieser die best mögliche Betriebskennlinie (min voltage für jeweilige Taktraten und ermittelt den median).
Dann könnte man beide Kennlinien (Frequenz/Leistungsaufnahme - von niedriger Frequenz bis zu hoher Frequenz) übereinander plotten und sich besser anschauen.
dargo
2023-08-28, 10:27:38
Es macht beim Vergleich zweier Karten einen gewaltigen Unterschied wie der Arbeitspunkt gewählt ist. Ich sehe beim Vergleich 7900XTX vs 6900XT auch die 7900 bevorteilt, weil sie weiter im Sweetspot läuft als die 6900. Um die Betriebspunkte anzugleichen, müsste eine 7900 geschätzt eher irgendwo um die 400W laufen bzw. die 6900 bei 250W, damit die auf ihrer jeweiligen V/f-Kurve ungefähr an der gleichen Steigung stehen.
Genau das habe ich doch gemacht. :freak: Man könnte jetzt natürlich auch anders vorgehen und die RX 6800XT bei 1111mV lassen (diese liegen an bei ~300W für die ganze Karte). Nur würde N31 dann kein Stück besser da stehen denn bei 1111mV würde das Teil schon locker 500+W saufen.
Der_Korken
2023-08-28, 10:33:03
Dann könnte man beide Kennlinien (Frequenz/Leistungsaufnahme - von niedriger Frequenz bis zu hoher Frequenz) übereinander plotten und sich besser anschauen.
Sowas ähnliches habe ich kurz nach dem Launch mal in irgendeinem englischsprachigen Forum gesehen mit sehr kleiner Stichprobengröße. CB könnte sowas theoretisch hinbekommen, da sie dort manchmal User-Benches aufsetzen, wo alle ihre Performance-Werte für Benchmark X eintragen können. Aber ich glaube dass das Interesse an solchen akademischen Fragen da draußen zu gering ist :D
Der kleine Plot war trotzdem interessant, weil ich da zum ersten Mal sah, dass bei 2,5Ghz nur knapp 900mV anliegen und da die Erkenntnis für mich kam, dass wir es nicht mit einem Taktbarkeitsproblem zu tun haben (im Sinne von: kritischer Pfad in der Implementierung übersehen, Spannung muss hoch geschraubt werden), sondern mit einem Grundverbrauchsproblem.
Genau das habe ich doch gemacht. :freak:
Du warst auch nicht angesprochen, aber ich war zu faul zum zitieren und während ich geschrieben habe, haben sich drei vier weitere Posts dazwischengedrängelt.
Platos
2023-08-28, 10:33:11
Du bist null auf meine Argumentation eingegangen, die die vorherige uArch als Referenz nimmt. Und genau das ist doch aber die Referenz an der sich eine uArch intern messen muss.
Ja mit dem Node hast du bei NV Recht - aber man ist ja sogar intern gemessen nicht so recht vorangekommen. Zumindest nicht so wie die letzten 2 Generationssprünge zuvor.
Schau dir die Ryzen Group an. Da gibt es zu jeder neuen Zen Iteration (+ zählt nicht) einen gesunden Sprung in allen Metriken. Mit und ohne Fullnodesprung.
Und bei RDNA3 schafft man trotz Fullnodesprung ggü RDNA2 keinen guten Sprung in keiner Metrik.
Man könnte auch relativ zu NV besser dastehen, wenn RDNA3 den gleichen Sprung geliefert hätte wie ihre Vorgänger. Man hätte ggf auch nicht gewonnen, würde aber besser dastehen. NV zu besiegen ist kaum realistisch. Die haben locker eine Größenordnung mehr Resources. Aber gewisse Sprünge zu seinem Vorgänger sollte man schon hinlegen können.
Ja gut, das ist jetzt halt die Frage, was man betrachten/vergleichen will. Du betrachtest du uArch, ich eben das Produkt (die Grafikkarten), die daraus entstanden und dann muss man sich eben gegen alle Konkurrenten messen, nicht nur gegen sich selbst.
Du betrachtest "nur" RDNA2 vs RDNA3. Ich habe den Vergleich zu nvidia deshalb gezogen, um zu zeigen, dass RDNA 2 absolut gesehen nicht wirklich so sensationell war. Es war einfach so gut, weil das davor schlecht war bzw. eben nvidia auf alter Fertigung operiert hat (Also sorry RDNA 1 war für mich ne Enttäuschung und Turing halt auch).
Natürlich ist der Sprung von RDNA3 viel geringer, wie RDNA2, aber who cares?
Ich (als Kunde) betrachte nunmal, was auf dem Markt verfügbar ist und da war RDNA 2 eben auch nur gegen sich selbst so gut. Gegen nvidia waren sie zwar in manchen Disziplinen besser, aber eben nicht so Meilenweit, wie du RDNA 2 bepreist, denn du vergleichst es mit AMD selbst (wo sie durchaus gut waren). Aber ich vergleiche halt die absolute Produktleistung und dazu gehört für mich die Betrachtung des Konkurrenten mit dazu.
Also wenn Konkurrent A in Gen 0 schlecht war, in Generation 1 dann einen super Sprung macht (aber gegenüber dem Konkurrent "nur" leicht besser ist), dann sehe ich als Kunde eben auch, dass der Sprung nur deshalb so gross war, weil sie davor so schlecht waren.
So als Analogie Zen1. Das war absolut betrachtet auch ein Murks, aber verglichen mit Bulldozer eben nicht.
Aber ich verstehe jetzt, was du meinst. Du betrachtest die reine Entwicklung der uArch. Ich habe eben das Produkt gemeint, als ich danach gefragt habe, was RDNA 2 so besonders macht (es war endlich mal brauchbar, aber so Wunderbar war es dann eben nicht, wenn man alle Konkurrenten einbezieht. Zumindest nicht für mich. Seit RT und co. gibt es ja auch immer eine Gewichtung, die man für sich als Kunde selber entscheiden muss).
Platos
2023-08-28, 10:36:32
Das sagt der richtige. :facepalm: Wattage = Voltage * Stromstärke. Super komplizierte Physik. X-D
Du bist wie ein kleines Kind, dass sich mit "sich über andere Lustig machen versuchen" davon ablenken will, dass es einfach falsch liegt.
Wenn du normal diskutieren kannst, nimmt man dich vlt. ernst.
Ein letztes mal: Du vergleichst 2 Karten an 2 völlig verschiedenen Effizienzpunkten innerhalb der F/V-Kurve.
Wenn du nicht normal diskutieren kannst und deine Standpunkte nur mit Facepalm-Emojis vertreten kannst, dann Spare ich mir die Zeit ab jetzt.
robbitop
2023-08-28, 11:06:31
Ja gut, das ist jetzt halt die Frage, was man betrachten/vergleichen will. Du betrachtest du uArch, ich eben das Produkt (die Grafikkarten), die daraus entstanden und dann muss man sich eben gegen alle Konkurrenten messen, nicht nur gegen sich selbst.
Du betrachtest "nur" RDNA2 vs RDNA3. Ich habe den Vergleich zu nvidia deshalb gezogen, um zu zeigen, dass RDNA 2 absolut gesehen nicht wirklich so sensationell war. Es war einfach so gut, weil das davor schlecht war bzw. eben nvidia auf alter Fertigung operiert hat (Also sorry RDNA 1 war für mich ne Enttäuschung und Turing halt auch).
Natürlich ist der Sprung von RDNA3 viel geringer, wie RDNA2, aber who cares?
Ich (als Kunde) betrachte nunmal, was auf dem Markt verfügbar ist und da war RDNA 2 eben auch nur gegen sich selbst so gut. Gegen nvidia waren sie zwar in manchen Disziplinen besser, aber eben nicht so Meilenweit, wie du RDNA 2 bepreist, denn du vergleichst es mit AMD selbst (wo sie durchaus gut waren). Aber ich vergleiche halt die absolute Produktleistung und dazu gehört für mich die Betrachtung des Konkurrenten mit dazu.
Also wenn Konkurrent A in Gen 0 schlecht war, in Generation 1 dann einen super Sprung macht (aber gegenüber dem Konkurrent "nur" leicht besser ist), dann sehe ich als Kunde eben auch, dass der Sprung nur deshalb so gross war, weil sie davor so schlecht waren.
So als Analogie Zen1. Das war absolut betrachtet auch ein Murks, aber verglichen mit Bulldozer eben nicht.
Aber ich verstehe jetzt, was du meinst. Du betrachtest die reine Entwicklung der uArch. Ich habe eben das Produkt gemeint, als ich danach gefragt habe, was RDNA 2 so besonders macht (es war endlich mal brauchbar, aber so Wunderbar war es dann eben nicht, wenn man alle Konkurrenten einbezieht. Zumindest nicht für mich. Seit RT und co. gibt es ja auch immer eine Gewichtung, die man für sich als Kunde selber entscheiden muss).
Naja wenn du es so siehst, wirst du ausschließlich Nvidia GPUs kaufen müssen. Nvidia wird man nunmal mit <1/10 der Resources nicht besiegen können. Und im Gegensatz zu Intel pennt Nvidia nicht.
Entsprechend macht die Diskussion wahrscheinlich langfristig überhaupt keinen Sinn.
Aber grundsätzlich kann man ein besserer Zweiter sein. Und das wird man automatisch wenn man relativ zum Vorgänger das bessere Produkt macht. Und RDNA3 war dort einfach verkackt. Wäre es relativ zu RDNA2 das gleiche wie RDNA2 zu 1, wäre man viel viel näher an NVs Produkten dran und wäre ein besserer Zweiter. Entsprechend interessanter sind die Produkte für die Masse.
Es geht ja hier nicht notwendigerweise um uns Nerds als Einzelpersonen. Ich sehe das auch so. Mir reicht FSR 2 von der Qualität nicht - solange das nicht mithalten kann, will ich keine Radeon haben. Gleiches gilt immer mehr für RT.
Aber es gibt eine große Masse an Leuten, denen das egal ist, für die das locker reicht.
Wenn da bessere Produkte da sind, hilft es allen.
BlacKi
2023-08-28, 11:28:07
Der kleine Plot war trotzdem interessant, weil ich da zum ersten Mal sah, dass bei 2,5Ghz nur knapp 900mV anliegen und da die Erkenntnis für mich kam, dass wir es nicht mit einem Taktbarkeitsproblem zu tun haben (im Sinne von: kritischer Pfad in der Implementierung übersehen, Spannung muss hoch geschraubt werden), sondern mit einem Grundverbrauchsproblem.
broken by design, denn alle rdna3 chips haben das problem in gaming. auch die monolitischen. als würde das dual issue für die probleme verantwortlich sein. oder sind es doch die unterschiedlichen taktdomänen?
Der_Korken
2023-08-28, 11:30:34
broken by design, denn alle rdna3 chips haben das problem in gaming. auch die monolitischen. als würde das dual issue für die probleme verantwortlich sein. oder sind es doch die unterschiedlichen taktdomänen?
Die Taktdomänen (von denen ich lange nichts mehr gehört habe, gibt es die bei N32 noch?) wirken für mich eher eine Notlösung, um die Symptome zu lindern, so als ob sie nie geplant war.
dargo
2023-08-28, 11:53:09
Du bist wie ein kleines Kind, dass sich mit "sich über andere Lustig machen versuchen" davon ablenken will, dass es einfach falsch liegt.
Wenn du normal diskutieren kannst, nimmt man dich vlt. ernst.
Ein letztes mal: Du vergleichst 2 Karten an 2 völlig verschiedenen Effizienzpunkten innerhalb der F/V-Kurve.
Wenn du nicht normal diskutieren kannst und deine Standpunkte nur mit Facepalm-Emojis vertreten kannst, dann Spare ich mir die Zeit ab jetzt.
Hat mit dir keinen Sinn, verschwendete Lebenszeit. Unfassbar dieses Brett vor dem Kopf.
Der kleine Plot war trotzdem interessant, weil ich da zum ersten Mal sah, dass bei 2,5Ghz nur knapp 900mV anliegen und da die Erkenntnis für mich kam, dass wir es nicht mit einem Taktbarkeitsproblem zu tun haben (im Sinne von: kritischer Pfad in der Implementierung übersehen, Spannung muss hoch geschraubt werden), sondern mit einem Grundverbrauchsproblem.
WTF? Auf welcher Grundlage diskutieren hier manche? :freak: Nicht böse gemeint... aber das hatte ich schon vor 5 Monaten im N31-Thread gepostet und sicherlich auch andere User schon vor mir bevor ich die RX 7900XTX in die Finger bekam.
BlacKi
2023-08-28, 12:09:22
Die Taktdomänen (von denen ich lange nichts mehr gehört habe, gibt es die bei N32 noch?) wirken für mich eher eine Notlösung, um die Symptome zu lindern, so als ob sie nie geplant war.ja, stimmt, denn n33 hat die nichtmehr und der säuft trotzdem relativ zur performance.
Der_Korken
2023-08-28, 12:22:03
WTF? Auf welcher Grundlage diskutieren hier manche? :freak:
Bitte den ganzen Post lesen ->
Sowas ähnliches habe ich kurz nach dem Launch mal in irgendeinem englischsprachigen Forum gesehen.
"kurz nach dem Launch" im Sinne von "Eine Woche danach".
ja, stimmt, denn n33 hat die nichtmehr und der säuft trotzdem relativ zur performance.
Die Taktdomäne ist nicht die Ursache des Saufens, sondern ein Workaround, um etwas von der Performance zu retten. Wenn das Problem im Backend sitzt und das Frontend unabhängig davon takten kann, ist es naheliegend das Frontend höher zu takten, um auf anderem Wege die Leistung der GPU zu erhöhen. Leider hat AMD das ganze Tuning mit RDNA3 zugenagelt, sonst hätten wir mittlerweile vielleicht schon Tools, um beide Taktdomänen einzustellen. Wäre sicher interessant gewesen damit ein paar Verbrauchstests zu machen.
Complicated
2023-08-28, 12:58:54
Die Taktdomänen (von denen ich lange nichts mehr gehört habe, gibt es die bei N32 noch?) wirken für mich eher eine Notlösung, um die Symptome zu lindern, so als ob sie nie geplant war.Die brauchst du um unterschiedlich taktende Chiplets anzubinden - das ist IMHO eine Designentscheidung mit der man leben muss. Eher Vorarbeit in der Architektur denn eine Notlösung, damit man beim binning großzügiger sein kann und passende Chiplets kombinieren kann, wenn es Multi-GCDs werden sollen.
Der_Korken
2023-08-28, 13:37:31
Die brauchst du um unterschiedliche taktende Chiplets anzubinden - das ist IMHO eine Designentscheidung mit der man leben muss. Eher Vorarbeit in der Architektur denn eine Notlösung, damit man beim binning großzügiger sein kann und passende Chiplets kombinieren kann, wenn es Multi-GCDs werden sollen.
Daran habe ich noch gar nicht gedacht, aber es ergibt Sinn. Damit passt das Bild eigentlich sogar noch besser zusammen, denn nur um anschließend das Backend 8% niedriger zu takten und etwas Strom zu sparen (im selben Chip wohlgemerkt), macht man so einen Kniff nicht - da hätte man auch das Frontend stärker machen oder ein paar CUs einsparen können.
basix
2023-08-28, 22:08:15
ja, stimmt, denn n33 hat die nichtmehr und der säuft trotzdem relativ zur performance.
N33 hat die auch. Nur liegen sie näher zusammen.
https://www.techpowerup.com/312978/reports-suggest-amd-ending-production-of-navi-23-gpu
Damit gäbe es von der 6600(XT) nur noch Reste. Wird dann komplett von der 7600 übernommen.
Denniss
2023-08-29, 23:09:51
Dann gibts bestimmt noch ne 7500 als Ersatz für die 6600 im Bereich um 200€
BlacKi
2023-08-29, 23:21:20
keine neue SKU laut amd
Die 7600 wird sowieso auf unter 200€ fallen, daher brauchts auch keine neue. Darüber kann N22 übernehmen, falls das Ding weiterproduziert wird.
Denniss
2023-08-30, 09:29:07
Keine neuen Chips laut AMD, von Salvage-Versionen war nicht die Rede.
Nur weils oft wiederholt wird ist die kolportierte Aussage nicht richtig.
Die 7600 wird nicht unter 200 fallen, die wird höchsten bei 250 kleben bleiben wie die Vorgänger.
Linmoum
2023-08-30, 09:35:41
Doch, von Salvages war explizit die Rede, da Herkelman neue SKUs (nicht Chips!) ausgeschlossen hat. Chips gibt's anhand der Aussage aber sowieso keine weiteren und einen abgespeckten N33 hat er damit auch ausgeschlossen. Höchstens gibt's noch sowas wie eine 7650XT mit mehr Takt.
BlacKi
2023-08-30, 10:00:01
Keine neuen Chips laut AMD, von Salvage-Versionen war nicht die Rede.
Nur weils oft wiederholt wird ist die kolportierte Aussage nicht richtig.
Die 7600 wird nicht unter 200 fallen, die wird höchsten bei 250 kleben bleiben wie die Vorgänger.das canceln von n41/42 deutet auf R/D einsparungen hin, wohl zugunsten von ai chips, dort sind die margen 10x so hoch. eine neue SKU, dazu gehört auch das schnippeln von vorhandener chips, kostet R/D, was man lieber woanders einsetzt.
mit gaming macht man wohl einfach zu wenig gewinne. eine zen5 cpu mit 3dvcache wirds wohl ebenfalls nicht zum release von zen 5 cpus geben. wohl auch nicht mit 3dcache + zen5c chips wie moores law es gerne hätte. aber es sieht für mich einfach danach aus, das alles in AI gesteckt wird, um nicht den anschluss zu verlieren. gaming hat keine prio.
dildo4u
2023-08-30, 10:14:38
Das wird die CPU nicht betreffen AMD GPU sind wesentlich komplexer vom Paceking her, die X3D CPU gibt es schon in Masse für billig.
Die Chiplets und das Packeing des 7800x3D sind ein Witz gegenüber der 7700XT z.b.
Irgendwann wird das mMn mal so aussehen:
7600 -> um die 220€
6750GRE -> 250€
6750XT -> 330€
7700XT -> 420€
7800XT -> <500€
7900GRE -> 650€
7900XT -> 750€
7900XTY -> 950€
Und später ersetzt mMn N44 die restlichen 6000er und die N43 die 7900GRE und XT.
Dann gibts sicherlich:
7600 -> 200€
8600 -> 300€
8600XT -> 350€
7700XT -> 400€ (auch mit N31)
7800XT -> 480€
8800XT -> 650€
8900XT -> 850€
7950XTX -> 950€
127.0.0.1
2023-08-30, 14:00:44
Aaargh... Die 7800er Partnerkarten, die ich bisher sah, sind ja alles Riesenklopper. Gibts einen Grund warum die 32cm+ in der Länge haben? Werden die nach Metern verkauft? Bin ganz fickrig auf ne 7800 als Ablöse für meine gute alte GTX970 aber in den Fractal Design C passen die wohl nur rein wenn man den Frontlüfter weglässt. Kack. Die einzige "Kompakte" bisher ist wohl ne Sapphire Pulse mit 28cm, taugen die was? Also die Puls Modelle? :uponder:
Linmoum
2023-08-30, 15:08:55
Braucht halt dickere Klopper, da es bei der Referenz ja schon 263W sind. Da werden viele Customs sicherlich schon Richtung 300W gehen.
BlacKi
2023-08-30, 15:16:32
naja, da die 315w mba karten mit 276 klar kommen, hätte man auch karten unterhalb von 267mm bringen können.
naja, hier ist die 7800xt pulse mit 2 lüftern mit 280mm. https://geizhals.de/sapphire-pulse-radeon-rx-7800-xt-11330-02-20g-a3010480.html
gibts eigentlich von amd mba karten zur 7700xt und 7800xt?
€dit, mba ja, aber auch nur 2 lüfter. vermutlich aber kompakter als 280mm.
Das wird die CPU nicht betreffen AMD GPU sind wesentlich komplexer vom Paceking her, die X3D CPU gibt es schon in Masse für billig.
Die Chiplets und das Packeing des 7800x3D sind ein Witz gegenüber der 7700XT z.b.mir gings darum, wieviel geld oder personal man von den AI chips abzieht um den 8800x3d zu entwickeln. zumal man die non x3ds super cheesen können wird, was extra geld einbringt.
BlacKi
2023-08-30, 15:19:28
sry für doppelpost
bbott
2023-08-30, 15:22:14
Aaargh... Die 7800er Partnerkarten, die ich bisher sah, sind ja alles Riesenklopper. Gibts einen Grund warum die 32cm+ in der Länge haben? Werden die nach Metern verkauft? Bin ganz fickrig auf ne 7800 als Ablöse für meine gute alte GTX970 aber in den Fractal Design C passen die wohl nur rein wenn man den Frontlüfter weglässt. Kack. Die einzige "Kompakte" bisher ist wohl ne Sapphire Pulse mit 28cm, taugen die was? Also die Puls Modelle? :uponder:
Die Pulse sind normalerweise Grundsolide (auch nicht an die Kotzgrenze OC, also eher ECO), sollte besser als die Referenz sein, aber keine Nitro. Würde auf Test warten, ob die Pulse Generation auch wieder ok ist.
DrFreaK666
2023-08-31, 07:40:04
"AMD Radeon RX 7700 XT GPU Reportedly On Par With RX 6800 XT In 3DMark Time Spy Benchmark"
https://wccftech.com/amd-radeon-rx-7700-xt-gpu-on-par-with-rx-6800-xt-3dmark-time-spy-benchmark/
dildo4u
2023-08-31, 08:57:19
Finde ich jetzt nicht erstaunlich wenn sie das selbe wie die 6800 schafft gäbe es 0.0 Performance per Watt Verbesserung.
So sind es 15%?
Jaa, dabei muss man aber bedenken, dass die 6800 nah am Sweetspot läuft, während das weder die 7700XT noch die 7800XT tun.
Platos
2023-08-31, 09:09:43
War es nicht Timespy, der seit dieser Generation nicht mehr aussagekräftig die Perfomancezuwächse zwischen dieser und der letzten Generation abbilden kann oder habe ich da was falsch in Erinnerung?
dildo4u
2023-08-31, 09:12:50
War es nicht Timespy, der seit dieser Generation nicht mehr aussagekräftig die Gamingperfomance zwischen dieser und der letzten Generation abbilden kann oder habe ich da was falsch in Erinnerung?
Ich würde nur AMD mit AMD vergleichen wie dort zu sehen ist Intel Arc 770 bei Timespy auf 4060TI Level muss aber für 300$ verkauft werden da die Performance schwankt.
Linmoum
2023-08-31, 09:24:18
Bevor ich 3DMark als Leistungseinordnung nutze, nehme ich dann doch lieber Herstellerbenchmarks.
Linmoum
2023-08-31, 20:04:10
Kann sich noch wer daran erinnern, wie sich AMD letztes Jahr über den 12VHPWR bei Ada lustig gemacht hat? Stellt sich heraus, dass sie zu dem Zeitpunkt wenigstens bei N32 aber damit geplant hatten. ;D
https://videocardz.com/newz/amd-confirms-radeon-rx-7800-7700-xt-gpus-were-to-use-12vhpwr-connector-but-the-idea-was-dropped
Am Ende hat man sich dann dagegen entschieden, nachdem die Probleme aufgetreten sind. Und auch, weil der Stecker laut Scott scheinbar nicht "nutzerfreundlich" genug ist. Aber für die Zukunft behält man sich es offen, ihn trotzdem zu nutzen. Hätte man sich die ganze Schadenfreude und Verhöhnung des 12VHPWR letztes Jahr auch schenken können.
Denniss
2023-08-31, 20:14:41
Warum schenken können? die haben das Problem rechtzeitig entdeckt - ob selbst oder durchs grüne Lager - und sind rechtzeitig zurückgerudert. NV hats ja knallhart bei allen durchgezogen.
Linmoum
2023-08-31, 20:20:44
Die haben das Problem bei der Konkurrenz entdeckt. Sagt er ja eigentlich auch ziemlich offenkundig:
We removed it, and that was a purposeful removal. You shouldn’t blame end users for issues you have.
Letzteres gab es erst, als die Karten im Umlauf waren und Reddit & Co. sich mit Berichten gehäuft haben. Da wollte man sich dann bei AMD offensichtlich gar nicht (mehr) darauf einlassen. Sagt sich natürlich einfach, wenn man noch kein Produkte damit am Markt hat. Davon ab ist die Argumentation von AMD auch albern, auch bei Ampere gab's schon bei Nividia keine 6/8-pin mehr. Das Problem ist auch nur dann eines, wenn der Stecker nicht richtig steckt(e). Was einfach genug sein muss und kein Problem sein darf. Der Stecker selbst als solcher ist aber kein Problem, daher gab's im Endeffekt auch keinen Grund für Nvidia, da irgendwas zurückzurufen. Der 12VHPWR ist praktisch, kompakt und spart Kabel im Gehäuse. Gibt nichts, was dagegen spricht.
Langlay
2023-08-31, 20:27:56
Warum schenken können? die haben das Problem rechtzeitig entdeckt
Böse Zungen würden behaupten ist auch einfacher wenn man immer etwas hinterher ist.
DrFreaK666
2023-08-31, 20:59:29
...Der Stecker selbst als solcher ist aber kein Problem...
Genau, deswegen gabs auch keine neue Version
https://www.computerbase.de/2023-07/neuer-steckertyp-der-kritische-12vhpwr-stecker-wird-als-12v-2x6-neu-aufgelegt/
Denniss
2023-08-31, 23:42:47
Der Stecker ist eine Fehlkonstruktion und Vollkatastrophe. Auch der "Fix" ist eher ein Workaround der aber nichts an grundlegenden Problemen ändert.
Ein Hauptproblem wurde bisher nicht gelöst - die ungenügende Arretierung durch den einzelnen schmalen Haken in der Mitte - bei so einem breiten Stecker ist das einfach nicht genug.
Dazu die sehr feinen Kontakte durch die dann 600W durchgeprügelt werden.
Leonidas
2023-09-01, 11:25:57
https://www.techpowerup.com/312978/reports-suggest-amd-ending-production-of-navi-23-gpu
Damit gäbe es von der 6600(XT) nur noch Reste. Wird dann komplett von der 7600 übernommen.
Fehlinterpretation, trotz dass die Quelle sehr eindeutig ist. Eingestellt wird die 6650XT, nicht der komplette N23-Chip. Die 6600 non-XT bleibt (vorerst).
Doch, von Salvages war explizit die Rede, da Herkelman neue SKUs (nicht Chips!) ausgeschlossen hat.
Nein. Er hat neue ASICs ausgeschlossen, neue Varianten hingegen nicht. = neue SKUs möglich.
War es nicht Timespy, der seit dieser Generation nicht mehr aussagekräftig die Perfomancezuwächse zwischen dieser und der letzten Generation abbilden kann oder habe ich da was falsch in Erinnerung?
Korrekt in Erinnerung. War perfekt bei Ampere/RDNA2. Heuer nun nur noch grob gleichlautend, ergo mit Spielraum zu beachten.
Hint: 7700XT hat 95% der Rechenleistung der 7800XT. Speicherinterface und IF$ zählen bei TimeSpy nicht mehr so sehr.
SimonGreen
2023-09-01, 14:42:29
Wie denkt ihr könnten sich die 7800/7700er Preise auf die konkurrierenden Nvidia Karten Preise auswirken?
7800xt schneller und günstiger als 4070?
TheAntitheist
2023-09-01, 14:46:20
Wie denkt ihr könnten sich die 7800/7700er Preise auf die konkurrierenden Nvidia Karten Preise auswirken?
7800xt schneller und günstiger als 4070?
bei 88% Marktanteil juckt das Nvidia glaube gar nicht, leider.
100€ sind die GPUs ja mindestens sowieso mehr wert durch die features. eine 4070 für 600€ wäre vielleicht noch möglich.
€dit: sehe gerade das es die ja schon für 600€ gibt, dann ist der Unterschied zur 7800 ja gar nicht groß.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.