Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
OgrEGT
2022-02-05, 11:50:43
Also 2x Mi200 = 300?
MI200 Dual MCM
MI300 Triple MCM
?
nordic_pegasus
2022-02-05, 14:05:28
Im Prinzip nur eine Bestätigung dessen, was vor allem Bondrewd schon lange gesagt hat: N31 und N32 in N5/N6, N33 nur N6.
gab es nicht zuletzt noch Gerüchte, das Navi31 "nur" 2 Chiplets im Master-Slave Verbund wäre? Das hat mich immer an die erste Generation Threadripper erinnert, welche ja auch ihre Schwächen hatte. Wenn jetzt wirklich direkt reine Grafik-Chiplets und dazu ein I/O-Die mit zentralem IF-Cache kommt (also der Zen2/3 Ansatz), klingt das verdammt nice für mich als Laien ;-)
Sunrise
2022-02-05, 14:16:38
MI300 in 6nm überrascht etwas
Da kommt dann wohl eine größere Änderung in 4nm/3nm auf uns zu.
basix
2022-02-05, 14:27:50
gab es nicht zuletzt noch Gerüchte, das Navi31 "nur" 2 Chiplets im Master-Slave Verbund wäre? Das hat mich immer an die erste Generation Threadripper erinnert, welche ja auch ihre Schwächen hatte. Wenn jetzt wirklich direkt reine Grafik-Chiplets und dazu ein I/O-Die mit zentralem IF-Cache kommt (also der Zen2/3 Ansatz), klingt das verdammt nice für mich als Laien ;-)
Das mit Master/Slave stimmt schon. Das sind 2x GCDs in 5nm. Daneben soll es aber noch MCDs geben, welche den Infinity Cache beinhalte und anscheinend 3D-Stacked auf/unter den GCDs platziert werden (vermutlich als Brücke zu den GCDs). Das MCD könnte noch sowas wie Tensor Core enthalten (gibt entsprechende Patente) und evtl. auch die GDDR6-PHY.
davidzo
2022-02-05, 14:28:00
gab es nicht zuletzt noch Gerüchte, das Navi31 "nur" 2 Chiplets im Master-Slave Verbund wäre?
Ich glaube das verwechselst du mit Arcturus / Mi200. Und die ist schon gelauncht in 2021, hat nichts mit RDNA3 zutun.
mboeller
2022-02-05, 14:46:08
MI300 in 6nm überrascht etwas
naja ist ja angeblich eine APU auf dem SH5 Socket.
Da ist dann, wenn das stimmt noch mehr überraschendes dabei als nur 6nm. Vielleicht hängt das dann auch mit den Semiacurate ZEN4 "news" zusammen.
dargo
2022-02-05, 15:29:58
Im Prinzip nur eine Bestätigung dessen, was vor allem Bondrewd schon lange gesagt hat: N31 und N32 in N5/N6, N33 nur N6.
https://videocardz.com/newz/amd-engineer-confirms-radeon-7000-rdna3-navi-3x-gpus-use-5nm-and-6nm-nodes
Ohje... ich hoffe immer noch diese 350-400+W bei N31 stimmen nicht. :(
maximus_hertus
2022-02-05, 15:52:11
Ohje... ich hoffe immer noch diese 350-400+W bei N31 stimmen nicht. :(
Über die Phase sind wir doch schon heraus. Heute reicht es doch bezahlbar und lieferbar zu sein ;)
Und 400W sagt ja erstmal für sich nicht viel aus, wenn man nicht die Leistung / fps dazu kennt.
Thunder99
2022-02-05, 17:08:27
Was interessieren mich die FPS wenn der Preis der Leistungsaufnahme zu hoch ist? Man kann sich auch die Energieeffizienz schön reden, just my 2 cents...
dargo
2022-02-05, 17:10:20
Und 400W sagt ja erstmal für sich nicht viel aus, wenn man nicht die Leistung / fps dazu kennt.
Es sagt sogar jede Menge aus. Das ist weit über dem was noch leise mit Luft zu kühlen ist. Schon die üblichen 300W halte ich für sehr grenzwertig. Leistung um jeden Preis? Nicht mit mir. :)
Linmoum
2022-02-05, 17:16:21
Du kannst auch 450W leise mit Luft kühlen, das erfordert halt nur sehr viel Materialaufwand. Davon ab gibt's ja nicht nur Luft.
Davon ab wird auch nicht jede SKU bei >300W liegen und gerade Nerds sollten zur Not wissen, wie man das PT selbst festlegt.
Am Ende sollte auch nicht der absolute Verbrauch zählen, sondern in erster Linie Perf/Watt. Und die wird auch mit potentiellen >400W massiv steigen, Chiplets sei Dank.
AffenJack
2022-02-05, 17:22:28
Es sagt sogar jede Menge aus. Das ist weit über dem was noch leise mit Luft zu kühlen ist. Schon die üblichen 300W halte ich für sehr grenzwertig. Leistung um jeden Preis? Nicht mit mir. :)
Musst du doch auch nicht kaufen. N31 ist nach allem was man hört für die Leute, die eben das schnellste haben wollen und denen ist in der Regel auch Leistungsaufnahme nicht so wichtig. Wenn du eh deine 1500€ für N31 zahlst, dann kannst bestimmt auch für 2000€ ne wassergekühlte Version davon kriegen, wenn dir die Lautstärke zu hoch ist.
Wieso sollte AMD die Geschwindigkeit für die Kunden einschränken, denen Leistung am wichtigsten ist?
dargo
2022-02-05, 17:22:29
Du kannst auch 450W leise mit Luft kühlen, das erfordert halt nur sehr viel Materialaufwand. Davon ab gibt's ja nicht nur Luft.
Ich habe jetzt schon einen Ziegelstein im Rechner der auf ~260W "gebremst" ist. Damit bin ich sehr zufrieden und mehr Wattage möchte ich auch nicht haben. Zwei Ziegelsteine brauche ich nun wirklich nicht im Rechner. Wakü interessiert mich nicht.
Musst du doch auch nicht kaufen. N31 ist nach allem was man hört für die Leute, die eben das schnellste haben wollen und denen ist in der Regel auch Leistungsaufnahme nicht so wichtig. Wenn du eh deine 1500€ für N31 zahlst, dann kannst bestimmt auch für 2000€ ne wassergekühlte Version davon kriegen, wenn dir die Lautstärke zu hoch ist.
Wieso sollte AMD die Geschwindigkeit für die Kunden einschränken, denen Leistung am wichtigsten ist?
Wieso geht man nicht gleich auf 1000W rauf wenn Leistung über allem steht? :rolleyes: Schon mal was von Perf/W gehört? Die gekeulten Chips schneiden da immer am schlechtesten ab.
Thunder99
2022-02-05, 17:49:50
Ich mache da nicht mehr mit. Egal welcher IHV. Bei 300W ist Schluss. Da kann der Chip noch so schnell sein :wink:
dargo
2022-02-05, 17:54:31
Ich mache da nicht mehr mit. Egal welcher IHV. Bei 250W ist Schluss. Da kann der Chip noch so schnell sein :wink:
Eben... so sehe ich das auch. Wobei ich schon jetzt 300W akzeptiert und mir da mit UV etwas den Chip zurecht gestutzt habe. Aber irgendwo ist bei mir dann die Grenze erreicht. Es ist ja nicht nur die Graka... wenn man an der Graka einen riesen Kühler dran hat und diese dann um die 350-400W säuft dann heizt sich im Gehäuse ja alles ganz schön auf. Die hohe Abwärme muss ja auch irgendwie da wieder raus. Bleibt dann nur zu hoffen, dass N32 sich gut von der RX 6800XT absetzen kann. Mit gut meine ich auch um die +80% mehr Performance damit sich ein Upgrade auch spürbar lohnt.
r3ptil3
2022-02-05, 18:22:25
Ich bin sicher, dass Multi-Chip-Design wurde bestimmt auch durch die besseren Möglichkeiten in Sachen Effizienz gewählt.
350W für Navi31 bei der Leistung dürfte wohl zu verkraften sein und man muss ja auch bedenken, die wenigsten kaufen sich eine 1500$ GPU.
Es gibt ja dann auch noch Navi32.
Schade ist es aber schon ein bisschen, wie auf Basis der RX 6900 XT, wenn man die letzten paar % Leistung massiv auf Kosten der Effizienz opfert.
Meine RX 6900 XT läuft bspw. mit 2300-2350Mhz bei 200W - das ist für mich das absolute Optimum bei der Leistung. Was vergleichbares wird bestimmt auch bei Navi 31, 32 möglich sein, halt immer auf Kosten der eigenen Zeit und Geduld.
AffenJack
2022-02-05, 21:16:32
Wieso geht man nicht gleich auf 1000W rauf wenn Leistung über allem steht? :rolleyes: Schon mal was von Perf/W gehört? Die gekeulten Chips schneiden da immer am schlechtesten ab.
Irgendwann kommt auch physikalisch ein Limit, aber es gibt immer verschiedene Kundenkreise und die Kühler werden immer besser. Mal abgesehen von Silentleuten hat die TDP der 3090 kaum wen interessiert und zeigt klar, dass den Leuten das nicht wichtig ist.
Abgesehen davon wird für N31 auch ein Performancesprung diskuttiert, der deutlich über den 70% liegt, die wir sonst etwa als Sprung je Generation haben. Ohne Leistungsaufnahmeerhöhung gäbe es N31 schlicht gar nicht mit soviel Performance. Es ist mehr oder weniger eine neue Leistungsklasse obendrauf und fertig.
Was stört dich nun daran, dass du den üblichen Leistungssprung mit N32 bekommst, andere mit mehr Verbrauch, aber einen größeren Sprung erkaufen?
BlacKi
2022-02-05, 21:22:35
wattzahlen sind relativ zu sehen und nicht absolut. meine tuf 3080 mit 350w ist leiser als meine 2070 und 1080ti, lediglich die 1070 war noch leiser, aber auch kein wunder bei 150w + oc.
die 500w die mit den kommenden karten kommen werden wohl kaum lauter sein, weil man die kühlung ja stehts anpasst.
ob ich jedes fitzelchen leistung benötige? eher nicht. ich habs nicht bereut die 3090 zu verkaufen und die 3080 zu nehmen. mir reicht es wenn es einen guten sprung gibt, ohne gleich ein loch in den geldbeutel zu reissen. gerade mit den neuen deep learning stuff, kann man ziemlich einfach kompromisse eingehen nicht den top dog zu kaufen.
-/\-CruNcher-/\-
2022-02-05, 21:33:17
Wie hoch ist der Architekturgewinn zum Node Gewinn ?
Irgendwann kommt auch physikalisch ein Limit, aber es gibt immer verschiedene Kundenkreise und die Kühler werden immer besser. Mal abgesehen von Silentleuten hat die TDP der 3090 kaum wen interessiert und zeigt klar, dass den Leuten das nicht wichtig ist.
Abgesehen davon wird für N31 auch ein Performancesprung diskuttiert, der deutlich über den 70% liegt, die wir sonst etwa als Sprung je Generation haben. Ohne Leistungsaufnahmeerhöhung gäbe es N31 schlicht gar nicht mit soviel Performance. Es ist mehr oder weniger eine neue Leistungsklasse obendrauf und fertig.
Was stört dich nun daran, dass du den üblichen Leistungssprung mit N32 bekommst, andere mit mehr Verbrauch, aber einen größeren Sprung erkaufen?
Als Hersteller sollte man sich seiner Verantwortung bewusst sein und wohl überlegen ob die erhöhte Leistungsaufnahme und der damit erreichte Performancegewinn das Produkt als Massen Endkonsumenten Produkt heutzutage überhaupt rechtfertigt.
Ansonsten ist es Cloud territorium mit multi user usage
Da wir eine momentan sehr klare auf Konsolen ausgerichtete Entwicklungs Baseline haben.
Wenn du über 2x des Verbrauchs einer Konsole im gesammten schlitterst bei 4K 60 ist das nicht wirklich toll
Etwas anders würde es für VR aussehen da kann es schon gerechtfertigter sein.
iamthebear
2022-02-05, 22:19:56
Also um den Verbrauch mache ich mir ehrlich gesagt wenig Sorgen solange die Performance passt. Dann schraube ich eben die Performance 10% runter und habe eine schöne kühle 300W Karte abermit 500W Kühler die lange lebt und leise ist.
Sorgen mache ich mir eher mehr um den Preis und zwar nicht nur um Navi31, sondern auch 32. Ich befürchte, dass die echten Straßenpreise von Navi33 schon bei ca. 700 Euro liegen werden und Navi 32 dann um die 1200+ liegen wird was ich eigentlich nicht mehr bezahlen will.
reaperrr
2022-02-05, 23:45:54
Also um den Verbrauch mache ich mir ehrlich gesagt wenig Sorgen solange die Performance passt. Dann schraube ich eben die Performance 10% runter und habe eine schöne kühle 300W Karte abermit 500W Kühler die lange lebt und leise ist.
Sorgen mache ich mir eher mehr um den Preis und zwar nicht nur um Navi31, sondern auch 32. Ich befürchte, dass die echten Straßenpreise von Navi33 schon bei ca. 700 Euro liegen werden und Navi 32 dann um die 1200+ liegen wird was ich eigentlich nicht mehr bezahlen will.
Genau das befürchte ich auch.
Genauer gesagt, wenn es stimmt, dass N33 (solange die kolportierten 8GB reichen) in 1080p so schnell wie oder etwas schneller als eine 6900XT werden soll, und Ethereum bis dahin nicht entweder crasht oder auf PoS umstellt, könnte es selbst für N33 Richtung 1000+ Straßenpreise gehen.
fondness
2022-02-06, 10:36:55
Das mit Master/Slave stimmt schon. Das sind 2x GCDs in 5nm. Daneben soll es aber noch MCDs geben, welche den Infinity Cache beinhalte und anscheinend 3D-Stacked auf/unter den GCDs platziert werden (vermutlich als Brücke zu den GCDs). Das MCD könnte noch sowas wie Tensor Core enthalten (gibt entsprechende Patente) und evtl. auch die GDDR6-PHY.
Jup, genauso. Bzw. muss das Infinity-Cache-Die eigentlich unter den Logik Dies platziert werden, dann braucht man auch keine Ausgleichs-Dies und hat kein Problem mit der Kühlung. Alles andere wäre nur schwer vorstellbar.
Der Vorteil eines eigenen Cache-Dies liegt zudem auf der Hand, ziehe Zen3: Man erreicht ca. die doppelte Packdichte beim Cache wenn man nicht mit Logik mischen muss. Die 512Mb Cache sollte also mit ~200mm² in 7nm, bzw. noch weniger in 6nm möglich sein.
Die Spec scheint ja auch schon relativ klar zu sein. Einzige Frage bleibt noch TDP und Leistung.
basix
2022-02-06, 11:11:28
So klar ist mir die Spec noch nicht ;) 512 MByte halte ich ehrlich gesagt für Overkill. 256MByte würden vermutlich auch reichen (bei 4K ~4x effektive Bandbreite einer 3070 bei ~4x Performance). 64MByte + Matrix + GDDR6 PHY wäre ~60mm2 gross. Eigentlich perfekte Chiplet Grösse. Bei 128MByte wären es 90-100mm2. Das wäre ziemlich viel, vor allem wenn man pro GPU 3-4x davon braucht. Und rein geometrisch wären die MCDs dann auch sehr stark ablänge Rechtecke, was fertigungstechnisch nicht optimal ist ind die Distanz zwischen den GCDs erhöhen würde. Deswegen: 64 MByte IF$ pro MCD und dann total 256 MByte IF$ bei N31 scheint mir sinnvoller.
Die 512Mb Cache sollte also mit ~200mm² in 7nm, bzw. noch weniger in 6nm möglich sein.
AMD gibt 27mm2 für 32 MByte an. Beim V-Cache sind es 36mm2. Dichter als beim V-Cache geht es vermutlich nicht wirklich, auch nicht in 6nm. Wären also ~280mm2 für 512 MByte. Deswegen: Overkill. Dann lieber 18-21 Gbps GDDR6 verwenden.
robbitop
2022-02-06, 11:41:35
Naja Overkill? 512 mib wären ja für 2x N31. Und jeder davon hat soweit ich weiß mehr Rechenleistung als N21. Entsprechend braucht man um pro TFLOP/s gleich bleibt allein schon mehr als 256 mib IF$. Und wenn man sich AMDs Diagramm (und auch die Benchmarks von N21) anschaut, ist die Hitrate bei 4K nicht mehr so berauschend. 4K word aber sicherlich der Anspruch dieser SKU sein.
Vor dem Hintergrund, dass Datenübertragung heutzutage den Großteil des Energiebedarf einer modernen GPU ausmachen ist jeder Cachehit eine gute Energieersparnis. Und die wiederum kann man für 2x so fette Computechiplets sicher gut gebrauchen.
Aus dem Grund halte ich 512 mib in Summe für sinnvoll. Und zwar als vcache ausgeführt wegen der guten Dichte und der Yield der Chiplets und weil man nicht den neusten Fertigungsprozess braucht.
lowkres
2022-02-06, 11:49:07
Navi 32 klingt sehr interessant vom Aufbau her. Kann man da eig erwarten das wir gegenüber einer 6900XT eine Verdopplung der Leistung sehen können? Falls ja wäre das für ein Navi 32 tatsächlich beachtlich.
AffenJack
2022-02-06, 12:01:55
Genauer gesagt, wenn es stimmt, dass N33 (solange die kolportierten 8GB reichen) in 1080p so schnell wie oder etwas schneller als eine 6900XT werden soll, und Ethereum bis dahin nicht entweder crasht oder auf PoS umstellt, könnte es selbst für N33 Richtung 1000+ Straßenpreise gehen.
Was mich neben dem Speicher an dem Erreichen der 6900XT durch N33 etwas zweifeln lässt ist die 6950XT. Laut Greymon kommt die im Juli erst. N33 soll dann aber schon 3 Monate später kommen. Ergibt für mich nur Sinn, wenn die 6950XT über N33 steht und soviel Unterschied 6900XT vs 6950XT wirds jetzt nicht geben.
nordic_pegasus
2022-02-06, 12:08:37
Aus dem Grund halte ich 512 mib in Summe für sinnvoll. Und zwar als vcache ausgeführt wegen der guten Dichte und der Yield der Chiplets und weil man nicht den neusten Fertigungsprozess braucht.
könnte AMD auf diese Weise nicht auch noch die Salvage Chips des Cache-Chiplets in Navi32 verwerten? Also die guten Chips mit vollen 512MB in Navi31, alles was zumindest 256MB (oder 384MB) zusammenbringt, in Navi32.
basix
2022-02-06, 12:12:51
Naja Overkill? 512 mib wären ja für 2x N31. Und jeder davon hat soweit ich weiß mehr Rechenleistung als N21. Entsprechend braucht man um pro TFLOP/s gleich bleibt allein schon mehr als 256 mib IF$. Und wenn man sich AMDs Diagramm (und auch die Benchmarks von N21) anschaut, ist die Hitrate bei 4K nicht mehr so berauschend. 4K word aber sicherlich der Anspruch dieser SKU sein.
Vor dem Hintergrund, dass Datenübertragung heutzutage den Großteil des Energiebedarf einer modernen GPU ausmachen ist jeder Cachehit eine gute Energieersparnis. Und die wiederum kann man für 2x so fette Computechiplets sicher gut gebrauchen.
Aus dem Grund halte ich 512 mib in Summe für sinnvoll. Und zwar als vcache ausgeführt wegen der guten Dichte und der Yield der Chiplets und weil man nicht den neusten Fertigungsprozess braucht.
Es ist ja nicht so, dass ich nicht gerne 512 MiB hätte. Aber man muss auch den ökonomischen Aspekt beachten. +140mm2 an Fläche für +256MByte IF$ ist nicht gerade wenig, wenn man es nicht unbedingt braucht. Dann eben lieber etwas schnelleren GDDR6 verwenden, auch wenn das dann ein paar Watt mehr brauchen wird. Bei N32 wären es immer noch +100...110mm2, und diese SKUs werden in einem deutlich kompetitiveren Umfeld agieren müssen.
Und Rendering >4K halte ich für nicht nötig. Grund: XeSS, FSR 2.0, TSR. Alle Auflösungen >4K würde ich mit Temporal Upsampling erschlagen. Selbst bei 4K ist natives Rendering nicht zwingend sinnvoll, wenn man entsprechend gute Temporal Upsampling Techniken zur Verfügung hat.
Nightspider
2022-02-06, 12:42:12
Navi31 ist aber auch nicht für 4K gedacht.
Dafür reicht N32 schon locker, selbst für Cyberpunk mit Raytracing.
Und der IF$ von N31 muss zwingend auch für 5K reichen und teils auch höher, sonst landet man am Ende trotz mehr Leistung hinter der Konkurrenz wegen einem Bandbreitenlimit.
Was mich neben dem Speicher an dem Erreichen der 6900XT durch N33 etwas zweifeln lässt ist die 6950XT. Laut Greymon kommt die im Juli erst. N33 soll dann aber schon 3 Monate später kommen. Ergibt für mich nur Sinn, wenn die 6950XT über N33 steht und soviel Unterschied 6900XT vs 6950XT wirds jetzt nicht geben.
Kommt N33 wirklich als erster Chip der neuen Gen?
Bisher kam ja immer der beste Chip als erstes, das wäre N31.
robbitop
2022-02-06, 12:52:30
Ich denke man holt mehr pro W raus, wenn man eine höhere Hitrate hat als wenn man den VRAM noch weiter taktet. Ggf kann man den sram nich vielschichter stapeln oder aber auf die Fläche segmentieren. Ergebnis wären kleinere chiplets, die wiederum zu mehr Chips pro Wafer führen würden.
Man darf auch nicht vergessen, dass 2x N31 ein ziemlich ungewöhnlicher Sprung sein dürfte. N31 wird schon gut schneller als N21. Aber 2x davon - Faktor 2,5 ist nicht unrealistisch. Das würde aber auch bedeuten man könnte damit eine völlig neue Kategorie an GPUs aufmachen. Also oberhalb der bisherigen Highend Stufe und entsprechend den Preis auch deutlich erhöhen. Dann sind wiederum ein paar hunder mm2 egal und absolute Performance bei einem vernünftigen TDP Target zählen. Ein Target was noch „reasonable“ sein muss. Entsprechend spart hohe Hitrate viel Energie die für Rohleistung (also Takt und Einheiten) besser investiert ist.
Ich halte 256 mib pro N31 für nicht unplausibel zumindest.
Auf FSR 2.0 kann AMD dann noch nicht zählen weil die Verbreitung zum Launch gleich null ist. XeSS wird es zu dem Zeitpunkt auch nicht besser gehen. Und da das für die Eigenwirkung wichtig ist: es ist nicht von AMD. Schwierig, sich damit zu schmücken.
Für mich sieht 2x N31 danach aus als würde man so etwas launchen wollen wie damals die Titan Z oder die gtx690. Nur dass es out of the box funktioniert. Etwas was oberhalb bisherigen Enthusiast Produkten ist. Etwas was keine Kompromisse macht.
„Reicht für 4k aus“ kann ich bzw nicht nachvollziehen. In Zeiten wo Ray Tracing immer teurer und verbreiteter wird und ultra Details fps zum Frühstück verspeisen und 4K 120…144…165 Hz Monitore bei Enthusiasten stehen. Wer will schon 60 fps wenn er bei den Bedingungen 120 und mehr fps haben kann? Da ist noch viel Luft nach oben. Dazu kommt, dass der Leistungsbedarf ja auch steigt mit kommenden Spielen. 2022/23 ist nicht mehr 2020.
fondness
2022-02-06, 12:57:51
Was mich neben dem Speicher an dem Erreichen der 6900XT durch N33 etwas zweifeln lässt ist die 6950XT. Laut Greymon kommt die im Juli erst. N33 soll dann aber schon 3 Monate später kommen. Ergibt für mich nur Sinn, wenn die 6950XT über N33 steht und soviel Unterschied 6900XT vs 6950XT wirds jetzt nicht geben.
N31 kommt als erstes. N33 kann durchaus ein halbes Jahr nach N31 kommen, dann wären wir bei 9 Monaten welche die 6950XT hätte.
iamthebear
2022-02-06, 13:05:12
Man sollte auch bedenken, dass die 6950 XT ja kein neuer Die ist. Das werden wohl nur ein paar gebinnte 6900 XT Dies sein, bei denen die TDP etwas hoch geschraubt wird und schnellerer Speicher verbaut wird. Das ist nichts was jetzt wirklich Entwicklungskosten verursachen würde.
amdfanuwe
2022-02-06, 13:07:37
Wer, außer ein paar Gamer Freaks, hat eigentlich noch Interesse an N31?
Wird die Karte auch bei Grafikdesign oder Game Streaming Server eingesetzt oder verwenden die CDNA?
Im professionellen Bereich zählt Leistung und würde erklären, warum AMD da ans maximum gehen sollte.
Kann mir nicht vorstellen, dass sich der Entwicklungsaufwand für solch ein Prestigeobjekt für ein paar Gamer lohnt.
robbitop
2022-02-06, 13:13:47
Vielleicht nicht die Masse. Aber es werden auch heute genug 3090 zu 2000 usd und mehr verkauft. Weniger Stückzahl aber wesentlich mehr marge. Es gibt bei den 1% der Bestverdiener mehr Gamer als man denkt. Genug für so eine SKU. Allein die Halo Wirkung wäre es wert, weil die dem ganzen Produktstack und der Marke hilft.
r3ptil3
2022-02-06, 13:17:07
N31 kommt als erstes. N33 kann durchaus ein halbes Jahr nach N31 kommen, dann wären wir bei 9 Monaten welche die 6950XT hätte.
Wie kommst du darauf?
Ich habe in Erinnerung dass es genau umgekehrt ist, Navi 33, dann der Rest.
Nightspider
2022-02-06, 13:20:05
„Reicht für 4k aus“ kann ich bzw nicht nachvollziehen. In Zeiten wo Ray Tracing immer teurer und verbreiteter wird und ultra Details fps zum Frühstück verspeisen und 4K 120…144…165 Hz Monitore bei Enthusiasten stehen. Wer will schon 60 fps wenn er bei den Bedingungen 120 und mehr fps haben kann? Da ist noch viel Luft nach oben. Dazu kommt, dass der Leistungsbedarf ja auch steigt mit kommenden Spielen. 2022/23 ist nicht mehr 2020.
Klar gibts solche Fälle. Ich wollte nur damit sagen 4K ist sicherlich nicht die specs bestimmende Zielauflösung für N31.
Und die meisten brauchen in Singleplayer Spielen halt auch kein 120fps.
robbitop
2022-02-06, 14:09:00
Als Enthusiast „brauchst“ du nicht. Du begehrst. Hast du schon mal 120 Hz mit entsprechender framerate gezockt? Danach willst du nie wieder zurück. Auch nicht in Singleplayer Titeln.
Wenn genug über ist, konsumiert man nicht mehr nur nach „brauchen“. Sämtliche Luxusmarken leben davon. ;)
Nvidia sahnt schon länger mächtig ab - AMD will das sicher auch.
Als die 1000 usd/eur für GPUs gefallen sind: vorher war das so eine Art unausgesprochene Grenze. Jetzt ist bekannt, dass man auch mehr nehmen kann. Entsprechend wird immer mehr abgesahnt. Ein Produkt, was 2,5x Performance bringt wird man auch für 2000+ usd/eur in interessanten Stückzahlen absetzen können.
Nightspider
2022-02-06, 14:24:02
Zocke dauernd 144/144.
Aber bei manchen Singleplayer Spielen fallen mir bei >=120fps eher Fehler laufen, im Pacing, bei Animationen usw.
Auch letztens bei Crysis 2 Remaster bei 50-60fps.
robbitop
2022-02-06, 14:28:42
Habe bisher noch nicht einmal erlebt, dass 120 hz+ schlechter war als 60.
dargo
2022-02-06, 14:36:42
Was stört dich nun daran, dass du den üblichen Leistungssprung mit N32 bekommst, andere mit mehr Verbrauch, aber einen größeren Sprung erkaufen?
Es stört mich, dass ich keinen N31 bekomme nur weil das Ding zu viel säuft. Ich habe allerdings völlig den N31 Salvage vergessen muss ich zugeben. Wenn der bei 300W rauskommt bin ich beruhigt.
wattzahlen sind relativ zu sehen und nicht absolut. meine tuf 3080 mit 350w ist leiser als meine 2070 und 1080ti, lediglich die 1070 war noch leiser, aber auch kein wunder bei 150w + oc.
Was genau soll uns das sagen? Dass deine 2070 und 1080TI einfach nur laut waren? Wow... :freak:
Navi 32 klingt sehr interessant vom Aufbau her. Kann man da eig erwarten das wir gegenüber einer 6900XT eine Verdopplung der Leistung sehen können? Falls ja wäre das für ein Navi 32 tatsächlich beachtlich.
Wenn es tatsächlich heißt N33 = N21 und N31 = 2,5*N21 dann kann ein N32 nicht doppelt so schnell sein wie N21. Die Rechnung geht nicht auf.
Nightspider
2022-02-06, 14:42:59
N31 liegt doch eh nicht in deinem Preisfeld.
N31 wird 4stellig.
horn 12
2022-02-06, 14:43:06
Nun, Navi 31 wohl 350 bis 400 Watt
Navi 31 - Salvage wohl bei 320 bis max. 350 Watt (Customs)
Mit Untervolung knapp unter 300 Watt --- Könnte klappen und Hinkommen!
Bin mit meiner 6800XT bei a) 205 bis b) 225 Watt bei
a) 2.250 bis
b) 2.315 Mhz in etwa
dargo
2022-02-06, 14:50:02
N31 liegt doch eh nicht in deinem Preisfeld.
N31 wird 4stellig.
Bist du mein Buchhalter? Wäre mir neu.
AffenJack
2022-02-06, 15:24:15
Kommt N33 wirklich als erster Chip der neuen Gen?
Bisher kam ja immer der beste Chip als erstes, das wäre N31.
N31 kommt als erstes. N33 kann durchaus ein halbes Jahr nach N31 kommen, dann wären wir bei 9 Monaten welche die 6950XT hätte.
Alle Gerüchte der Leaker sagen gerade wie @bardh schon schreibt, dass N33 als erstes kommen wird und N31 erst später. Sollte nicht mal das stimmen, dann kann man auch alle anderen Angaben vergessen und wir sind bei Null. Das Datum ist schließlich immer als erstes bekannt.
Es stört mich, dass ich keinen N31 bekomme nur weil das Ding zu viel säuft. Ich habe allerdings völlig den N31 Salvage vergessen muss ich zugeben. Wenn der bei 300W rauskommt bin ich beruhigt.
Du kannst immer undervolten, um das Ding runterzukriegen. Wenn das nicht ausreicht ist N31 schlicht nichts für dich und du solltest dich in den unteren Bereichen umsehen, statt neidisch auf die Leute zu sein, die kompromisslose Leistung wollen.
Nightspider
2022-02-06, 15:58:56
Das N33 nur in 6nm kommt spricht zumindest dafür.
Kann natürlich trotzdem sein das N33 erst Q4 kommt und N31 und N32 erst 2023.
Ich hoffs aber nicht.
dargo
2022-02-06, 16:29:22
Du kannst immer undervolten, um das Ding runterzukriegen. Wenn das nicht ausreicht ist N31 schlicht nichts für dich und du solltest dich in den unteren Bereichen umsehen, statt neidisch auf die Leute zu sein, die kompromisslose Leistung wollen.
Wie kommst du darauf ich wäre auf Heizöfen neidisch? Also manchmal kann man hier echt nur noch mit dem Kopf schütteln. Lasst euch endlich mal was Neues einfallen als jedes Mal mit so nem Bullshit zu kommen. Mal davon abgesehen, dass ich aktuell eh keinen Drang zu einem Upgrade sehe, alles was ich spiele läuft schön mit hohen Frameraten. Kann sich natürlich Ende 2022 bis Anfang 2023 ändern, sehen wir dann.
horn 12
2022-02-06, 18:42:58
Navi 33 wird nicht Ersteres kommen, denn da ist ja Navi 21 6950 dafür da, auch wenn verdammt Teuer wird... dieser wird dann Frühjahr 2023 ersetzt durch Navi 33
und rechne dafür 899 bis 1099 Dollar wenn auch mit 16GB daherkommen sollte.
robbitop
2022-02-06, 18:45:43
Also ich finde absolute Leistungsaufnahme nicht problematisch wenn die Performance stimmt. Sagen wir mal doppelte Leistungsufnahme wäre ok bei doppelter oder größerer Leistung. Wenn die Kühlung so dimensioniert ist, dass es leise ist: wayne?
aufkrawall
2022-02-06, 18:54:59
Weils ohne WK ein Heizstrahler ist.
Berniyh
2022-02-06, 19:04:22
Weils ohne WK ein Heizstrahler ist.
Im Endeffekt gibt die Wasserkühlung doch die gleiche Wärmemenge ab, also wo ist dann der große Unterschied?
Und ehrlich gesagt stört es mich schon, wenn ich für eine Kühlung etc., die ich nicht brauche, dann 100€ mehr für das Teil zahle als notwendig wäre.
dargo
2022-02-06, 19:22:44
Im Endeffekt gibt die Wasserkühlung doch die gleiche Wärmemenge ab, also wo ist dann der große Unterschied?
Ein Wakü-Radi sitzt in der Regel oben im Gehäusedeckel. Dadurch wird die Abwärme auf dem kürzesten Wege nach draußen transportiert. Ein Luftkühler der ganze 300+W wegkühlen soll wälzt die ganze Abwärme nur im Gehäuse um. Die erwärmte Luft wird dann vom CPU-Kühler angesaugt und die CPU wird auch logischerweise unnötig wärmer.
Berniyh
2022-02-06, 19:39:44
Ein Wakü-Radi sitzt in der Regel oben im Gehäusedeckel. Dadurch wird die Abwärme auf dem kürzesten Wege nach draußen transportiert. Ein Luftkühler der ganze 300+W wegkühlen soll wälzt die ganze Abwärme nur im Gehäuse um. Die erwärmte Luft wird dann vom CPU-Kühler angesaugt und die CPU wird auch logischerweise unnötig wärmer.
Da die CPU bei Spielen (und das ist ja die Last für die man typischerweise beides braucht) selten voll ausgelastet ist ist da auch die thermische Belastung geringer.
Abgesehen davon haben GPUs ja inzwischen oft eine Kühllösung die warme Luft zumindest teilweise auch direkt aus dem Gehäuse befördert und wenn man noch Gehäuselüfter an entsprechenden Stellen anbringt, dann kann man auch generell die Temperatur im Gehäuse auf einem akzeptablen Niveau halten.
Ich bezweifle daher, dass der Unterschied aus der Sicht so groß sein wird.
Meridian12
2022-02-06, 19:42:10
Im Endeffekt gibt die Wasserkühlung doch die gleiche Wärmemenge ab, also wo ist dann der große Unterschied?
Und ehrlich gesagt stört es mich schon, wenn ich für eine Kühlung etc., die ich nicht brauche, dann 100€ mehr für das Teil zahle als notwendig wäre.
So ganz kennst du dich nicht mit Wasserkühlung aus,oder?
Erstmal ist,wie im Posting davor erwähnt, der Radiator so im Gehäuse angebracht, dass die Luft direkt rausgeblasen wird. Dann ist ein 360-480er Radiator auch mit mehr Fläche,Lüfter ausgestattet und kann somit viel mehr wegkühlen ,als die Grafikkartenlüfter können.
Dann gibt es noch die MoRa3 Variante, die erst gar nicht im Gehäuse sich befindet und somit bis auf das erwärmte Wasser keine Wärme im Gehäuse selber aufkommen lässt (bissel natürlich schon, aber im Vergleich zum Grafikkartenkühler IM Gehäuse).
Kurzum, Wakü ist schon eine ganz andere Hausnummer als Luftkühlung.
aufkrawall
2022-02-06, 19:46:44
Im Endeffekt gibt die Wasserkühlung doch die gleiche Wärmemenge ab, also wo ist dann der große Unterschied?
Der Luftstrom im Gehäuse, wenn es zu ist, oder an der Seite aus dem Gehäuse rauswirbelnd, wenn es offen ist. Viel bewegte Luft in einem geschlossenen Gehäuse klingt wie eine Heißluftfritteuse. Wenn das Gehäuse offen ist, gart es einem stattdessen etwa die Beine. Beides nicht schön. Bei WK schwebt das bei niedrigen rpm einfach nach oben weg.
Berniyh
2022-02-06, 20:35:16
So ganz kennst du dich nicht mit Wasserkühlung aus,oder?
Ähm, ich hab eine Custom hier laufen. ;)
Ich will ja auch gar nicht bestreiten, dass eine Wasserkühlung auf Grund des größeren Querschnitts und der günstiger verteilten Lüfter am Radiator mehr Wärme abführen kann, bzw. die gleiche Wärmemenge leiser abführen kann.
Aber den Einfluss der Wasserkühlung auf die Gehäusetemperatur halte für überschätzt und auf die Performance der CPU wird das auch keinen sonderlich großen Einfluss haben, es sei denn natürlich die ist mit integriert.
fondness
2022-02-06, 21:04:28
Ähm, ich hab eine Custom hier laufen. ;)
Ich will ja auch gar nicht bestreiten, dass eine Wasserkühlung auf Grund des größeren Querschnitts und der günstiger verteilten Lüfter am Radiator mehr Wärme abführen kann, bzw. die gleiche Wärmemenge leiser abführen kann.
Aber den Einfluss der Wasserkühlung auf die Gehäusetemperatur halte für überschätzt und auf die Performance der CPU wird das auch keinen sonderlich großen Einfluss haben, es sei denn natürlich die ist mit integriert.
Ich stelle mir bei sowas eher die Frage, ob man im Sommer einen 500W Heizstrahler neben sich stehen haben will. Die hilft dann auch die beste kühlung nichts, 500W sind 500W.
robbitop
2022-02-06, 21:17:54
Unglücklicherweise ist der Sommer nicht die dominierende Jahrezeit in Deutschland. Und wenn es sie wäre: gibt Klimaanlagen.
Gab auch Communityprojekte wo jemand den Radi im kühlen Keller hatte und sich die Wasserleitungen bis dahin verlegt hat. :D
Bei mir tut es das Corsair 900D mit 2x 480er und 2x 240er Radi jeweils in push/pull. 500 W entlockt dem Ding ein (lautloses) Gähnen. :D
Bei Upgrades hingegen hasse ich die Wakü. Wenn ich aber sonst sehe wie sie die Wärme wegsteckt das Gegenteil. ;)
Berniyh
2022-02-06, 21:33:56
Ich stelle mir bei sowas eher die Frage, ob man im Sommer einen 500W Heizstrahler neben sich stehen haben will. Die hilft dann auch die beste kühlung nichts, 500W sind 500W.
Das ist so in etwa die verkürzte Version meiner ursprünglichen Aussage. ;)
Unglücklicherweise ist der Sommer nicht die dominierende Jahrezeit in Deutschland. Und wenn es sie wäre: gibt Klimaanlagen.
Yay. Lasst uns das ineffiziente System dadurch "akzeptabel" machen, dass wir was noch ineffizienteres hinten dran hängen.
KarlKastor
2022-02-07, 06:13:14
Es gibt auch Gegenden, da ist's ganzjährig warm. Allerdings frage ich mich ob wenige 100W zusätzlich den Braten fett machen, wenn die AC eh läuft.
Aber teilweise würde ich spät abends wohl ohne auskommen.
robbitop
2022-02-07, 06:46:51
Was solls. Ist ein Hobby. Muss nicht effizient sein. Außerdem ist bei den meisten in der warmen Jahreszeit dann sicherlich nicht primär Spielen die dominierende Freizeitaktivität. ;)
Ich finde man muss sowas schon quantifizieren. Wie viel Wh sind es wirklich effektiv mehr im Jahr? Wahrscheinlich für die meisten faktisch vertretbar.
Thunder99
2022-02-07, 09:07:34
Das Problem mit der Kühlung hätte man nicht, wenn die Leistungsaufnahme im Rahmen bleibt (unter 300W).
Einige interessiert das nicht, aber Leistung um jeden Preis ist nicht mein Ding.
Was kommt als nächstes? Kompakt Chiller?
Zumal die Energie (beginnend bei der Konzeption) lediglich zum Spielen(!!) mit immer höheren Anforderungen verpulvert wird (es muss ja unbedingt 4K, 8K, ... möglichst mit RT sein) - da muß man sich schon mal selbstkritisch fragen, ob das überhaupt noch irgendeinen Sinn ergibt. Man kann heute sogar mit IGPs schon ganz gut spielen. Das nagt auf Dauer möglw. am PC als Spieleplattform.
Doch AMD wird sich da auch mit RDNA3 nach dem Markt richten müssen.
Berniyh
2022-02-07, 09:32:39
Eben, es wäre wesentlich schöner, wenn man das gesamte Produkt näher am Sweetspot platzieren würde.
Aber es geilen sich halt immer noch zu viele Leute an Benchmarks auf. :/
amdfanuwe
2022-02-07, 09:41:11
da muß man sich schon mal selbstkritisch fragen, ob das überhaupt noch irgendeinen Sinn ergibt.
Tja, frag ich mich auch jedesmal, wenn in einem Autotest der nächste 500 oder 1000PS Bolide mit glänzenden Augen des Journalisten vorgestellt wird.
robbitop
2022-02-07, 10:18:30
Ein Hobby muss weder vernünftig noch rational sein. Kann es, muss es aber nicht. ;)
Wenn man im Leben nur das macht, was rational und vernünftig ist, wäre es ggf. langweilig.
Solange die Energieeffizienz gut ist, kann doch dann jeder aus dem Produktstack das Produkt mit der absoluten Leistung und Leistungsaufnahme wählen, was ihm genehm ist.
Ich würde auch 5x Leistung für 5x Leistungsaufnahme nehmen.
Hohe spatiale Abtastung (Auflösung), hohe zeitliche Abtastung (fps) und viel BQ pro Pixel.
Bei Autos sehe ich das auch ähnlich. Wem ein Auto nichts bedeutet kann ja die 75 PS Gurke fahren. Wem es Spaß macht, in den Sitz gedrückt zu werden nimmt halt das 500 PS Modell.
Leben und Leben lassen. Jeder hat halt andere Hobbies.
amdfanuwe
2022-02-07, 10:23:49
1+
Berniyh
2022-02-07, 10:31:44
Ein Hobby muss weder vernünftig noch rational sein. Kann es, muss es aber nicht. ;)
Wenn man im Leben nur das macht, was rational und vernünftig ist, wäre es ggf. langweilig.
Solange die Energieeffizienz gut ist, kann doch dann jeder aus dem Produktstack das Produkt mit der absoluten Leistung und Leistungsaufnahme wählen, was ihm genehm ist.
Ich würde auch 5x Leistung für 5x Leistungsaufnahme nehmen.
Hohe spatiale Abtastung (Auflösung), hohe zeitliche Abtastung (fps) und viel BQ pro Pixel.
Bei Autos sehe ich das auch ähnlich. Wem ein Auto nichts bedeutet kann ja die 75 PS Gurke fahren. Wem es Spaß macht, in den Sitz gedrückt zu werden nimmt halt das 500 PS Modell.
Leben und Leben lassen. Jeder hat halt andere Hobbies.
Das stimmt schon, aber wenn ich nun ein etwas leistungsstärkeres Modell brauche, sagen wir mal so 200 PS, weil ich z.B. gerne einen Anhänger ziehe, dann nervt es halt, wenn das Teil jetzt jenseits jeder Effizienz auf 400 PS getrimmt wurde, nur weil ein paar Enthusiasten darauf stehen und man dann mit niedrigen Zeiten beim Beschleunigungstest glänzen kann. ;)
Nun hat man bei Autos natürlich den Vorteil, dass es eine sehr große Vielzahl an Modellen von verschiedenen Herstellern gibt.
Bei GPUs ist das ja leider nicht so, da geht es schon wesentlich stärker in Richtung "friss oder stirb".
Daher fände ich es schon gut, wenn man nicht den Enthusiasten immer alles in den Rachen werfen würde, sondern auch Modelle etwas vernünftiger abstimmt.
Die Sondermodelle kann es ja meinetwegen trotzdem geben.
robbitop
2022-02-07, 11:07:09
Kann ich nicht 100%ig nachvollziehen in Bezug auf GPUs.
Die uArch schafft ISO clocks eine gewisse Energieeffizienz. Je nach SKU werden die Taktraten hochgeprügelt und durch den Betriebspunkt (wir erinnern uns f~p³) verschlechtert. Dank undervolting oder das Setzen eines TDP Limits kann man das aber wieder in den idealen Betriebspunkt setzen.
Die unterschiedlichen GPUs im Product stack sind entsprechend auf das Spektrum der gewünschten Leistung mit Speicherinterface und Execution Units nahezu linear skaliert.
Wenn man 150 W will, nimmt man die SKU mit ca 1/2 des SI und 1/2 der Execution Units des Top Dogs (wenn der 300W hat). Rest ist doch nur Betriebspunkt und den kann man doch einstellen. Ein hochgeprügeltes 300-400W Top Exemplar hat meiner Meinung nach keinen Einfluss auf ein 150W Produkt im unteren Bereich.
Klar kann man sich wünschen, dass der Top Dog bei nur 220W (wie früher einmal) bleibt. Aber was das bedeuten würde ist einfach nur, dass der Top Dog dann weniger Execution Units und Speicherbandbreite hätte. Man limitiert einfach nur das gesamte Spektrum. Aber ggf. fühlt man sich dann besser?
IMO muss man das so sehen, dass eben einfach zusätzliche Klassen oben drauf gesetzt werden und den Stack einfach nur erweitern.
dargo
2022-02-07, 11:50:34
@robbitop
Wie stellst du dir das langfristig vor wenn keine Grenzen gesetzt werden? Wo sind wir in sagen wir mal 10-20 Jahren? Bei 1000+W für eine Gaming-Grafikkarte?
Berniyh
2022-02-07, 11:55:46
Ja, das stimmt erstmal. Die Frage ist halt vor allem, welche Modelle angeboten werden.
Optimal wäre z.B. Vollausbau ca. 200-250W (je nachdem wo der Sweetspot halt liegt).
Nur, wenn die komplette Elektronik und Kühlung auf 400-500W max. ausgelegt ist, dann ist die Karte unnötig groß, schwer und teuer.
Generell sind die Karten praktisch immer auf maximale Leistung getrimmt, eigentlich nie irgendwo vernünftig angesiedelt.
Obwohl es ja nur so 5-10% ausmacht.
Einfach nur wegen dem ganzen Benchmarkirrsinn.
Bei Navi 21 hat man hier den Vorteil, dass die 6800 XT (also nicht Vollausbau) kaum hinter der 6900 XT ansteht, d.h. da ist man noch in einer guten Position.
Das ist jedoch nicht immer so, je nachdem wo die jeweiligen Chips, Karten und Modelle sich platzieren.
Und je weiter sich die Top Modelle in Richtung Idiotie entwickeln, desto höher wird die Wahrscheinlichkeit, dass sich kein passendes Modell mehr findet.
Wenn man 150 W will, nimmt man die SKU mit ca 1/2 des SI und 1/2 der Execution Units des Top Dogs (wenn der 300W hat). Rest ist doch nur Betriebspunkt und den kann man doch einstellen. Ein hochgeprügeltes 300-400W Top Exemplar hat meiner Meinung nach keinen Einfluss auf ein 150W Produkt im unteren Bereich.
Jein. Zum Einen ist es natürlich effizienter die gleiche Performance mit 75% der Units zu erreichen statt mit 50%.
Zum Anderen kommt es ein bisschen darauf an wie die Wertschöpfung verteilt ist.
Meine Vermutung ist, dass man – im Normalfall – an den Top Modellen nicht sonderlich viel verdient. In der Mischkalkulation holt man das dann über das Mittelfeld wieder raus.
Wie viel das dann letztendlich wirklich ausmacht ist natürlich schwer abzuschätzen, dürfte aber ansteigen je größer die Unterschiede in der Performance sind.
Und zumindest aktuell dürfte man an den Top Modellen auch ordentlich verdienen, denn deren Preise sind ja größtenteils astronomisch.
Letztendlich war das aber auch gar nicht der Punkt, ist nur als kleine Anmerkung gemeint.
Klar kann man sich wünschen, dass der Top Dog bei nur 220W (wie früher einmal) bleibt. Aber was das bedeuten würde ist einfach nur, dass der Top Dog dann weniger Execution Units und Speicherbandbreite hätte. Man limitiert einfach nur das gesamte Spektrum. Aber ggf. fühlt man sich dann besser?
IMO muss man das so sehen, dass eben einfach zusätzliche Klassen oben drauf gesetzt werden und den Stack einfach nur erweitern.
Ok, ich glaube hier kann ich jetzt ein bisschen aufklären:
Ich finde es ja ok, dass es diese Karten gibt. Genauso wie es ja auch früher die Karten mit zwei Chips oder ähnliche Monster gegeben hat.
Woran ich mich störe ist, dass es so massig viele davon gibt und auch darunter die Karten oft ans Limit geprügelt werden.
z.B. wurden ja auch die meisten 6800 XT ans Limit geprügelt.
Daran störe ich mich.
Das sollte eigentlich eher einer Gaussverteilung gleichen. Ein paar Karten die wirklich ans Limit gehen und dann eine Performanceklasse darunter, gleichwertig, aber mit vernünftigerem Betriebspunkt und vernünftigeren Lösungen für Elektronik, Kühlung etc. (s.o.).
KarlKastor
2022-02-07, 12:58:05
Generell sind die Karten praktisch immer auf maximale Leistung getrimmt, eigentlich nie irgendwo vernünftig angesiedelt.
Obwohl es ja nur so 5-10% ausmacht.
Einfach nur wegen dem ganzen Benchmarkirrsinn.
Bei Nvidia fand ich die vor Ampere eigentlich ganz gut ausbalanciert. Das klappt halt immer dann, wenn man der Konkurrenz voraus ist. Hechelt man hinterher, wird der Takt hoch geprügelt. Siehe auch Intel. Die CPUs können auch sparsam, wenn man sie lässt.
Berniyh
2022-02-07, 13:14:17
Ja, das stimmt. Auch aus dem Grund wäre es vorteilhaft, wenn es mehr als nur 2 Hersteller gäbe.
Dann wäre der Druck da nicht mehr so hoch, denn es gäbe nicht mehr nur "Gewinner" und "Verlierer".
Bei den CPUs ist es aber noch etwas entspannter, da man hier ja die Platine zukauft.
Bei GPUs sind es ja immer All-In-One Lösungen (was auch Vorteile hat).
Thunder99
2022-02-07, 14:10:08
Die ganze Stromverbrauch Diskussion kann man auch auslagern in einem eigenen Threads, da es ja beide Hersteller betrifft :).
Und was zum Nachdenken, eine 3070Ti braucht mehr und ist aber nicht immer schneller als eine 2080Ti oder schneller und durstiger. Nicht Mal die Nachfolge-Generation ist immer sparsamer als die vorherige (12nm vs 8nm non X vs X bei GDDR6...)
robbitop
2022-02-07, 18:01:38
@robbitop
Wie stellst du dir das langfristig vor wenn keine Grenzen gesetzt werden? Wo sind wir in sagen wir mal 10-20 Jahren? Bei 1000+W für eine Gaming-Grafikkarte?
So lange es noch welche mit der TDP, die gewünscht wird, existieren, sehe ich da klein Problem. Ist ja nur "on top". Bei 1000W ist weniger der Kühlkörper ein Problem als die voraussichtliche Energiedichte (sofern die GPUs nicht auch ein paar tausend mm² groß werden). Aber sollte es in die Richtung gehen, wird es auch Kühllösungen geben, die funktionieren. ;)
Ok, ich glaube hier kann ich jetzt ein bisschen aufklären:
Ich finde es ja ok, dass es diese Karten gibt. Genauso wie es ja auch früher die Karten mit zwei Chips oder ähnliche Monster gegeben hat.
Woran ich mich störe ist, dass es so massig viele davon gibt und auch darunter die Karten oft ans Limit geprügelt werden.
z.B. wurden ja auch die meisten 6800 XT ans Limit geprügelt.
Daran störe ich mich.
Wo ist das Problem? Kann sich doch jeder selbst einstellen. Undervolting, TDP Limitierung.
Und was zum Nachdenken, eine 3070Ti braucht mehr und ist aber nicht immer schneller als eine 2080Ti oder schneller und durstiger. Nicht Mal die Nachfolge-Generation ist immer sparsamer als die vorherige (12nm vs 8nm non X vs X bei GDDR6...)
Das hat mit dem Betriebspunkt viel mehr zu tun als mit dem Fertigungsprozess und der uArch. Nochmal f~P³. Wenn die 3070ti zu "schmal" ist, um mit der 2080ti bei effizienten Betriebspunkten mitzuhalten, dann liegt es eben daran.
Wenn man jetzt Ampere mit Turing vergleichen würde, müsste man Perf/W im besten Betriebspunkt ermitteln und vergleichen. Wenn dann die kleine neue SKU zu schmal ist um mit der ehemals großen verglichen zu werden, braucht es halt die nächst größere um dort effizient hinzukommen. Takt ist eben nun mal sehr sehr bescheiden zur Skalierung wenn man auf Perf/W schaut.
dargo
2022-02-07, 18:13:55
Wo ist das Problem? Kann sich doch jeder selbst einstellen. Undervolting, TDP Limitierung.
Das "Problem" ist, dass die Kunden für Leistung bezahlen die sie dann nicht bekommen weil sie drosseln müssen. Schon eine interessante Entwicklung. Früher hatte man Hardware gekauft und übertaktet. Heute wird Hardware gekauft die an der Kotzgrenze von den IHVs und/oder AIBs betrieben wird und der Kunde darf drosseln. :freak:
btw.
Und bitte bei diesem Thema nicht die normalen Kunden vergessen. Es gibt nicht nur Nerds wie hier im 3DC bei den Spielern auf der Welt.
amdfanuwe
2022-02-07, 19:12:04
Und bitte bei diesem Thema nicht die normalen Kunden vergessen.
Normale Kunden haben das Luxusproblem nicht, die kaufen gleich ein paar Klassen kleiner.
Meridian12
2022-02-07, 19:25:30
Ich persönlich gehe von UVP 1299 Euro aus für die 7900XT. Was dann bei Mindfictory und Co rauskommt, wird sich dann zeigen bezüglich Verfügbarkeit.
Die UVP ist natürlich reine Vermutung von mir, aber denke 30% UVP Aufpreis ist realistisch.
Thunder99
2022-02-07, 19:36:15
Wenn der Chip so fett wird (Chiplets) könnte ich mir eher 1500+ vorstellen, weils einfach geht, siehe Nvidia mit der 3090
dargo
2022-02-07, 19:42:20
Normale Kunden haben das Luxusproblem nicht, die kaufen gleich ein paar Klassen kleiner.
Erhöhte TDPs ziehen sich über das gesamte Portfolio!
Ich persönlich gehe von UVP 1299 Euro aus für die 7900XT. Was dann bei Mindfictory und Co rauskommt, wird sich dann zeigen bezüglich Verfügbarkeit.
Die UVP ist natürlich reine Vermutung von mir, aber denke 30% UVP Aufpreis ist realistisch.
Bei spekulierten 800mm² insgesamt und 2,5x N21 Speed? Glaube ich nie im Leben, das wäre schon fast verschenkt. Und sollte das Teil tatsächlich auch noch mit 32GB kommen sehen wir hier die 2.000$. Verzeihung.... 1.999$. :D
dargo
2022-02-07, 19:44:05
dp
BlacKi
2022-02-07, 19:51:07
Erhöhte TDPs ziehen sich über das gesamte Portfolio!
bei dem großen sprung den man angeblich bekommt, kann man locker 1-2 klassen tiefer einkaufen, dann ist der preis und verbrauchsaufschlag kaum bis garnicht vorhanden.
Slipknot79
2022-02-07, 19:53:02
Erhöhte TDPs ziehen sich über das gesamte Portfolio!
Das macht es ja auch wieder normal.
Normal waren früher 20PS Autos, heute normal 90PS.
Passt also.
Du wirst halt mit deiner VW Golf 260W Radeon 12500 Trio Triple die Regler nach links schieben.
Und wir Lambo Fahrer werden dann eben die +1000W-Shice weiter treten was ged. (y)
Passt also.
dargo
2022-02-07, 19:53:11
bei dem großen sprung den man angeblich bekommt, kann man locker 1-2 klassen tiefer einkaufen, dann ist der preis und verbrauchsaufschlag kaum bis garnicht vorhanden.
Jo... und ein Upgrade sinnlos da kaum spürbare Mehrperformance vorhanden. :uclap: Zwei Klassen kannst du gleich vergessen, N33 macht hier Null Sinn. Wenn N32 80-100% auf die RX 6800XT drauf legt bin ich noch zufrieden.
robbitop
2022-02-07, 20:42:47
Das "Problem" ist, dass die Kunden für Leistung bezahlen die sie dann nicht bekommen weil sie drosseln müssen. Schon eine interessante Entwicklung. Früher hatte man Hardware gekauft und übertaktet. Heute wird Hardware gekauft die an der Kotzgrenze von den IHVs und/oder AIBs betrieben wird und der Kunde darf drosseln. :freak:
btw.
Und bitte bei diesem Thema nicht die normalen Kunden vergessen. Es gibt nicht nur Nerds wie hier im 3DC bei den Spielern auf der Welt.
Es gibt zwei Variablen: Betriebspunkt oder halt die Stufe der jeweilgen SKU. Wenn der Betriebspunkt nicht genehm ist muss halt eine andere SKU genommen werden.
Zumal gutes Undervolting in der Regel wenig Performance kostet.
Die Nicht Nerds sind wahrscheinlich größtenteils zufrieden wenn die GPU leise ist.
BlacKi
2022-02-07, 20:45:51
Jo... und ein Upgrade sinnlos da kaum spürbare Mehrperformance vorhanden. :uclap: Zwei Klassen kannst du gleich vergessen, N33 macht hier Null Sinn. Wenn N32 80-100% auf die RX 6800XT drauf legt bin ich noch zufrieden.
ich sagte 1-2 klassen. siehe 6900xt vs 6800 oder 6700xt. wenn amd wirklich +100% performance bringt, 6900xt vs 7900xt, dann reicht sicherlich auch eine 230-250ww 7700xt aus um nochmal einen ordentlichen boost in performance zu bekommen, bei günstigerem einkaufspreis. es zwingt dich niemand top tier einzukaufen.
früher hat man sicher über +50% gefreut, heute regt man sich auf, wenn es deutlich schnellere aber auch deutlich teurere karten zu kaufen gibt. verrückte welt.
dargo
2022-02-07, 21:35:23
früher hat man sicher über +50% gefreut, heute regt man sich auf, wenn es deutlich schnellere aber auch deutlich teurere karten zu kaufen gibt. verrückte welt.
Verwechselst du mich mit jemanden? Ich habe mich nirgendwo über teurere Karten aufgeregt. :confused:
r3ptil3
2022-02-07, 21:46:14
Bei Dargo und Ex3cut3r ist die Verwechslungsgefahr nun mal sehr gross.
Beide meckern ständig rum und tragen ihre Gefühlswelt hier im Forum aus.
@Robbitop
Ich erinnere mich an die R9 Nano... was ein Prachtstück. Schade dass sowas leider aus Sicht eines Herstellers leider keine hohe Priorität geniesst.
-/\-CruNcher-/\-
2022-02-08, 04:12:44
Als Enthusiast „brauchst“ du nicht. Du begehrst. Hast du schon mal 120 Hz mit entsprechender framerate gezockt? Danach willst du nie wieder zurück. Auch nicht in Singleplayer Titeln.
Wenn genug über ist, konsumiert man nicht mehr nur nach „brauchen“. Sämtliche Luxusmarken leben davon. ;)
Nvidia sahnt schon länger mächtig ab - AMD will das sicher auch.
Als die 1000 usd/eur für GPUs gefallen sind: vorher war das so eine Art unausgesprochene Grenze. Jetzt ist bekannt, dass man auch mehr nehmen kann. Entsprechend wird immer mehr abgesahnt. Ein Produkt, was 2,5x Performance bringt wird man auch für 2000+ usd/eur in interessanten Stückzahlen absetzen können.
Oh man lieber bessere und stabilere Physik Simulationen bei 60 HZ als 120 HZ ohne wirkliche entscheidende benefits.
robbitop
2022-02-08, 08:10:43
Oh man lieber bessere und stabilere Physik Simulationen bei 60 HZ als 120 HZ ohne wirkliche entscheidende benefits.
Spiele bitte in 120+ Hz und 120+ fps und dann nochmal in 60 Hz und 60 fps. Und dann sage das nochmal. ;)
Ein himmelweiter Unterschied in Bezug auf:
1. Inputlag
2. Bewegschärfe
3. Flüssigkeitsempfinden
Der ist so erheblich, dass man das im Blindtest sofort merkt. Dazu fällt mir eine Anekdote ein. Mein Bruder hat während einer meiner Dienstreisen gefragt, ob er meinen PC nutzen darf (hat einen Wohnungsschlüssel - sein PC war kaputt). Er hat da irgendwas gezockt. Ich bekomme 1 Tag später einen Text von ihm "was für einen kranken Monitor" ich denn habe. Es fühle sich alles so extrem flüssig an.
Das war 2014 als ich den ASUS ROG Swift 27" mit 144 Hz geholt habe. Er wusste nichts von 120/144 Hz und hat auch null Ahnung von PCs. Zockt aber gern. Und ich konnte ihn nicht mal drauf hinweisen. Er hat es sofort gemerkt.
Und genau so empfand ich es auch als ich das erste mal mit 120+Hz gespielt habe. Und wenn ich an einem 60 Hz Monitor sitze merke ich es gleich negativ. Probiere es aus. ;)
@Robbitop
Ich erinnere mich an die R9 Nano... was ein Prachtstück. Schade dass sowas leider aus Sicht eines Herstellers leider keine hohe Priorität geniesst.
Die SKU wurde offenbar vom breiten Markt nicht belohnt. Der breite Markt scheint sich, wenn man sich die Betriebspunkte der Mehrzahl der SKUs anschaut, eher für absolute Performance bei akzeptabler Lautstärke entschieden zu haben.
dargo
2022-02-08, 09:40:55
Bei Dargo und Ex3cut3r ist die Verwechslungsgefahr nun mal sehr gross.
Beide meckern ständig rum und tragen ihre Gefühlswelt hier im Forum aus.
Du meinst also Kritik an immer mehr saufenden Grafikkarten ist nicht erlaubt oder was? Hast du schon vergessen wie Vega hier zerrissen wurde wegen den 300W? Jetzt ist das alles plötzlich nicht relevant weil die Performance steigt? Verkehrte Welt. Ich hoffe Karten mit so nem bullshit wie 350-400+W werden wenigstens von den Testredaktionen zerrissen.
Linmoum
2022-02-08, 09:43:43
Vega wurde zerrissen, weil die Performance für den Verbrauch einfach nur Müll war, vor allem in Relation zur Konkurrenz.
dargo
2022-02-08, 09:45:58
Vega wurde zerrissen, weil die Performance für den Verbrauch einfach nur Müll war, vor allem in Relation zur Konkurrenz.
Tja... und was war die Konkurrenz? Eben... deutlich sparsamer. :rolleyes: Ich kann mich noch sehr gut an die Lobhudeleien von Pascal erinnern wegen der hohen Effizienz. Der schnellste Pascal lag afaik bei 220W (Referenz).
Edit:
Damals hieß es bei der 1080TI 299W für das gesamte System!
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/3/#abschnitt_leistungsaufnahme
Linmoum
2022-02-08, 12:39:48
Wäre Vega 20% schneller als eine 1080Ti gewesen, hätte sich keine Sau über die 300W beschwert.
Wie gesagt. Vega wurde nicht zerrissen, weil der Verbrauch bei 300W lag. Vega wurde zerrissen, weil der Verbrauch bei 300W lag und die Performance für diesen Umstand unterirdisch war.
Wenn N31 bei 450W liegt (+50%), die Performance aber um +150% steigt, wird sich kaum jemand beschweren. Weil die Karte, trotz höherem Verbrauch, massiv effizienter ist.
Nightspider
2022-02-08, 12:44:34
Die Effizienz wird dank 5nm, größerem Infinity Cache und effizienteren RT Einheiten eh einen großen Sprung nach vorne machen.
Dank DualChip wird man die Chips wahrscheinlich nicht an der Kotzgrenze betreiben sondern etwas näher am Sweetspot.
Sollte passen.
Viel besser als SLI und Crossfire.
boxleitnerb
2022-02-08, 12:46:05
Warum sollen die IHVs das eigentlich tun? Früher war Salamitaktik das Mittel der Wahl. Ist das jetzt egal, weil die Karten eh nicht verfügbar sind?
Die Fragen sind doch berechtigt - auch wenn es manche gibt, die das tolerieren, steigt und steigt der Verbrauch immer weiter. Das muss doch Grenzen haben? Ingenieurskunst ist nicht (nur) BruteForce.
Und was ist im Notebookbereich - da limitiert der Formfaktor und Akkukapazität. Mit dem Ansatz sabotieren die IHVs sich ab einem gewissen Punkt selbst. Es sei denn, die Kunden sind so blöd und kaufen dann massig Geräte mit derselben TDP, die aber nur 15% schneller sind, während im Desktop die Karten davonrennen.
Nightspider
2022-02-08, 12:48:31
Eigentlich liegts an den Medien.
"XY ist der schnellste am Markt mit 3% mehr Leistung"
Und die Kiddies springen drauf an. Eigentlich sollte Effizienz ein neuer Trend werden.
Wäre Vega 20% schneller als eine 1080Ti gewesen, hätte sich keine Sau über die 300W beschwert.
Wie gesagt. Vega wurde nicht zerrissen, weil der Verbrauch bei 300W lag. Vega wurde zerrissen, weil der Verbrauch bei 300W lag und die Performance für diesen Umstand unterirdisch war.
Wenn N31 bei 450W liegt (+50%), die Performance aber um +150% steigt, wird sich kaum jemand beschweren. Weil die Karte, trotz höherem Verbrauch, massiv effizienter ist.
Dazu war der 14nm-Chip einfach zu schlecht designt. Hätte man da mehr Zeit, Mühe und KnowHow reingesteckt hätte man sicherlich 1,8-1,9GHz erreichen können. Die Architektur gab es ja her, wie man an den APUs sieht, aber Lisa hatte die GPU-Abteilung ausgeblutet vorher zugunsten der CPUs.
300W ist aber schon lange kein Problem, das war halt bei Vega auch nicht neu. Schon Fermi hatte einen sehr hohen Stromverbrauch, das stagniert also schon sehr lange auf dem Niveau 250-300W. Wenn man die Sprünge in der Vergangenheit sieht, waren einige doch schon sehr heftig, der Sprung im Verbrauch auf die Geforce TnT, Radeon 9700, GTX8800, sowas steht halt heute wieder an.
Im CPU-Bereich läuft es ja auch so, nur dass die Stagnationsphasen länger waren. Vom Pentium zum PPro bzw. PII, vom K6 zum Athlon, das waren ebenfalls recht große Sprünge im Verbrauch. Nur ist seither nichts großartiges mehr passiert, jetzt springen wir von den üblichen 65-125W seither auf 200W+, offenbar ist das ja auch bei AM5 absehbar.
mboeller
2022-02-08, 13:33:19
Dazu war der 14nm-Chip einfach zu schlecht designt. Hätte man da mehr Zeit, Mühe und KnowHow reingesteckt hätte man sicherlich 1,8-1,9GHz erreichen können. Die Architektur gab es ja her, wie man an den APUs sieht, aber Lisa hatte die GPU-Abteilung ausgeblutet vorher zugunsten der CPUs.
Die Renoir APUs kamen ca. 2,5 Jahre später und in 7nm. Selbst die 12nm 3700u kamen 1,5 Jahre später auf den Markt und die GPU hat max. 1.4GHz erreicht.
vinacis_vivids
2022-02-08, 14:48:19
Wäre Vega 20% schneller als eine 1080Ti gewesen, hätte sich keine Sau über die 300W beschwert.
Wie gesagt. Vega wurde nicht zerrissen, weil der Verbrauch bei 300W lag. Vega wurde zerrissen, weil der Verbrauch bei 300W lag und die Performance für diesen Umstand unterirdisch war.
Wenn N31 bei 450W liegt (+50%), die Performance aber um +150% steigt, wird sich kaum jemand beschweren. Weil die Karte, trotz höherem Verbrauch, massiv effizienter ist.
Vega hat sich kurioserweise sehr sehr gut verkauft und ist eine sehr erfolgreiche uArch bis heute.
Vega10 (vega56, Vega64), Vega20 (7nm), Vega7 usw. in den APUs
Deine beschränkte Wahrnehmung begrenzt sich sicherlich auf limitierte Testergebnisse, verständlich.
Beim Anwender dagegen, die sich etwas mit UV auseinandergesetzt haben, sind/waren mit Vega56 sehr sehr lange zufrieden und haben dann auf RNDA2 uArch umgeswitcht.
Insbesondere Preis-Leistung war eine Zeit lang mit 200-220€ für ne Vega56 überragend. Dazu addiert sich noch die überragende Bildqualität.
Im Nachhinein würde ich eher sagen, dass Vega unterschätzt & gut gealtert und Pascal überschätzt & schlecht gealtert ist.
Die Renoir APUs kamen ca. 2,5 Jahre später und in 7nm. Selbst die 12nm 3700u kamen 1,5 Jahre später auf den Markt und die GPU hat max. 1.4GHz erreicht.
Auch das war nicht toll optimiert. Was da ging hat man an V20 vs. der APUs, die ja in gleichem Prozess gefertigt wurden, sehen.
Vega auf 14LPP/12LP ist nunmal nicht gut auf den Prozess optimiert, das ist sonnenklar.
vinacis_vivids
2022-02-08, 14:52:32
Die Renoir APUs kamen ca. 2,5 Jahre später und in 7nm. Selbst die 12nm 3700u kamen 1,5 Jahre später auf den Markt und die GPU hat max. 1.4GHz erreicht.
Vega uArch gibs noch heute im Jahr 2022 im Ryzen 7 5700G und hat dabei ~2.0-2.2Ghz erreicht.
Ex3cut3r
2022-02-08, 14:56:21
Bei Dargo und Ex3cut3r ist die Verwechslungsgefahr nun mal sehr gross.
Beide meckern ständig rum und tragen ihre Gefühlswelt hier im Forum aus.
Ex3 reicht mir danke.
Ansonsten KA, was dein Problem ist. Und du mich immer irgendwo mit reinziehen willst. Ich war hier in diesem Thread nicht einmal mal drin, bzw. habe ich einen Comment hier abgelassen.
Interessiert mich null die AMD Karten, weil ich RT, DLSS und das neue DLDSR als Killer Features beachte, und AMD deswegen ohne gleichwertige Optionen keine Alternative für mich persönlich ist.
Also was sollte ich hier? Rubbellos und Spekulieren mit den typischen ins Blaue raten kann ich auch im Zigaretten Laden um die Ecke.
Mangel76
2022-02-08, 15:08:36
Warum sollen die IHVs das eigentlich tun? Früher war Salamitaktik das Mittel der Wahl. Ist das jetzt egal, weil die Karten eh nicht verfügbar sind?
Die Fragen sind doch berechtigt - auch wenn es manche gibt, die das tolerieren, steigt und steigt der Verbrauch immer weiter. Das muss doch Grenzen haben? Ingenieurskunst ist nicht (nur) BruteForce.
Und was ist im Notebookbereich - da limitiert der Formfaktor und Akkukapazität. Mit dem Ansatz sabotieren die IHVs sich ab einem gewissen Punkt selbst. Es sei denn, die Kunden sind so blöd und kaufen dann massig Geräte mit derselben TDP, die aber nur 15% schneller sind, während im Desktop die Karten davonrennen.
Das hat wohl eher mit der Konkurrenzsituation zu tun. Wäre AMD bzw. VEGA damals besser gewesen, hätte NV wohl auch Pascal weiter hochgetrieben. So konnte man schneller und sparsamer sein. Heute gibt NV seinen Karten auch die volle Dröhnung, um noch vor RDNA2 zu bleiben. Man bringt sogar eine 90er und jetzt noch eine 90Ti mit noch mehr Verbrauch. Ohne Druck von AMD wäre das gar nicht notwendig.
Berniyh
2022-02-08, 15:43:28
Ingenieurskunst ist nicht (nur) BruteForce.
Natürlich nicht. Benchmarks gewinnen hingegen ist halt 99% Brute Force.
r3ptil3
2022-02-08, 16:03:49
Interessiert mich null die AMD Karten, weil ich RT, DLSS und das neue DLDSR als Killer Features beachte, und AMD deswegen ohne gleichwertige Optionen keine Alternative für mich persönlich ist.
Und wenn Navi 31/32 die Geforce Modelle richtig alt aussehen lassen? Damit meine ich nicht 10-15%, sondern 30% und aufwärts?
Zählen dann diese Features immer noch als Killer-Features?
Man darf ja auch nicht ausser Acht lassen bei den ganz gut klingenden Features, DLSS ein Mittel zum Zweck ist und ich mich noch zu gut daran erinnern kann, dass DLSS (auf höchster Quali-Stufe) einfach kein Vergleich zur nativen Auflösung ist. Es war ein richtiger Abturner. Wenn man jedoch von 38 FPS auf 60+ kommt, dann nimmt man es natürlich an.
Dass durch DLSS Flimmern teilweise entfällt, das ist wirklich ein Plus, muss gesagt werden.
amdfanuwe
2022-02-08, 17:15:45
Das muss doch Grenzen haben? Ingenieurskunst ist nicht (nur) BruteForce.
Grenzen werden durch die Physik gesetzt und Ingenieurskunst ist es ein Optimum unter gegebenen Umständen herauszuholen.
Umstände sind nunmal aktuell, dass ein maximum an Leistung erwünscht ist. Die Grenzen sind die TDP, der Verbrauch und Menge der Transistoren, deren Geschwindigkeit sowie Gesamtkosten.
Durch bessere Kühlung sowie Aufbau des Gesamtsystems verschieben sich halt die Grenzen.
Kann mich noch an PCs erinnern die lediglich im Netzteil einen Propeller hatten.
Dann ging es langsam los mit passiven Kühlern, Miefquirls und echt lauten ungeregelten Lüftern sowie externer Spannungsversorgung bei GPUs.
Zossel
2022-02-08, 17:34:14
Grenzen werden durch die Physik gesetzt
Bei der Fertigung von Halbleitern wird man (ohne neue Alien-Technik) gegen eine wirtschaftliche Grenze knallen.
Das Gejammer hier im Forum über die Preise lehrt dich das schon jetzt, und der Markt für Handys die >10K€ kosten wird auch ziemlich begrenzt sein.
BlacKi
2022-02-08, 17:50:44
Und wenn Navi 31/32 die Geforce Modelle richtig alt aussehen lassen? Damit meine ich nicht 10-15%, sondern 30% und aufwärts?
Zählen dann diese Features immer noch als Killer-Features?
Man darf ja auch nicht ausser Acht lassen bei den ganz gut klingenden Features, DLSS ein Mittel zum Zweck ist und ich mich noch zu gut daran erinnern kann, dass DLSS (auf höchster Quali-Stufe) einfach kein Vergleich zur nativen Auflösung ist. Es war ein richtiger Abturner. Wenn man jedoch von 38 FPS auf 60+ kommt, dann nimmt man es natürlich an.
Dass durch DLSS Flimmern teilweise entfällt, das ist wirklich ein Plus, muss gesagt werden.
das problem könnte sich bald selbst beheben, weil man angeblich machine learning besser supporten können wird. das deutet auf einen dlss ansatz hin. auch DX hat sowas schon in petto. wenn das so kommt, dann ist man fast auf augenhöhe oder gar in führung. aber auch nur, wenn nv ihren dx12 cpu limit ballast loswird. solange das nicht der fall ist, sehe ich schon beinahe amd nv vorzuziehen.
Ich schliesse mich der Meinung an, dass Moore's Law kein physikalisch / technologisch bedingter Tod droht, sondern ein ökonomisch bedingtes Dahinsiechen bis zum Nahezu-Stillstand. Aber mit RDNA3 ist es doch wohl noch nicht soweit :-)
Ex3 reicht mir danke.
Ansonsten KA, was dein Problem ist. Und du mich immer irgendwo mit reinziehen willst. Ich war hier in diesem Thread nicht einmal mal drin, bzw. habe ich einen Comment hier abgelassen.
Interessiert mich null die AMD Karten, weil ich RT, DLSS und das neue DLDSR als Killer Features beachte, und AMD deswegen ohne gleichwertige Optionen keine Alternative für mich persönlich ist.
Also was sollte ich hier? Rubbellos und Spekulieren mit den typischen ins Blaue raten kann ich auch im Zigaretten Laden um die Ecke.
Upsampling als Killerfeature (welches z.T. fehlerhaft arbeitet)? In welchem Forum befinde ich mich hier - Computerbild.de? Du hast wahrscheinlich mehr als 1600€ in die Grafikausgabe gesteckt und kommst mit so einem Krempel daher ….
Ex3cut3r
2022-02-08, 19:52:06
Upsampling als Killerfeature (welches z.T. fehlerhaft arbeitet)? In welchem Forum befinde ich mich hier - Computerbild.de? Du hast wahrscheinlich mehr als 1600€ in die Grafikausgabe gesteckt und kommst mit so einem Krempel daher ….
Tja, was soll man dazu noch sagen.
:comfort:
Alles wird gut, großer. Immer schön durch die Hose atmen.
basix
2022-02-08, 20:53:46
Ich schliesse mich der Meinung an, dass Moore's Law kein physikalisch / technologisch bedingter Tod droht, sondern ein ökonomisch bedingtes Dahinsiechen bis zum Nahezu-Stillstand. Aber mit RDNA3 ist es doch wohl noch nicht soweit :-)
Gut, dass Moore's Law eh auf ökonomischen Betrachtungen basiert ;)
Moore's Law in physikalischer Hinsicht ist durch was anderes begründet: Dennard Scaling (https://en.wikipedia.org/wiki/Dennard_scaling). Und das ist seit ~2006 tot. Das ist auch der Grund, wieso man seitdem verstärkt in die Breite geht (Multi-Core, SIMD, GPUs)
Platos
2022-02-08, 20:55:31
Ich schliesse mich der Meinung an, dass Moore's Law kein physikalisch / technologisch bedingter Tod droht, sondern ein ökonomisch bedingtes Dahinsiechen bis zum Nahezu-Stillstand. Aber mit RDNA3 ist es doch wohl noch nicht soweit :-)
Logischerweise kommt man vor der physikalischen/technischen Grenze immer zuerst an die wirtschaftliche Grenze. Es ginge immer noch ein Stückchen mehr, das aber deutlich teurer ist. Trotzdem endet dieses "Gesetz" irgendwann.
Platos
2022-02-10, 15:53:10
Gut, dass Moore's Law eh auf ökonomischen Betrachtungen basiert ;)
Moore's Law in physikalischer Hinsicht ist durch was anderes begründet: Dennard Scaling (https://en.wikipedia.org/wiki/Dennard_scaling). Und das ist seit ~2006 tot. Das ist auch der Grund, wieso man seitdem verstärkt in die Breite geht (Multi-Core, SIMD, GPUs)
Auch interessant ist zusätzliche noch dieser Artikel: https://en.wikipedia.org/wiki/Koomey%27s_law
Linmoum
2022-02-24, 01:08:45
https://twitter.com/Kepler_L2/status/1496455268582010885
Kepler scheint von ~350W für N31 auszugehen. Es würde mich tatsächlich nicht wundern, wenn AMD nicht die große Brechstange rausholt. Sofern sie das überhaupt tun. In früheren Zeiten hätten sie schon N21 hochgeprügelt und NV beim Verbrauch übertroffen, um noch das letzte bisschen Performance rauszuquetschen. Das war ihnen aber schon hier - überraschenderweise - offenkundig ziemlich egal und sie haben lieber eine bessere Effizienz mitgenommen.
fondness
2022-02-24, 08:26:03
https://twitter.com/Kepler_L2/status/1496455268582010885
Kepler scheint von ~350W für N31 auszugehen. Es würde mich tatsächlich nicht wundern, wenn AMD nicht die große Brechstange rausholt. Sofern sie das überhaupt tun. In früheren Zeiten hätten sie schon N21 hochgeprügelt und NV beim Verbrauch übertroffen, um noch das letzte bisschen Performance rauszuquetschen. Das war ihnen aber schon hier - überraschenderweise - offenkundig ziemlich egal und sie haben lieber eine bessere Effizienz mitgenommen.
Bei nvidia geht man von was aus, dem doppelten? :ugly: Dann ist AMD eben nur eine Klasse tiefer aktiv, entscheidend wird dann eh die perf/Watt, abgesehen von ein paar verrückten dir sich eine GPU mit >500W kaufen.
basix
2022-02-24, 10:32:32
Die Nvidia Zahle würde ich mit Vorsicht geniessen. Ob das jetzt die TGP oder Power-Spikes sind macht einen grossen Unterschied. Die Umsetzbarkeit einer 600-800W Karte sehe ich als eher fragwürdig an. Selbst 450W sind eigentlich viel zu viel für eine zum Spielen gedachten GPU. 300W ist deutlich sinnvoller.
Das sind keine Spikes, das ist entweder Fakenews oder die TBP. Und klar kann das sein, dass Lovalace ineffizienter wird als Ampere, nämlich dann, wenn man auf Biegen und Brechen den Takt hochprügelt. GA102 bekommst auch auf 500W um entsprechende Taktraten zu halten. Und zusätzlich scheint man ja auch noch an GDDR6X festhalten zu wollen, weiss er Geier wieso.
Redneck
2022-02-24, 13:01:36
Upsampling als Killerfeature (welches z.T. fehlerhaft arbeitet)? In welchem Forum befinde ich mich hier - Computerbild.de? Du hast wahrscheinlich mehr als 1600€ in die Grafikausgabe gesteckt und kommst mit so einem Krempel daher ….
Der Krempel ist doch nur notwendig um den RT Kram verkaufen zu können.
Ohne das Gegengift DLSS wäre doch RT auf den kleineren Karten auch nicht einsetzbar. Für den Raster Teil sind beide IHVs schnell genug.. da bedarf es keines Upsamplings oder Rekonstruktionsmechanismen.
Ich hoffe inständig das RT erstmal auf Eis gelegt wird, bis die Technik entsprechend weiter vorangeschritten ist das auch ohne diese Bildverschlechternden Mittel (nativ) RT eingesetzt werden kann.
Bis dahin wünsche ich mir Techniken wie Lumen aus der UE5, die mir persönlich völlig ausreichen würden.
Redneck
2022-02-24, 13:05:07
Das sind keine Spikes, das ist entweder Fakenews oder die TBP. Und klar kann das sein, dass Lovalace ineffizienter wird als Ampere, nämlich dann, wenn man auf Biegen und Brechen den Takt hochprügelt. GA102 bekommst auch auf 500W um entsprechende Taktraten zu halten. Und zusätzlich scheint man ja auch noch an GDDR6X festhalten zu wollen, weiss er Geier wieso.
vielleicht steigt NV in den Verkauf mit Netzteilen ein.. dann wäre es wieder ein genialer schachzug von Lederjacke
TheAntitheist
2022-02-25, 21:00:31
vielleicht steigt NV in den Verkauf mit Netzteilen ein.. dann wäre es wieder ein genialer schachzug von Lederjacke
für die paar Käufer von den teureren Modellen? ja das wäre Bahnbrechend. ich glaub auf die 20 Millionen$ kann er auch verzichten.
Redneck
2022-02-26, 09:25:36
für die paar Käufer von den teureren Modellen? ja das wäre Bahnbrechend. ich glaub auf die 20 Millionen$ kann er auch verzichten.
Gibt genügend grüne Lemminge da draussen, die sich sowas auch ohne Bedarf kaufen würden. Passt so schön zur gerade erworbenen 3050.. Das er auf die paar Kröten verzichten kann ist nicht die Frage. Auch NV achtet auf shareholder value und muß jedes Jahr Steigerungen vorweisen ansonsten sind die Anteilseigner unhappy. Solche low hanging fruits kann man da leicht mitnehmen.. Der krempel verkauft sich dann von selbst.
Dampf
2022-02-26, 13:29:52
Denke RDNA3 wird die RTR Leistung massiv ausbauen.
Zumindest wird man endlich Beschleunigung des BVH Traversals ermöglichen. Damit wäre schon viel gewonnen.
Wenn Lovelace die Architektur nicht ändert, wovon laut den bisherigen Gerüchten auszugehen ist, könnte AMD massive Sprünge machen und eventuell sogar Nvidia übertreffen.
Eines sollte bei AMD nun klar sein: Wer die bessere RT Leistung hat, hat in Zukunft auch die bessere Grundperformance.
Dass sich an der Architektur nicht viel ändert, heißt nicht, dass sich die Performance nicht viel ändert. Es war ja mal die Rede davon, dass es an der Registergröße liegt, dass die 128Bit nicht in jeder Lebenslage gut ausgelastet werden. Das wird sich vermutlich jetzt mit Lovelace ändern. Auch das Frontend wird vielleicht effizienter werden, damit man nicht mehr ganz so extrem CPU-Lastig daherkommt (zumindest ist das meine Hoffnung), denn eines ist klar - die Zeiten von DX11 in grafiklastigen Spielen ist schlichtweg vorbei.
Aber ich denke auch, eine bessere Auslastung und noch mehr RT-Leistung (beides bedingt ja auch einander) werden die Haupttreiber für die enorme Leistungsaufnahme sein. Könnte ja sein, dass man ohne RT-Content gar nicht soviel Leistungaufnahme generiert mit den neuen Chips.
Über AMDs neue 256Bit-WGPs ist noch gar nichts bekannt, das kann man genau gar nicht einschätzen leider.
TheAntitheist
2022-02-27, 04:06:31
Gibt genügend grüne Lemminge da draussen, die sich sowas auch ohne Bedarf kaufen würden. Passt so schön zur gerade erworbenen 3050.. Das er auf die paar Kröten verzichten kann ist nicht die Frage. Auch NV achtet auf shareholder value und muß jedes Jahr Steigerungen vorweisen ansonsten sind die Anteilseigner unhappy. Solche low hanging fruits kann man da leicht mitnehmen.. Der krempel verkauft sich dann von selbst.
man merkt du bist vom Fach, erst sagst du man soll auf den RT kram verzichten, und direkt danach das dir Lumen reicht. Tja Lumen IST ABER RT. Meine fresse ey... andere Grüne Lemminge nennen aber selbst das Blut im Stuhlgang sein.
Thunder99
2022-02-27, 15:09:14
Ich selbst bin sehr kritisch gegenüber DLSS, aber wenn man es Objektiv betrachtet ist es Lösung, um mehrere Probleme anzugehen und dabei noch besser aussehen kann als Nativ.
- Klassisches AA sind Grenzen gesetzt
- Rekonstruktion umgehen diese
- Nur die Auflösung erhöhen geht nicht, da es überproportional Leistung kostet
- Besseres Ergebnis mit 4K und Upsampling anstelle von reinem 4k, da 8k nicht spielbar ist, nativ
Man bräuchte 16k oder mehr um auf AA zu verzichten, aber welche Leistung bräuchte es da?
Wenn man da 99% der Qualität mit 1/3 der benötigten Leistung haben kann ist das wohl ein guter Kompromiss :)
Grafik wird immer komplexer, daher ist der Ansatz mit Rekonstruktion nicht verkehrt
aufkrawall
2022-02-27, 16:15:07
Denke RDNA3 wird die RTR Leistung massiv ausbauen.
Das hatte man allerdings auch oft bei alten AMD-Karten und Tess gedacht und es dauerte dann doch um einiges länger. Ich glaubs von daher erst, wenn es bestätigt ist (gleiches gilt für ein Gegenstück zu den TCs/MCs).
Lehdro
2022-02-27, 17:08:24
Das hatte man allerdings auch oft bei alten AMD-Karten und Tess gedacht und es dauerte dann doch um einiges länger. Ich glaubs von daher erst, wenn es bestätigt ist (gleiches gilt für ein Gegenstück zu den TCs/MCs).
Zum Tess: Muss man halt schauen woran das lag. Ich habe da so in Erinnerung dass gerade bei den kleineren Faktoren durchaus massive Steigerungen vorgenommen wurden, bei den Größeren hingegen fiel die Leistung dafür umso stärker ab. NV hat da einfach durch die Bank besser geliefert.
Edit: Ist auch bei RDNA1 noch so. (https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/Specials/Compute-Benchmarks-Tessellation-Performance-Image-Quality-1293726/)
robbitop
2022-02-27, 19:44:03
Naja Tesselation wurde in der Praxis irgendwie selten zum Flaschenhals und es waren dann eher Synthies und Boardercases, die den Unterschied sichtbar gemacht haben. Tessfaktoren die keinen sichtbaren Unterschied bringen. Bei RT Beschleunigung sieht man sobald RT an ist sofort in jedem RT Spiel den fps Unterschied.
aufkrawall
2022-02-27, 20:13:29
Alles, was plausibel klingt, kann auch immer ganz anders kommen. Kann auch sein, dass jetzt MCM im Vordergrund stand und andere Verbesserungen dafür hinten runtergefallen sind. Wie schon mal im DLSS-Thread zu FSR um dessen Release herum von mir angebracht (seitdem ist btw. exakt nichts passiert), verkaufen sie sowieso alles. RDNA3 wird bei Raster rasend schnell und das dürfte für die AMD-Kundschaft immer noch reichen (liest man ja auch ständig von denen). Bessere Effizienz für NBs vs. Nvidia dürfte es auch geben.
Redneck
2022-02-27, 21:40:54
man merkt du bist vom Fach, erst sagst du man soll auf den RT kram verzichten, und direkt danach das dir Lumen reicht. Tja Lumen IST ABER RT. Meine fresse ey... andere Grüne Lemminge nennen aber selbst das Blut im Stuhlgang sein.
Leseverständnis ist bei dir wohl nicht recht ausgeprägt.
Lumen ist RT, echt? Man o man...und.man benötigt nicht mal zwingend Tensor Cores dafür und es performed auch noch ausreichend gut, das es auf den Konsolen läuft..
Jetzt lies nochmal, was ich vorher geschrieben habe (oder lass es einfach).
mboeller
2022-02-28, 08:23:07
Denke RDNA3 wird die RTR Leistung massiv ausbauen.
werden sie wohl müssen, wenn Lovelace 3x mehr RT-Leistung hat als Ampere.
https://forum.beyond3d.com/threads/amd-rdna-3-speculation-rumours-and-discussion.62092/page-54#post-2243195
Lovelace bring several RT improvements and a big leap in compute vs Ampere. In fact, Lovelace is ~3 times faster than Ampere in RT
basix
2022-02-28, 08:50:07
Lumen ist RT, echt? Man o man...und.man benötigt nicht mal zwingend Tensor Cores dafür und es performed auch noch ausreichend gut, das es auf den Konsolen läuft..
- Lumen ist ganz klar Raytracing. In SW, wenn kein HW-RT vorhanden ist
- HW Raytracing beschleunigt Lumen noch obendrauf, auch auf den Konsolen. HW-RT macht Lumen auf Konsolen also noch besser ;) Siehe dazu die UE5 Matrix Awakens Demo
- Tensor Cores haben mit RT nichts zu tun. Wenn du auf Temporal Upsampling in Form von TSR anspielst, ja das benötigt keine Tensor Cores. Ist aber völlig unabhägig von RT.
Sich zu informieren hilft bei solchen Sachen ;)
https://docs.unrealengine.com/5.0/en-US/RenderingFeatures/Lumen/TechOverview/
Lumen uses multiple ray tracing methods to solve Global Illumination and Reflections. Screen traces are done first, followed by a more reliable method.
Lumen uses Software Ray Tracing through Signed Distance Fields by default, but can achieve higher quality on supporting video cards when Hardware Ray Tracing is enabled.
https://www.neowin.net/news/amds-next-gen-rdna-3-performance-jump-rumored-to-be-absolutely-insane/
Schon lange bekannt, dass RT deutlich verbessert werden soll mit RDNA3.
War nicht auch die Rede davon, dass RDNA3 ein ML-Chiplet erhalten sollte?
basix
2022-02-28, 09:07:24
Ich selbst bin sehr kritisch gegenüber DLSS, aber wenn man es Objektiv betrachtet ist es Lösung, um mehrere Probleme anzugehen und dabei noch besser aussehen kann als Nativ.
- Klassisches AA sind Grenzen gesetzt
- Rekonstruktion umgehen diese
- Nur die Auflösung erhöhen geht nicht, da es überproportional Leistung kostet
- Besseres Ergebnis mit 4K und Upsampling anstelle von reinem 4k, da 8k nicht spielbar ist, nativ
Man bräuchte 16k oder mehr um auf AA zu verzichten, aber welche Leistung bräuchte es da?
Wenn man da 99% der Qualität mit 1/3 der benötigten Leistung haben kann ist das wohl ein guter Kompromiss :)
Grafik wird immer komplexer, daher ist der Ansatz mit Rekonstruktion nicht verkehrt
Bei guten DLSS Implementation muss man oftmals schon sagen, dass die Bildruhe besser ist und feine Geometrie besser aufgelöst ist. Und DLSS 2.0 war das erste seiner Art (DLSS 1.0 funktionierte komplett anders). Das wird noch besser werden.
8K nativ sehe ich eigentlich nicht als zielführend an. 8K mit DLSS Performance (oder den TSR, XeSS oder FSR+ Gegenstücken) ist mMn der way to go. Und dafür dann mehr Qualität pro Pixel fürs Rendering.
DLSS hat aber oftmals mit temporalen Artefakten wie Ghosting und Smearing zu kämpfen. Wenn man das noch mehr oder minder eliminiert und die anderen DLSS-Kinderkrankeiten noch beseitigt (LOD/MIP-Bias etc.), sehe ich keinen Grund mehr in nativem Rendering. Egal auf welchem GPU-Vendor.
Wir bräuchten unbeingt mal ein standardisiertes Verfahren als Ersatz für das proprietäre DLSS. Dann schließe ich mich dem an, das dürfte dann schlichtweg Standard werden. Native Auflösungen wird dann niemand mehr verwenden.
ChaosTM
2022-02-28, 09:16:47
Techniken wie DLSS sind definitiv die Zukunft. Viele bezahlbare Nodesprügen sind einfach auf Grund der Physik nicht mehr drinnen, daher muss man das statt wie früher mit der Brechstange eher mit Hirn angehen.
NVidia hat das als erster erkannt. Ohne diese Upscale Techniken wäre vernünftiges RT wohl nie möglich.
Zu Lumen.: bisher der intelligenteste RT Ansatz da nicht proprietär und bei Bedarf beschleunigbar.
Und alles andere als eine Vervielfachung der RT Leistung bei RDNA3 wäre eine krasse Enttäuschung.
basix
2022-02-28, 09:29:29
Lumen ist doch proprietär ;) Nur weil Epic den Source Code auf Git veröffentlicht ist es noch lange nicht Open Source.
Beim Rest stimme ich zu. Funktioniert auf einer breiten HW-Basis, kann mit HW-RT aber noch besser gemacht werden.
Man muss aber auch sehen: Epic hat vermutlich das grösste Budget aller Engine-Entwickler. Das Fortnite Geld wird jetzt investiert.
ChaosTM
2022-02-28, 09:35:42
Lumen ist doch proprietär ;) Nur weil Epic den Source Code auf Git veröffentlicht ist es noch lange nicht Open Source.
Beim Rest stimme ich zu. Funktioniert auf einer breiten HW-Basis, kann mit HW-RT aber noch besser gemacht werden.
Man muss aber auch sehen: Epic hat vermutlich das grösste Budget aller Engine-Entwickler. Das Fortnite Geld wird jetzt investiert.
Lumen ist Hardware agnostisch. Funktioniert auf allen Plattformen ohne irgendwelche Spezial Cores.
Die haben kein Interesse daran, irgendjemand ausschließen zu wollen, so wie es NV prinzipiell immer macht. Was aus kaufmännischer Sicht natürlich nicht falsch ist. ;)
basix
2022-02-28, 10:26:19
Gut, dann die Frage was man unter proprietär versteht ;) Klar, Lumen ist HW agnostisch. Proprietär ist es aber aus dem Grund, da es Eigentum von Epic und ein Teil der UE5 ist. Andere Engines wie z.B. Frostbite werden Lumen nicht verwenden können.
Aus der Sicht des HW-Besitzers (uns) ist es nicht proprietär. Aus Sicht der Engine und SW-Entwickler aber sehr wohl. Als anderes Beispiel: Windows ist genauso HW agnostisch wie proprietär.
https://de.wikipedia.org/wiki/Propriet%C3%A4re_Software
Nightspider
2022-02-28, 10:39:13
RDNA3 und Lovbelace werden von der RT Leistung sicherlich auf einem ähnlichen Level sein.
AffenJack
2022-02-28, 10:44:35
Lumen ist Hardware agnostisch. Funktioniert auf allen Plattformen ohne irgendwelche Spezial Cores.
Die haben kein Interesse daran, irgendjemand ausschließen zu wollen, so wie es NV prinzipiell immer macht. Was aus kaufmännischer Sicht natürlich nicht falsch ist. ;)
Alle RT Implementierungen sind Hardwareagnostisch, da ist nix besonderes an Lumen. Das läuft alles über DXR und könnte alles über Software laufen. Nur ist Software in der Regel so lahm, dass es deshalb niemand anbietet. Zusätzlich ist AMDs Hardware RT gerade einfach so lahm, dass Nvidia nur auf mehr RT Implementierung bei Partnergames pochen muss und AMD sofort am Arsch ist. AMD auf der anderen blockiert sinnvollere höhere RT Einstellungen in deren Games.
DLSS und Tensor Cores ist was anderes, hat mit RT aber erstmal nix zutun.
RDNA3 und Lovbelace werden von der RT Leistung sicherlich auf einem ähnlichen Level sein.
Am ähnlichen zweifle ich noch etwas, aber man wird sich deutlich annähern und am Ende ist es nicht mehr so wichtig, wenn AMD ein wenig mehr Leistung bei RT verliert.
Richtig gespannt bin ich auf Intels Implementierung. Ich hoffe in 2,3 Monaten wissen wir zumindest von Notebooks wie stark die ist.
ChaosTM
2022-02-28, 10:46:20
Du weißt was ich meinte. ;)
Es ging mir nur um das (künstliche) Ausschließen des Konkurrenten oder älterer Karten auf dem Rücken der User. Macht wirtschaftlich Sinn, hinterlässt aber einen unguten Beigeschmack.
Falls beide Konkurrenten ca. auf gleicher Höhe liegen, greift man dann eher zu der Firma, die normalerweise die offeneren Lösungen anbietet, außer man ist ein unverbesserlicher Fanboy.
So was kann langfristig zum Bummerang werden. Ich kauf immer das für mich intelligentere Produkt, unabhängig von der Marke.
Momentan ist das NV, aber ich muss die Firma deswegen nicht mögen. ;)
add Affenjack.: Lumen und im speziellen Nanite (in einem anderen Bereich ) sind der Konkurrenz imho schon klar voraus und brauchen deutlich weniger Hardwarepower.
Sonst würde es auf den vergleichsweise schwachen Konsolen-GPUs nicht so gut laufen. Siehe Matrix Demo.
Intel wird spannend, ja.
basix
2022-02-28, 11:05:22
RDNA3 wird mit an Sicherheit grenzender Wahrscheinlichkeit die RT-Performance stark erhöhen. Ob man in der Nähe von Lovelace landen wird? Schwer zu sagen. Mit Ampere Niveau wäre ich aber schon zufrieden. Ampere kann heute in Extremszenarien 2-2.5x so schnell wie RDNA2 Counterparts sein. Wenn dann Lovealace noch gut was drauflegt ist das zwar gut, aber es wird niemals wieder ein so hoher Faktor sein.
Man kann es auch so sehen: Ist die RT-Performance nicht stark verbessert, hat RDNA3 schon bei Start verloren. RT wird nicht verschwinden und wir immer öfters eingesetzt werden. Auch bei Konsolen-Titeln. Dem wird sich AMD garantiert bewusst sein.
Anders als RT-Performance ist mMn FSR 2.0 die grössere Unbekannte. Hier muss AMD mMn nachliefern. Hier gibt es jetzt mehrere Ansätze:
- Man wirft HW drauf. Ergo Matrix Cores. RDNA3 only
- Man entwirft was für die Allgemeinheit und iGPUs (ergo Vega/Pascal aufwärts)
- Man fokussiert auf RDNA2 (+Turing aufwärts). Reicht für Konsolen und die moderneren APUs inkl. Steam Deck
- Optional: Man fokussiert auf RT. Was heisst das? FSR 2.0 kommt mit einem speziell auf RT-Workloads angepassten Upsampling daher. Damit wird die RT-Leistung von RDNA2 überproportional beschleunigt.
Wenn ich raten müsste: Die letzten zwei Varianten oder die Kombination davon scheint mir am plausibelsten. Schade für alle RDNA1-Besitzer.
Nightspider
2022-02-28, 11:11:11
Naja du redest von der relativen RT Leistung und ich von der absoluten RT Leistung.
basix
2022-02-28, 11:16:11
Die absolute RT-Performance hängt ja noch von der Grundperformance ab. Die kann bei RDNA3 höher als bei Lovelace sein. Verglichen mit einer effizienten RT-Beschleunigung ist das dann aber eher teuer erkauft.
Nichtsdetotrotz, neben einer hohen Grundperformance muss man mit der relativen RT-Performance nah genug an Lovelace dran sein. Sonst kann man Lovelace auch in der absoluten RT-Performance nicht schlagen. Ich sehe hier keinen Widerspruch. Lovelace kann relativ zu RDNA3 schneller in RT sein. Absolut kann immer noch RDNA3 schneller sein. Man muss aber nah genug dran sein. 20-30% Unterschied bei der relativen RT-Performance werden vermutlich bereits die RT-Performancekrone kosten.
Bei Turing gab es Flächenabschätzungen. Tensor Cores + RT-Acceleration bedeuteten +20% SM-Fläche. Auf den gesamten Chip gesehen wohl ~10%. Das ist ökonomisch wie auf energieffizienztechnisch einfach sinnvoller als eine maximierte Grundperformance anzustreben.
Platos
2022-02-28, 13:22:34
Intels Grafikkarten werden von Tag zu Tag wertloser, je näher man an den Launch von Lovelace und RDNA 3 kommt. Grosser Fehler von Intel bzw. Pech.
Gut, dann die Frage was man unter proprietär versteht ;) Klar, Lumen ist HW agnostisch. Proprietär ist es aber aus dem Grund, da es Eigentum von Epic und ein Teil der UE5 ist. Andere Engines wie z.B. Frostbite werden Lumen nicht verwenden können.
Aus der Sicht des HW-Besitzers (uns) ist es nicht proprietär. Aus Sicht der Engine und SW-Entwickler aber sehr wohl. Als anderes Beispiel: Windows ist genauso HW agnostisch wie proprietär.
https://de.wikipedia.org/wiki/Propriet%C3%A4re_Software
Ok, ich hab aber sofort verstanden, was gemeint war. Natürlich sind alle Techniken der Enginehersteller proprietär. Aber das wird denke ich die Zukunft sein. Entweder es gibt ein standardisiertes Verfahren und/oder die Engineentwirckler haben alle ihre eigene Lösung.
Dampf
2022-02-28, 14:10:13
RDNA3 wird mit an Sicherheit grenzender Wahrscheinlichkeit die RT-Performance stark erhöhen. Ob man in der Nähe von Lovelace landen wird? Schwer zu sagen. Mit Ampere Niveau wäre ich aber schon zufrieden. Ampere kann heute in Extremszenarien 2-2.5x so schnell wie RDNA2 Counterparts sein. Wenn dann Lovealace noch gut was drauflegt ist das zwar gut, aber es wird niemals wieder ein so hoher Faktor sein.
Man kann es auch so sehen: Ist die RT-Performance nicht stark verbessert, hat RDNA3 schon bei Start verloren. RT wird nicht verschwinden und wir immer öfters eingesetzt werden. Auch bei Konsolen-Titeln. Dem wird sich AMD garantiert bewusst sein.
Anders als RT-Performance ist mMn FSR 2.0 die grössere Unbekannte. Hier muss AMD mMn nachliefern. Hier gibt es jetzt mehrere Ansätze:
- Man wirft HW drauf. Ergo Matrix Cores. RDNA3 only
- Man entwirft was für die Allgemeinheit und iGPUs (ergo Vega/Pascal aufwärts)
- Man fokussiert auf RDNA2 (+Turing aufwärts). Reicht für Konsolen und die moderneren APUs inkl. Steam Deck
- Optional: Man fokussiert auf RT. Was heisst das? FSR 2.0 kommt mit einem speziell auf RT-Workloads angepassten Upsampling daher. Damit wird die RT-Leistung von RDNA2 überproportional beschleunigt.
Wenn ich raten müsste: Die letzten zwei Varianten oder die Kombination davon scheint mir am plausibelsten. Schade für alle RDNA1-Besitzer.
Was für die Allgemeinheit wirds definitiv nicht sein, dafür ist FSR 1.0 schon da.
Es kommt drauf an ob FSR 2.0 bzw deren ML Äquivalent zu DLSS Matrix-Beschleuniger für effektives Upscaling voraussetzt.
FSR 2.0 könnte sowohl auf RDNA2 als auch auf RDNA3, Turing und Ampere laufen, aber auf letzteren Architekturen deutlich schneller und eventuell mit besserer Qualität. Dann wird es auch mit dem Steam Deck und den Konsolen kompatibel sein, ich halte das für das wahrscheinlichste Szenario.
Über RDNA1 brauchen wir gar nicht zu reden, RDNA1.0 hat nicht mal INT8 Instruktionen freigeschaltet. Aber die sind scheinbar vollauf zufrieden mit FSR 1.0, braucht es also sowieso nicht. Ob das nun coping ist oder nicht, das wissen wohl nur die Leute die damals RDNA1 gegenüber Turing bevorzugt haben...
basix
2022-02-28, 18:04:25
RDNA1 hat INT8 Acceleration. Nur Navi 10 hat es nicht. Seine kleinen Geschwister sind jünger und haben es.
FSR 2.0 mit RDNA2 Support (und ergo Konsolen) hätte einfach deutlich mehr Schlagkraft als eine RDNA3 only Lösung. Anhand von UE5 TSR sieht man, dass es ganz gute Lösungen ohne Tensor Cores geben kann. Die Frage ist, wo hier das praktikable Limit liegt. DLSS ist qualitativ schon noch ein bisschen besser als TSR. Es wäre hier interessant zu wissen, wie viel Peak Flops/Tops DLSS während der Tensor Core Auslastung effektiv benötigt werden. Daraus könnte man ableiten, was das für einen non-Matrix Lösung auf Shadern bedeuten würde. Aber vielleicht sehen wir das auch direkt an XeSS, sobald es draussen ist.
Tarkin
2022-02-28, 18:33:42
https://twitter.com/greymon55/status/1498300375551541251
"navi3's rt performance will improve significantly."
und dann noch Antwort auf die Frage "Competitive with Nvidia RT?"
Greymon55 schreib "yea"
mboeller
2022-02-28, 18:39:48
und dann noch Antwort auf die Frage "Competitive with Nvidia RT?"
Greymon55 schreib "yea"
2800Ti
;)
aufkrawall
2022-02-28, 19:17:10
Treiber und Zusammenspiel mit "RTX"-Titeln abwarten.
Linmoum
2022-02-28, 19:34:01
RGT hatte gestern (?) in einem Video schon gesagt, dass N33 wohl deutlich bessere RT-Performance als N21 bieten wird. Und bei N33 vermutet man ja aktuell nur 4096 Shader.
TheAntitheist
2022-02-28, 19:36:47
wäre schön wenn AMD die RT Leistung um das 5-6x steigert. Ampere Niveau wäre schon mal ein Anfang und gut für uns alle. Mal gucken ob Nvidia wieder was neues bringt, denke aber das wird erst mit den Chiplets kommen.
Also mit neu mein ich, etwas nach RT/BVH Beschleunigung und Tensor Kerne.
2800Ti
;)Also sprich, wie derzeit schon @6900XT ;) Ne, bisschen mehr wird's schon sein, ich hoffe inständig, dass sie sich nicht mit einer simplen Verdoppelung auf RTX 3xxx Niveau bewegen werden, oder Vervierfachung immer noch merklich unter den RTX 4xxx Äquivalenten. Halte aber derzeit leider ein Zwischending zwischen den beiden Varianten für realistisch.
Ausser der gute Greymon hat tatsächlich vergleichbare Einblicke in kommende nVidia Beschleuniger
AffenJack
2022-02-28, 20:04:15
wäre schön wenn AMD die RT Leistung um das 5-6x steigert. Ampere Niveau wäre schon mal ein Anfang und gut für uns alle. Mal gucken ob Nvidia wieder was neues bringt, denke aber das wird erst mit den Chiplets kommen.
Also mit neu mein ich, etwas nach RT/BVH Beschleunigung und Tensor Kerne.
BVH Beschleunigung ist das was AMD gerade fehlt oder? Ich gehe von aus, dass AMD da nachziehen wird. Auch Intels Folien zeigten da ja, dass man den auch beschleunigt und das sollte nicht schwer einzubauen sein.
Kann mir durchaus vorstellen, dass Nvidia was neues bringt, immerhin sind jetzt 4 Jahre vergangen und man hat Rückmeldungen plus Entwicklungszeit von der ersten RT Gen gehabt. Aber das wird kaum eine Rolle spielen, da es erstmal nicht unterstützt werden wird. Das wird man nur nutzen können, um in Zukunft für DXR mehr zu bestimmen, wohin die Reise geht. Wichtig ist das AMD die Geschwindikeit für die aktuelle API hoch bringt.
mboeller
2022-03-01, 06:51:42
Also sprich, wie derzeit schon @6900XT ;) Ne, bisschen mehr wird's schon sein,
ich fand den Kommentar "competitive with Nvidia" nur witzig. Nvidia hat halt mehr im Angebot als nur den Topdog (3090, 4090 ...) und deshalb ist das für mich eine schöne Nichtaussage die alles und nix aussagt.
OgrEGT
2022-03-05, 09:16:12
N3x wird die RT Performance sicherlich deutlich steigern daran habe ich keinen Zweifel... viel wichtiger wäre allerdings wirklich so langsam eine echte DLSS Alternative von AMD damit RT nicht nur sinnvoll mit N31 sondern auch mit kleineren N3x und N2x GPUs genutzt werden kann...
Thunder99
2022-03-05, 12:14:16
N3x ja, N2x nein schätze ich
ich fand den Kommentar "competitive with Nvidia" nur witzig. Nvidia hat halt mehr im Angebot als nur den Topdog (3090, 4090 ...) und deshalb ist das für mich eine schöne Nichtaussage die alles und nix aussagt.
Den Kommentar fand ich eher entmutigend, weil das heißt wieder nur "wir sind da zwar besser aber immer noch zweiter".
Nightspider
2022-03-05, 14:11:17
Selbst wenn Lovelace nochmal einen Sprung bei der relativen RT Performance macht, ist doch fast egal ob NV nun 10-20% vorne oder hinten liegt.
Wenn man die RT Qualität von Ultra auf high oder von high auf middle setzt sieht man oft keinen großen Unterschied und RT gibts bisher nur in wenigen Spielen.
PS5 und XSX Ports werden teils eh eher durch die langsamere RT Leistung der Konsolen limitiert sein.
Mit sprüngen von 2 bis 2,5 (bei RT eventuell noch bisschen mehr) werden wir eh eine richtig heiße (:naughty:) Generation bekommen.
OgrEGT
2022-03-05, 16:52:25
N3x ja, N2x nein schätze ich
Wird davon abhängen wie es implementiert wird also ob ff hardware benötigt wird oder nicht...
basix
2022-03-05, 17:27:16
AMD hätte wohl interesse daran, dass es keine FF HW benötigt. Läuft es auf den Konsolen, hat man eine höhere Marktmacht gegen DLSS.
Platos
2022-03-05, 18:24:34
Den Kommentar fand ich eher entmutigend, weil das heißt wieder nur "wir sind da zwar besser aber immer noch zweiter".
Viel wichtiger ist ein DLSS Konter. Ob das jetzt 10% drunter ist, spielt fast keine Rolle mehr, wenn nvidia mit DLSS sowieso unter Quality +40-80% hinlegt. Da spielen die 10% sowieso keine Rolle mehr oder "gleich auf" (aber ohne DLSS).
aufkrawall
2022-03-05, 18:31:27
Wenn man die RT Qualität von Ultra auf high oder von high auf middle setzt sieht man oft keinen großen Unterschied und RT gibts bisher nur in wenigen Spielen.
PS5 und XSX Ports werden teils eh eher durch die langsamere RT Leistung der Konsolen limitiert sein.
Gibt in gefühlt der überwiegenden Mehrzahl der Titel entweder RT, DLSS, Reflex oder alles.
Die RT-Qualität auf den Konsolen in Cross Plattform-Titeln ist ein Witz, selbst mit der 3060 würd ich mir das nicht geben wollen. Die Zusammenarbeit von Studios mit Nvidia für RT ist da weit überzeugender und ich würde nicht davon ausgehen, dass AMD da bei Forschung und konkreter Implementierung der Features auf einmal mithalten kann.
OgrEGT
2022-03-06, 08:38:43
AMD hätte wohl interesse daran, dass es keine FF HW benötigt. Läuft es auf den Konsolen, hat man eine höhere Marktmacht gegen DLSS.
Glaube ich auch... die Frage wird sein wieviel Rechenleistung dafür benötigt wird und wieviel insgesamt für alles andere zur Verfügung stehen muss...
Wenn die Rechenleistung die durch die verringerte interne Auflösung frei wird ausreicht könnte es sehr breit eingesetzt werden...
Wobei mehr frei werden sollte als es kostet um eine verbesserte BQ bspw durch zusätzliche Effekte wie RT oder bei gleicher BQ höhere FPS zu ermöglichen.
Viel wichtiger ist ein DLSS Konter. Ob das jetzt 10% drunter ist, spielt fast keine Rolle mehr, wenn nvidia mit DLSS sowieso unter Quality +40-80% hinlegt. Da spielen die 10% sowieso keine Rolle mehr oder "gleich auf" (aber ohne DLSS).
Glaube nicht, dass das wichtiger ist - vielleicht kurzfristig. Ich halte das für überschätzt, da das langfristig ja eh mit Engine-eigenen Lösungen oder offenere Standards passieren wird, selbst wenn AMD gar nichts machen würde. Aber es wird sicherlich FSR2.0 geben.
OgrEGT
2022-03-06, 10:52:46
Glaube nicht, dass das wichtiger ist - vielleicht kurzfristig. Ich halte das für überschätzt, da das langfristig ja eh mit Engine-eigenen Lösungen oder offenere Standards passieren wird, selbst wenn AMD gar nichts machen würde. Aber es wird sicherlich FSR2.0 geben.
Die Frage ist wie lange "langfristig" ist... ich befürchte einige Jahre... solange kann sich AMD das nicht leisten...
iamthebear
2022-03-06, 11:22:19
DLSS ist in erster Linie bei den schwächeren Karten wichtig.
.) Bei den Topmodellen (AD102 vs. Navi31) ist es egal, da die Karten sowieso mit 4K Native flüssig laufen. Klar wenn man RT einschaltet vielleicht nicht mehr aber ob DLSS + RT nun wirklich besser aussieht als 4K Native ohne RT da habe ich meine Zweifel.
.) Bei der 2. Liga (AD103 vs. Navi32) wird das Duell in anspruchsvollen Spielen DLSS Quality vs. FSR UQ sein. FSR hat hier den Vorteil, dass der Performance Overhead deutlich geringer ist wodurch sie eine Stufe höher stellen können. Im Endeffekt wird DLSS Quality immer noch etwas besser aussehen aber viel ist es nicht und in einem Blindtest vermutlich nicht wahrnehmbar.
.) Ab der 3. Liga (AD104 vs. Navi33) abwärts werden dann teilweise schon höhere Modi zum Einsatz kommen z.B. DLSS Performance vs. FSR Balanced und da ist Nvidia doch deutlich vorne.
Das Ganze ist natürlich auch eine Frage des Displays. Bei jemandem der mit einem 4K TV spielt ist eine gute Upscalinglösung wichtiger als bei jemandem, der einen 24" 1080p Monitor hat.
Lurtz
2022-03-06, 11:32:34
DLSS ist in erster Linie bei den schwächeren Karten wichtig.
.) Bei den Topmodellen (AD102 vs. Navi31) ist es egal, da die Karten sowieso mit 4K Native flüssig laufen. Klar wenn man RT einschaltet vielleicht nicht mehr aber ob DLSS + RT nun wirklich besser aussieht als 4K Native ohne RT da habe ich meine Zweifel.
Allein aufkrawall hat doch zuletzt zig Bildvergleiche gepostet, bei denen man gesehen hat wie sehr sich das lohnt.
Eine Kleinigkeit möcht ich da erwähnen: DLSS kann nicht die fehlenden Strahlen von RT ersetzen, RT selbst wird also ungenauer.
Der Rest kann natürlich rekonstruiert werden.
Kann mir auch nicht vorstellen, dass es Jahre dauern wird, bis die meisten eigene Technologien dafür haben. NV hat vorgelegt mit einer guten Technologie, leider nicht universell einsetzbar, da GPU-proprietär. Entweder NV öffnet das Ganze für andere Hardware (was für NV die schlaueste Lösung wäre i.Ü.) oder das Ganze geht früher oder später zwangsläufig unter.
OgrEGT
2022-03-06, 11:58:32
Eine Kleinigkeit möcht ich da erwähnen: DLSS kann nicht die fehlenden Strahlen von RT ersetzen, RT selbst wird also ungenauer.
Der Rest kann natürlich rekonstruiert werden.
Kann mir auch nicht vorstellen, dass es Jahre dauern wird, bis die meisten eigene Technologien dafür haben. NV hat vorgelegt mit einer guten Technologie, leider nicht universell einsetzbar, da GPU-proprietär. Entweder NV öffnet das Ganze für andere Hardware (was für NV die schlaueste Lösung wäre i.Ü.) oder das Ganze geht früher oder später zwangsläufig unter.
Ja, ich meinte nicht dass es Jahre dauert bis AMD oder Intel eine Lösung haben... allerdings ggf schon wenn es um einen offenen gemeinsamen von allen unterstützten Standard gibt...
Da waren nicht nur AMD und Intel mit gemeint. Es ist ja klar, dass Intel schon mit XeSS dabei ist und bei N3x ziemlich sicher FSR2.0.
Ich meinte eigentlich die Softwarehersteller selbst.
OgrEGT
2022-03-06, 13:01:59
Achso Du meinst dass die Spiele Studios sich auf DLSS FSR oder XeSS einigen... kann ich mir nicht vorstellen... da brauchts mMn Microsoft mit einer DX Lösung...
Thunder99
2022-03-06, 13:06:21
Eventuell gibt es eine Entwicklung wie bei Mantle -> DX12, d.h. es wird mittelfristig oder langfristig offen
Nvidia hatte ja auch nach Ewigkeit den GSync Standard aufgeweicht...
Achso Du meinst dass die Spiele Studios sich auf DLSS FSR oder XeSS einigen... kann ich mir nicht vorstellen... da brauchts mMn Microsoft mit einer DX Lösung...
Quark, jeder wird da seinen eigenen Kram entwickeln. Epic, Frostbyte usw. Ist doch gar keine "Einigung" notwendig. Da kann doch jede Engine ihre proprietäre Lösung bringen - oder man baut eigene Technologie auf FSR auf, wie TressFX damals bei Tomb Raider z.B. Da gibts tausende Möglichkeiten. Es wird sich nicht das Eine durchsetzen, da werden viele Entwickler viele Lösungen daraus machen.
Thunder99
Das ist auch meine Hoffnung. Das kann passieren, dann kann es für DLSS dann aber schon zu spät sein, war es bei GSync ja auch.
Platos
2022-03-06, 13:31:43
Glaube nicht, dass das wichtiger ist - vielleicht kurzfristig. Ich halte das für überschätzt, da das langfristig ja eh mit Engine-eigenen Lösungen oder offenere Standards passieren wird, selbst wenn AMD gar nichts machen würde. Aber es wird sicherlich FSR2.0 geben.
Ja, +40-80% mehr Leistung bei ruhigerem Bild wie nativ ist natürlich eine überschätzte Sache :D
Engine Eigene implementierungrn sind schön und gut, aber bisher sind sie alle nicht so gut wie DLSS. Das ist also etwas, dass noch viele Jahre entfernt ist. Was FSR bringt (ob es mit DLSS mithalten kann), steht in den Sternen. Ist ja nicht so, als würde DLSS einfach für AMD nicht mehr weiter entwickelt werden. Wenn FSR 2.0 kommt, gibts vlt. schon DLSS 3.0. Also....
Und wann es kommt, steht auch in den Sternen. Nur weil nvidia nach 2 Jahren 2.0 gebracht hat, heisst das kein bisschen, dass AMD auch nach 2 Jahren etwas bringt.
Platos
2022-03-06, 13:35:28
DLSS ist in erster Linie bei den schwächeren Karten wichtig.
.) Bei den Topmodellen (AD102 vs. Navi31) ist es egal, da die Karten sowieso mit 4K Native flüssig laufen. Klar wenn man RT einschaltet vielleicht nicht mehr aber ob DLSS + RT nun wirklich besser aussieht als 4K Native ohne RT da habe ich meine Zweifel.
.) Bei der 2. Liga (AD103 vs. Navi32) wird das Duell in anspruchsvollen Spielen DLSS Quality vs. FSR UQ sein. FSR hat hier den Vorteil, dass der Performance Overhead deutlich geringer ist wodurch sie eine Stufe höher stellen können. Im Endeffekt wird DLSS Quality immer noch etwas besser aussehen aber viel ist es nicht und in einem Blindtest vermutlich nicht wahrnehmbar.
.) Ab der 3. Liga (AD104 vs. Navi33) abwärts werden dann teilweise schon höhere Modi zum Einsatz kommen z.B. DLSS Performance vs. FSR Balanced und da ist Nvidia doch deutlich vorne.
Das Ganze ist natürlich auch eine Frage des Displays. Bei jemandem der mit einem 4K TV spielt ist eine gute Upscalinglösung wichtiger als bei jemandem, der einen 24" 1080p Monitor hat.
Der Unterschied zwischen ultra Quality und Quality DLSS ist Viel ist nicht viel? Im Forum wurde genug gepostet, um zu zeigen, dass FSR ultra qualitiy in Bewegung oft eher wie DLSS Perfomance aussieht.
Abgesehen davon: Du weisst schon, dass nur der kleinste Teil der Welt Top-End GPUs haben? Du stellst das so dar, als wären das ja "nur" die kleineren Karten und als ob das eigentlich der vernachlässigbare Teil der Gamer wäre. Dabei ist es genau anders rum.
basix
2022-03-06, 13:43:27
Und wann es kommt, steht auch in den Sternen. Nur weil nvidia nach 2 Jahren 2.0 gebracht hat, heisst das kein bisschen, dass AMD auch nach 2 Jahren etwas bringt.
Der Herkelman hat selbst gesagt, dass FSR intern eine der grössten SW-Projekte sei. Das wird nach FSR 1.0 nicht einfach gestoppt worden sein. AMD weiss ja wohl selbst, dass DLSS die besser Qualität liefert. AMD brauchte einfach mehr Zeit, und RDNA3 Release wäre ein guter Zeitpunkt. Und wer weiss, evtl. bringt Nvidia zur GTC DLSS-Next. Dann kann AMD noch was an ihrem Marketing-Sprech was anpassen.
Thunder99
2022-03-06, 14:07:09
Dachte man zu Ampere Release auch aber Pustekuchen.
Es ist realistischer ein FSR 2.0 sehen als ein DLSS 3.0
basix
2022-03-06, 14:22:14
DLSS 2.0 kam Mai 2020. Ampere September 2020. Wer hat da nach nichtmal 5 Monaten ein neues DLSS erwartet? Ich jedenfalls nicht.
GTC ist Mai 2022. Oder Lovelace Release. Nach etwa zwei Jahren könnte ich mir ein DLSS 3.0 schon vorstellen. Man muss aber auch sehen: Abnehmender Grenzertrag. Wird DLSS gut implementiert (abhängig von Engine und Entwickler), funktioniert DLSS sehr gut. Ghosting/Smearing und falsch gewählte LOD Levels/MIP Bias sind die noch ärgsten Probleme. Bessere Performance ist ein Nice to Have (Lovelace wird eh deutlich schneller, Sparsity könnte man zusätzlich ab Ampere+ bringen).
FSR 2.0 ist so sicher wie das Amen in der Kirche. Und bei DLSS 3.0 sehe ich die Chancen als ebenfalls sehr hoch an.
Neurosphere
2022-03-06, 14:29:47
Die Frage ist halt allgemein wie Vorteilhaft das ganze aus Sicht von NV oder AMD ist wenn man neue Produkte auf den Markt bringt.
Jetzt hat sich das ganze wegen Konkurenz und den Übergang zum immer stärker werdenden Bereich von 4K und den entstehenden Anforderungen gelohnt. Aber in Zukunft möchte z.B. NV kein DLSS 3.0 haben das auf der alten Gen soviel fps bringt das Spieler nicht zur neuen Gen wechseln. Entweder wird jedes Update nur mit der neuen Gen laufen oder es stirbt halt doch langsam aus weil auch mit RT und allem drum und dran auf 4K dreistellige fps gehalten werden.
Ich sehe die Zukunft eher bei DLDSR und den allgemeinen derivaten auf Seiten von AMD, NV und Intel. DLSS etc. wird eher von den Softwareschmieden oder MS kommen.
Ja, +40-80% mehr Leistung bei ruhigerem Bild wie nativ ist natürlich eine überschätzte Sache :D
Engine Eigene implementierungrn sind schön und gut, aber bisher sind sie alle nicht so gut wie DLSS. Das ist also etwas, dass noch viele Jahre entfernt ist. Was FSR bringt (ob es mit DLSS mithalten kann), steht in den Sternen. Ist ja nicht so, als würde DLSS einfach für AMD nicht mehr weiter entwickelt werden. Wenn FSR 2.0 kommt, gibts vlt. schon DLSS 3.0. Also....
Und wann es kommt, steht auch in den Sternen. Nur weil nvidia nach 2 Jahren 2.0 gebracht hat, heisst das kein bisschen, dass AMD auch nach 2 Jahren etwas bringt.
Du hast nicht verstanden worum es geht ;).
Der Herkelman hat selbst gesagt, dass FSR intern eine der grössten SW-Projekte sei. Das wird nach FSR 1.0 nicht einfach gestoppt worden sein. AMD weiss ja wohl selbst, dass DLSS die besser Qualität liefert. AMD brauchte einfach mehr Zeit, und RDNA3 Release wäre ein guter Zeitpunkt. Und wer weiss, evtl. bringt Nvidia zur GTC DLSS-Next. Dann kann AMD noch was an ihrem Marketing-Sprech was anpassen.
AMD hat ja einen offeneren Anspruch und will ja sicherlich, dass die Spielehersteller auch selbst aktiv werden beim Thema FSR.
Das bedeutet natürlich auch, dass die Entwickler mehr Scheisse bauen können als bei NVs geschlossenem Ansatz. War bei Freesnyc ja auch so, gute Implementierungen musste man erst suchen, jetzt ist es allerdings Usus und Gsync ist tot.
Berniyh
2022-03-06, 15:37:59
Nvidia hatte ja auch nach Ewigkeit den GSync Standard aufgeweicht...
Ne, haben sie nicht, sie haben nur ihren proprietären Mist mehr oder weniger aufgegeben. (Vereinzelt kommen ja nach wie vor Displays damit raus).
btw, von einem Standard zu sprechen der proprietär ist und nur von einem Hersteller unterstützt wird ist die reinste Verhöhnung von dem Wort.
Das ist kein Standard.
basix
2022-03-06, 15:39:38
Aber in Zukunft möchte z.B. NV kein DLSS 3.0 haben das auf der alten Gen soviel fps bringt das Spieler nicht zur neuen Gen wechseln. Entweder wird jedes Update nur mit der neuen Gen laufen oder es stirbt halt doch langsam aus weil auch mit RT und allem drum und dran auf 4K dreistellige fps gehalten werden.
DLSS 3.0 kann einfach auch nach mehr Rechenleistung verlangen. Dann wird die alte Gen automatisch schlechter aussehen.
DLSS ist ein Differenzierungsmerkmal. Da will man vor AMD und Intel bleiben wollen. Unabhängig davon, was die alte Nvidia Gen kann oder nicht kann.
Platos
2022-03-06, 16:09:55
Der Herkelman hat selbst gesagt, dass FSR intern eine der grössten SW-Projekte sei. Das wird nach FSR 1.0 nicht einfach gestoppt worden sein. AMD weiss ja wohl selbst, dass DLSS die besser Qualität liefert. AMD brauchte einfach mehr Zeit, und RDNA3 Release wäre ein guter Zeitpunkt. Und wer weiss, evtl. bringt Nvidia zur GTC DLSS-Next. Dann kann AMD noch was an ihrem Marketing-Sprech was anpassen.
Ich sage nicht, dass es nie kommt. Ich sage nur, dass es nicht mit RDNA3 kommen muss.
Platos
2022-03-06, 16:24:25
Die Frage ist halt allgemein wie Vorteilhaft das ganze aus Sicht von NV oder AMD ist wenn man neue Produkte auf den Markt bringt.
Jetzt hat sich das ganze wegen Konkurenz und den Übergang zum immer stärker werdenden Bereich von 4K und den entstehenden Anforderungen gelohnt. Aber in Zukunft möchte z.B. NV kein DLSS 3.0 haben das auf der alten Gen soviel fps bringt das Spieler nicht zur neuen Gen wechseln. Entweder wird jedes Update nur mit der neuen Gen laufen oder es stirbt halt doch langsam aus weil auch mit RT und allem drum und dran auf 4K dreistellige fps gehalten werden.
Ich sehe die Zukunft eher bei DLDSR und den allgemeinen derivaten auf Seiten von AMD, NV und Intel. DLSS etc. wird eher von den Softwareschmieden oder MS kommen.
Ach, es wird nie zu viel Leistung geben, keine Sorge :D In 4K plus RT schafft nicht mal ne 3090 irgendetwas ohne DLSS. Und RT ist gerade erst aufgestanden. Je mehr RT man nutzt, desto wichtiger wird DLSS. DLSS und co wird niemals aussterben (vlt. heisst es anders, aber KI-Upscaling wird nie mehr sterben).
Also sorry, aber aussterben ist ja wirklich Blödsinn. Ich glaube auch eher, dass DLSS 3.0 bessere qualität liefert bei gleicher Leistung und nicht umgekehrt. Wobei im Umkehrschluss natürlich dann evtl. zur nächsten Stufe bei DLSS gegriffen wird und so wieder mehr Perfomance vorhanden ist.
Dennoch werden Spiele immer anfordernder. Ist mehr Leistung vorhanden, wird diese genutzt, so einfach ist das.
Es wird IMMER upgrades geben, da die Anforderung auch immer steigt. Ich glaube auch nicht, dass sie Turing bei einem DLSS 3.0 (wenns bei Lovelace kommt) absägen. Ich glaube ehrlivh gesagt auch nicht, dass DLSS 3.0 so einen quantensprung macht, wie sich alle erhoffen. Wie basix schon gesagt hat: abnehmender Grenzertrag. Ich glaube eher, dass weiterhin an der Dezimierung von Artefakten (smearing etc) gearbeitet wird und DLSS weniger der heilige Gral sein wird, der massiv bessere Optik bei gleicher Perfomance bietet. Wie gesagt, eher durch weniger Smearing etc. Weil eig. ist es (unter quality) bei guter Implementierung jetzt schon der heilige Gral ;) )
Ob DLSS 3.0 mit Lovelace kommt, ist auch nicht sicher. Aber vlt. kann man ja irgendwann mit DLSS die Framerate verdoppeln (also ich meine jetzt durch einfügen von neuen Bildern, nicht durch simple Perfomanceersparnisse).
BlacKi
2022-03-06, 19:44:55
Ich sehe die Zukunft eher bei DLDSR und den allgemeinen derivaten auf Seiten von AMD, NV und Intel. DLSS etc. wird eher von den Softwareschmieden oder MS kommen.
das ding ist, 4k dlss sieht wesentlich besser aus als 1440p ohne dlss. genauso wird 8k dlss leider alternativlos zu 4k nativ sein. wenn dann noch weitere iterationen von dlss erscheinen, dann steht bald auch 12-16k auflösungen nichts mehr im weg. das wird wohl besser laufen und besser aussehen als 4k nativ.
deswegen ist es auch wichtig für amd, das die endlich ebenfalls mit DL auflösungen rekonstruieren, und ihre alten aussagen endlich über board werfen.
aufkrawall
2022-03-06, 19:54:24
AMD hat ja einen offeneren Anspruch und will ja sicherlich, dass die Spielehersteller auch selbst aktiv werden beim Thema FSR.
I hate to break it to you, aber welches Interesse lässt sich bei den AMD-gesponserten Titeln der letzten Jahre erkennen? Mehr als ein AMD Intro-Logo, i.d.R. grottenhässliches Krümel-RT und für 1440p und 1080p 100% unbrauchbares FSR gabs da schlicht nicht. Völlig unambitionierter Gammel.
Das bedeutet natürlich auch, dass die Entwickler mehr Scheisse bauen können als bei NVs geschlossenem Ansatz. War bei Freesnyc ja auch so, gute Implementierungen musste man erst suchen, jetzt ist es allerdings Usus und Gsync ist tot.
Wirrer Vergleich, das geht nicht mal als Äpfel vs. Birnen durch...
iamthebear
2022-03-07, 00:43:40
Der Unterschied zwischen ultra Quality und Quality DLSS ist Viel ist nicht viel?
Ich wollte sagen: DLSS Quality ist im Durchschnitt ein kleines bisschen besser als FSR UQ.
Im Forum wurde genug gepostet, um zu zeigen, dass FSR ultra qualitiy in Bewegung oft eher wie DLSS Perfomance aussieht.
Wenn du Vergleiche in der Bewegung machst, dann hat das relativ wenig mit FSR zu tun. Da testest du DLSS gegen das TAA des Spiels.
Abgesehen davon: Du weisst schon, dass nur der kleinste Teil der Welt Top-End GPUs haben? Du stellst das so dar, als wären das ja "nur" die kleineren Karten und als ob das eigentlich der vernachlässigbare Teil der Gamer wäre. Dabei ist es genau anders rum.
Ja der Großteil der Gamer hat kleine GPUs im 200-300 Euro Bereich. Nur ist da die Diskussion über DLSS vs. FSR hinfällig, da dieser Preisbereich weder von RDNA3 noch von Lovelace bedient werden wird.
Ich würde sogar soweit gehen zu sagen, dass DLSS vs. FSR der Großteil der Gamer vollkommen egal ist, da sie sowieso nicht mit der Lupe die Pixel betrachten und glücklich sind solange das Spiel irgendwie spielbar läuft auch wenn es nur 720p ist.
DLSS 2.0 kam Mai 2020. Ampere September 2020. Wer hat da nach nichtmal 5 Monaten ein neues DLSS erwartet? Ich jedenfalls nicht.
GTC ist Mai 2022. Oder Lovelace Release. Nach etwa zwei Jahren könnte ich mir ein DLSS 3.0 schon vorstellen.
Die Frage ist was soll DLSS 3.0 bringen außer nur einer neuen Ziffer vorne.
Bei DLSS 2.0 waren die Innovationen zum einen die Verarbeitung der Motion Vektoren, was die Qualität deutlich erhöht hat und zum Anderen, dass nun auf einem generischen Modell trainiert wurde statt individuell pro Spiel was sich stark auf die Verbreitung ausgewirkt hat.
[/quote]FSR 2.0 ist so sicher wie das Amen in der Kirche. Und bei DLSS 3.0 sehe ich die Chancen als ebenfalls sehr hoch an.[/QUOTE]
Wenn FSR 2.0 kommt, dann wird es vermutlich ähnlich wie DLSS funktionieren d.h. AI basierend (es gab ja schon Gerüchte über KI Einheiten in RDNA3 ähnlich der Tensor Cores) und mit Motion Vektoren. Das bedeutet jedoch, dass es aufwändiger zu integrieren ist. Allerdings wenn es AMD clever anstellt, dann werden sie die Schnittstellen ähnlich zu DLSS gestalten sodass bei Spielen die DLSS und FSR 2.0 unterstützen der Aufwand nur einmal anfällt.
DLSS 3.0 kann einfach auch nach mehr Rechenleistung verlangen. Dann wird die alte Gen automatisch schlechter aussehen.
DLSS hat bereits jetzt sehr viel Overhead. Wenn dieser noch höher wird, dann wird der Sinn der Frameratensteigerung etwas verfehlt.
Ach, es wird nie zu viel Leistung geben, keine Sorge :D In 4K plus RT schafft nicht mal ne 3090 irgendetwas ohne DLSS. Und RT ist gerade erst aufgestanden. Je mehr RT man nutzt, desto wichtiger wird DLSS. DLSS und co wird niemals aussterben (vlt. heisst es anders, aber KI-Upscaling wird nie mehr sterben).
Die Frage ist, ob es Sinn macht RT einzusetzen, wenn man dafür die Renderauflösung reduzieren muss. Sieht DLSS Quality mit RT wirklich besser aus als 4K Native?
Also sorry, aber aussterben ist ja wirklich Blödsinn. Ich glaube auch eher, dass DLSS 3.0 bessere qualität liefert bei gleicher Leistung und nicht umgekehrt. Wobei im Umkehrschluss natürlich dann evtl. zur nächsten Stufe bei DLSS gegriffen wird und so wieder mehr Perfomance vorhanden ist.
Die Frage ist woher soll die bessere Qualität bei gleicher Leistung kommen? Es ist ja nicht so als hätte sich DLSS seit 2.0 nicht weiterentwickelt. Nvidia bastelt ja immer klein dran herum und z.B. 2.3 war ja was das Ghosting angeht ein großer Schritt. Viel mehr wird da fürchte ich nicht kommen.
Ob DLSS 3.0 mit Lovelace kommt, ist auch nicht sicher. Aber vlt. kann man ja irgendwann mit DLSS die Framerate verdoppeln (also ich meine jetzt durch einfügen von neuen Bildern, nicht durch simple Perfomanceersparnisse).
Theoretisch wäre das natürlich möglich, dass man z.B. das Spiel intern mit 30fps rendert und dann auf 60fps hochrechnet. Das Problem daran ist jedoch, dass dies zwar das Bild flüssiger macht, man jedoch immer noch den Input Lag von 30fps hat und es sich deshalb kaum wie 60fps anfühlen wird.
War bei Freesnyc ja auch so, gute Implementierungen musste man erst suchen, jetzt ist es allerdings Usus und Gsync ist tot.
Der Vergleich mit Gsync hinkt etwas. Das Hauptproblem GSync war, dass dies nur funktioniert hat wenn die Monitorhersteller die GSync Module von Nvidia gekauft haben während Freesync ohne zusätzliche Hardware ausgekommen ist. Das war der Grund, warum sich Freesync am Ende durchgesetzt hat.
Bei DLSS ist es umgekehrt. Die dll kostet den Spieleentwickler nichts. Im Gegenteil: Nvidia hat am Anfang sogar gratis eigenes Personal zu den Spieleentwicklern gesendet, die dabei geholfen haben DLSS zu integrieren.
Würde Nvidia die DLSS dll verkaufen genauso wie damals die GSync Module, so hätte sich das auch nie durchgesetzt.
aufkrawall
2022-03-07, 01:45:20
Ich wollte sagen: DLSS Quality ist im Durchschnitt ein kleines bisschen besser als FSR UQ.
Nein. Das meiste TAA ist derart schlecht, dass selbst DLSS Performance FSR UQ massiv überlegen ist.
basix
2022-03-07, 08:31:01
Die Frage ist was soll DLSS 3.0 bringen außer nur einer neuen Ziffer vorne.
Bei DLSS 2.0 waren die Innovationen zum einen die Verarbeitung der Motion Vektoren, was die Qualität deutlich erhöht hat und zum Anderen, dass nun auf einem generischen Modell trainiert wurde statt individuell pro Spiel was sich stark auf die Verbreitung ausgewirkt hat.
Wer weiss, da gibt es einige ideen:
3D-Motion Vektoren (wurde immer wieder genannt, ich würde zwar erwarten dass das DLSS 2.0 schon kann)
Verbesserte Schlieren/Ghosting Unterdrückung
Verbessertes Neuronales Netzwerk für generell verbessere Qualität, im speziellen bei Ausgabeauflösungen <4K.
Upsampling anhand von Auflösung * Zeit. Bei 1080p/120fps rendert man die selbe Informationsmenge pro Zeit wie bei 4K/30fps
LoD Levels werden automatisch auf die Output-Auflösung angepasst. Automatisches forcieren der richtigen LoD und MIP Bias Levels. Keine Qualitätseduktion von RT-Effekten und Shadow Maps.
Wenn FSR 2.0 kommt, dann wird es vermutlich ähnlich wie DLSS funktionieren d.h. AI basierend (es gab ja schon Gerüchte über KI Einheiten in RDNA3 ähnlich der Tensor Cores) und mit Motion Vektoren. Das bedeutet jedoch, dass es aufwändiger zu integrieren ist. Allerdings wenn es AMD clever anstellt, dann werden sie die Schnittstellen ähnlich zu DLSS gestalten sodass bei Spielen die DLSS und FSR 2.0 unterstützen der Aufwand nur einmal anfällt.
Dass FSR 2.0 ähnlich wie DLSS sein wird halte ich für naheliegend. Und wenn es mit Matrix-Beschleunigung funktioniert, erwarte ich einen Fallback-Modus via DOT4-Produkt, siehe XeSS.
DLSS hat bereits jetzt sehr viel Overhead. Wenn dieser noch höher wird, dann wird der Sinn der Frameratensteigerung etwas verfehlt.
Das schöne an DLSS: Bei gegebener Outputauflösung sind die Kosten fix. Wenn die HW also schneller wird (Lovelace), kann auch mehr investiert werden (für bessere Qualität). Und es gäbe noch Sparsity. Wüsste jetzt nicht, dass das auf Ampere genutzt wird. Gab zumindest nie eine Info in diese Richtung.
Ich hätte zwar auch lieber, dass der Overhead eher sinkt und damit auch 120fps mit entsprechendem FPS-Boost nutzbar sind. Und hinsichtlich 8K benötigt DLSS verglichen mit 4K nochmals ca. 3.0...3.2x Berechnungszeit. Da wäre es schön, wenn DLSS nicht noch mehr Berechnungen benötigt. Mit der Zeit und mit schneller werdenden GPUs sinkt dann der Overhead automatisch.
Die Frage ist, ob es Sinn macht RT einzusetzen, wenn man dafür die Renderauflösung reduzieren muss. Sieht DLSS Quality mit RT wirklich besser aus als 4K Native?
Siehe meinen obigen Punkt zu den Verbesserungen. Man sampled mit aktiviertem DLSS ja immer noch pratkisch gleich viele RT-Samples pro Zeit.
Meiner Meinung nach sind viele Systeme in heutigen Engines an die Renderauflösung angepasst. Was bisher auch Sinn gemacht hat. Mit temporalen Upsampling Verfahren würde ich einige dieser Systeme eher mit der Outputauflösung verknüpfen. Dann werden solche LoD-Themen stark verbessert. Das hat aber deutliche Auswirkungen auf die Engines und die DLSS-Integration.
Die Frage ist woher soll die bessere Qualität bei gleicher Leistung kommen? Es ist ja nicht so als hätte sich DLSS seit 2.0 nicht weiterentwickelt. Nvidia bastelt ja immer klein dran herum und z.B. 2.3 war ja was das Ghosting angeht ein großer Schritt. Viel mehr wird da fürchte ich nicht kommen.
Die Verbesserungen von DLSS sind rein interner Natur. Hier werden die Verbesserungen in der Tat limitiert sein. Siehe aufkrawalls letzten Beitrag im DLSS Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12938137#post12938137), es hängt noch viel an der Implementation des jeweiligen Spiels ab. Solche Qualitätsverbesserungen sind performancetechnisch gratis.
Mehr Informationen ermöglichen ebenfalls höhere Qualität. Diese Infos muss die Engine bereitstellen. DLSS 3.0 könnte unter Umständen nicht rückwärtskompatibel mit DLSS 2.0 Games sein (DLL kopieren funktioniert dann also nicht mehr). Einfach weil weitere Anpassungen an der Engine nötig wären.
Neurosphere
2022-03-08, 10:16:54
https://abload.de/img/n31akjks.jpg
aceCrasher
2022-03-08, 10:27:56
https://abload.de/img/n31akjks.jpg
Meint er dass da dann letztendlich nur 55% der Performance/Tflop rauskommen verglichen mit einer single die Variante? Weil das wäre ein ziemlich katastrophales Ergebnis für MCM.
basix
2022-03-08, 10:38:09
Jepp, kann ich mir fast nicht vorstellen. Das wäre Turing -> Ampere Niveau. Nicht völlig unmöglich aber mMn wird das nicht so kommen.
Bislang ist das Scaling ca. 0.85x bei verdoppelten CUs (siehe RDNA1/2 Scaling Benchmarks von CB). Mit doppelten Flops hat man 1.7x Performance. Oder +100% CUs ergeben +70% Performance. Nehmen wir nun an, die 7950XT hat 3x Rohperformance einer 6900XT (2.2 GHz bei 60WGP). Dann kämen wir bei ~2.3x Performance raus oder ~0.77x vom idealen Scaling.
Was bei RDNA3 nun aber ist: Man geht von 40WGP (N21) auf nur 60WGP (N31) hoch. Die Skalierungseffekte könnten also weniger stark einschlagen. Nehmen wir hier wieder den selben Scaling-Faktor an und dass ein doppelt so grosser WGP auch doppelte Performance/Flop liefert, könnte ~2.7x Performance rauskommen bei 3x FLOPS [(1+0.5*0.7) * 2 = 2.7].
Vermutlich wird die Wahrheit irgendwo dazwischen liegen und der Takt etwas höher als bei N21. Dann passt das mit den gerüchteweisen ~2.7x Performance schon zusammen. Die -45% Performance-Regression halte ich für unwahrscheinlich.
Der_Korken
2022-03-08, 10:50:18
Nehmen wir hier wieder den selben Scaling-Faktor an und dass ein doppelt so grosser WGP auch doppelte Performance/Flop liefert
Da glaube ich nicht dran. Doppelt so große WGPs heißt erstmal nur, dass man die ALUs verdoppelt hat. Bei Ampere ist die "IPC" dadurch ordentlich nach unten gegangen, auch wenn man die INT-Einheiten von Turing mit einrechnet (d.h. auf 100 FP-Ops auch 30 INT-Ops kommen).
Neurosphere
2022-03-08, 10:55:47
Ich glaube er zieht nicht 45% absolut ab sondern von der relativen Steigerung.
Also statt +250% bei N31 zu N21 nur +205%.
basix
2022-03-08, 10:57:28
Da glaube ich nicht dran. Doppelt so große WGPs heißt erstmal nur, dass man die ALUs verdoppelt hat. Bei Ampere ist die "IPC" dadurch ordentlich nach unten gegangen, auch wenn man die INT-Einheiten von Turing mit einrechnet (d.h. auf 100 FP-Ops auch 30 INT-Ops kommen).
Klar, Tendenz zu Performance-Regression ist typisch bei diesen Sachen. Der Umfang hängt aber stark von der Umsetzung ab. Bei RDNA1 hat man verglichen zu Vega auch 2x CUs in einem Shared WGP zusammengefasst. Geschadet hat es nicht. Das drumherum ist entscheidend (Frontend, Caches, Scheduler, Register). Und da wissen wir noch gar nichts.
Bei Ampere hat man einfach die INT-Pipe zu FP+INT aufgebohrt. That's it. Klar kann man hier keine Quantensprünge erwarten (Ausnahme: Creator SW mit viel FP-Load profitiert bei Ampere enorm). Bei den RDNA3 WGPs erwarte ich, dass die Ressourcen rund um die CUs mehr mitskalieren als bei Ampere.
OgrEGT
2022-03-12, 20:12:13
CapFrameX: AMD FidelityFX Super Resolution 2.0 to be announced soon
https://videocardz.com/newz/amd-fsr-2-0-might-be-announced-soon-impressive-performance-and-image-quality
CapFrameX
@CapFrameX
FSR 2.0 to come/announced soon. Saw some footage today. Very impressive. 😮
▶️ Temporal upscaling + optimized AA
▶️ Does not need AI
▶️ Runs on GPUs from all vendors
▶️ Impressive performance and image quality
AMD even claims that it can be better than native. ^^
BlacKi
2022-03-12, 20:31:05
"can be better the native" kann viel bedeuten. es könnte mit dem sharpen und auf ultra quality möglicherweiße wirklich von manchen als besser aussehen interpretiert werden.
wenn es besser ist als dlss nehm ichs natürlich gerne:biggrin:
OgrEGT
2022-03-12, 20:38:39
"can be better the native" kann viel bedeuten. es könnte mit dem sharpen und auf ultra quality möglicherweiße wirklich von manchen als besser aussehen interpretiert werden.
wenn es besser ist als dlss nehm ichs natürlich gerne:biggrin:
Wenns on par mit DLSS ist wärs schon ok... das Geniale wär dass es auf allen GPUs läuft :up:
robbitop
2022-03-12, 20:43:16
Ohne NN gleich gute Ergebnisse wie DLSS 2.3+ und XeSS? Unwahrscheinlich? So gut wie TSR? Schon möglich.
amdfanuwe
2022-03-12, 20:59:33
Ohne NN gleich gute Ergebnisse wie DLSS 2.3+ und XeSS? Unwahrscheinlich? So gut wie TSR? Schon möglich.
Gar nicht unwahrscheinlich.
Ein NN ist auch nur ein digitaler Filter mit Parametern die durch ein NN gelernt wurden.
aufkrawall
2022-03-12, 21:02:37
Eben deshalb ist es unwahrscheinlich, zumindest steht der Beweis schlicht noch aus. Allerdings kann man das auch für die Artefakte von DLSS umdrehen, wobei die Technologie jedoch noch deutlich jünger und bislang auf eine Implementierung beschränkt (gewesen) ist.
amdfanuwe
2022-03-12, 21:16:37
zumindest steht der Beweis schlicht noch aus.
Und solange NN nicht erklären können, wie sie auf die Parameter kommen, läßt sich nichts beweisen.
Arbeiten mit NN ist wie arbeiten nach Bauchgefühl. kann 99 mal gutgehen und dann voll daneben liegen.
Aber solange man nichts besseres hat, ist das ja akzeptabel.
aufkrawall
2022-03-12, 21:39:50
Und solange NN nicht erklären können, wie sie auf die Parameter kommen, läßt sich nichts beweisen.
Was hindert einen daran, den Output zu vergleichen? Bislang sieht DLSS mit 66% Auflösung pro Achse halt massiv besser aus als jedes TAAU, das nicht DL nutzt (ordentlich nachschärfen muss man beides). Und bei 50% ist das sogar noch deutlich ausgeprägter.
robbitop
2022-03-13, 07:35:26
Das Thema hatten wir schon mal. Die Ergebnisse in allen möglichen Anwendungen sprechen eine eindeutige Sprache. Was vorher in vielen vielen Iterationen durch Heurstiken totoptimiert wurde wird in der Regel durch eine oder nur wenige Iterationen durch NNs zerblasen. XeSS und DLSS vs eine zweistellige Zahl verschiedener Kontrahenten mit Heuristiken und es ist nichtmal ein Wettbewerb. zB moderne AI basierte Upscaler zersägen ihre Vorgänger in TVs; AI nightmode bei modernen Smartphones; denoising; gpt-3; autonomes Fahren; deep fakes; Zwischenbildberechnung (online und offline) mit plötzlich ganz anderen Resultatqualitäten… Es gibt sicher noch viele Beispiele mehr und die Ergebnisse sind jedes Mal extrem. Und der Fakt, dass entsprechende Hardware für training und inferencing mittlerweile die Welt im Sturm erobert haben. Und viele Milliarden in AI und deren RnD gesteckt werden (von großen Firmen wie Amazon und Google als auch super kleinen Startups -zB comma.ai die mit einem super kleinen Team dank gutem AI model auf ähnlichen Niveau teilautonomes Fahren hinbekommen wie die neusten Teslas - nur mit 2 Kameras auf einem Smartphone Chip mit Inferencing HW).
All das zeigt doch ganz eindeutig, wie effektiv das ganze ist und es „nur als digitalen filter“ abzutun ist IMO etwas weltfremd.
Mangel76
2022-03-13, 11:11:13
Das Thema hatten wir schon mal. Die Ergebnisse in allen möglichen Anwendungen sprechen eine eindeutige Sprache. Was vorher in vielen vielen Iterationen durch Heurstiken totoptimiert wurde wird in der Regel durch eine oder nur wenige Iterationen durch NNs zerblasen. XeSS und DLSS vs eine zweistellige Zahl verschiedener Kontrahenten mit Heuristiken und es ist nichtmal ein Wettbewerb. zB moderne AI basierte Upscaler zersägen ihre Vorgänger in TVs; AI nightmode bei modernen Smartphones; denoising; gpt-3; autonomes Fahren; deep fakes; Zwischenbildberechnung (online und offline) mit plötzlich ganz anderen Resultatqualitäten… Es gibt sicher noch viele Beispiele mehr und die Ergebnisse sind jedes Mal extrem. Und der Fakt, dass entsprechende Hardware für training und inferencing mittlerweile die Welt im Sturm erobert haben. Und viele Milliarden in AI und deren RnD gesteckt werden (von großen Firmen wie Amazon und Google als auch super kleinen Startups -zB comma.ai die mit einem super kleinen Team dank gutem AI model auf ähnlichen Niveau teilautonomes Fahren hinbekommen wie die neusten Teslas - nur mit 2 Kameras auf einem Smartphone Chip mit Inferencing HW).
All das zeigt doch ganz eindeutig, wie effektiv das ganze ist und es „nur als digitalen filter“ abzutun ist IMO etwas weltfremd.
Wie oben schon geschrieben, dass geht in 99 von hundert Fällen gut, und im 100. geht es massiv schief. So wie es eben bei Tesla immer wieder Unfälle gibt, gibt es immer wieder Situationen, wo ein angelerntes Netz versagt. Ich finde die Idee von DLSS auch toll und es funktioniert mittlerweile in vielen Spielen ganz hervorragend. Aber hier wird gerne immer alles schwarz oder weiß gesehen. Dabei ist kein Weg perfekt, jedes Verfahren hat seine spezifischen Vor- und Nachteile. Und wenn AMDs Verfahren bei allen GPUs funktioniert, dafür aber nicht ganz die Qualität von DLSS erreichen sollte, dann hat es auf jeden Fall eine Daseinsberechtigung. Und überhaupt, lasst uns doch erstmal abwarten, bis wir Resultate sehen.
robbitop
2022-03-13, 11:37:54
Und mit Heutistiken geht es öfter schief. Gerade das macht die AIs ggü Heuristiken auf: das die Trefferrate auch bei Boardercases größer ist und man damit höhere Konsistenz der Ergebnisse. Genau das macht ja Verfahren wie DLSS/XeSS so viel besser.
100% gibt es sowieso nicht. Wenn man auf autonomes Fahren schaut misst man das in disengages per km. Der Mensch liegt da im Schnitt bei 1/200.000 km. Das sind die Unfälle im Schnitt. Wenn man das erreicht hat, hat man gleichgezogen. Wenn man Faktor 2 drüber ist, ist man sogar eindeutig besser.
Die disengages pro km sinken aktuell laut dem was man so ließt exponentiell. Das wäre ohne NN gar nicht möglich. In ein paar Jahrzehnten ist das wahrscheinlich Stand der Technik. Aber darum ging es hier gar nicht. Es ist nur eine von vielen Anwendungen wo NNs ein Gamechanger sind. Insbesondere wenn man bedenkt, dass ja gerade erst damit in der Breite angefangen wurde. Dank steigender Tensorrechenleistung und Zeit die noch vor uns liegt ist da noch ordentlich Potenzial nach oben.
Auch und gerade in Bezug auf DLSS werden die NNs wahrscheinlich mit zunehmender Rechenleistung noch mehr Komplexität bieten und damit ein noch größeres Potenzial.
Dovregubben
2022-03-13, 11:41:42
Wie oben schon geschrieben, dass geht in 99 von hundert Fällen gut, und im 100. geht es massiv schief. So wie es eben bei Tesla immer wieder Unfälle gibt, gibt es immer wieder Situationen, wo ein angelerntes Netz versagt.
Tesla hat ganze viele Schritte in der Pipeline, die nichts mit neuronalen Netzwerken zu tun haben. Außerdem ist es vermessen zu sagen, dass normale Software nicht in 1% der Fälle kaputt geht. Da helfen alle Code-Reviews nichts. Für beides kann man Unittests schreiben, die natürlich auch löchrig sind und mit der Zeit eine bessere Abdeckung bekommen.
Machine Learning ist einfach ein "neues" Programmiermodell, dass sich für bestimmte Probleme besser eignet.
Mangel76
2022-03-13, 14:29:52
Tesla hat ganze viele Schritte in der Pipeline, die nichts mit neuronalen Netzwerken zu tun haben. Außerdem ist es vermessen zu sagen, dass normale Software nicht in 1% der Fälle kaputt geht. Da helfen alle Code-Reviews nichts. Für beides kann man Unittests schreiben, die natürlich auch löchrig sind und mit der Zeit eine bessere Abdeckung bekommen.
Machine Learning ist einfach ein "neues" Programmiermodell, dass sich für bestimmte Probleme besser eignet.
Immer dieser Beißreflex. Niemand hat behauptet, dass "normale" Software nie Fehler hat. Warum gehst du gegen ein Argument an, das niemand gebracht hat?
NNs eignen sich sicher hervorragend für viele Probleme. Das heißt aber nicht, dass sie ein Allheilmittel sind. In einigen Anwendungen werden etwa Vorurteile der Programmierer manifestiert statt objektiver Klassifikationen. Daher sollte man bei aller Begeisterung eben auch ein bisschen Vorsicht walten lassen. Schließlich ist ein NN auch immer eine BlackBox und wie sie auf eine bisher völlig unbekannte Situation reagiert, ist im Vorfeld nicht absehbar. Beim Imagescaling mag das noch harmlos sein, beim automatisierten Fahren kann es aber tötlich sein.
robbitop
2022-03-13, 14:33:43
Sobald man bei 1 disengage pro 1 Mio Kilometer ist, ist man schon x mal zuverlässiger als der Mensch. Und da wird eine ganze Menge validiert.
Ich ein paar Jahrzehnten fährt kein Mensch mehr selbst Auto vermutlich. Aber es bedarf halt einer gewissen Lernkurve bis man das ganze so zuverlässig bekommt. Ohne NNs wäre das wahrscheinlich nicht möglich.
amdfanuwe
2022-03-13, 14:44:23
All das zeigt doch ganz eindeutig, wie effektiv das ganze ist und es „nur als digitalen filter“ abzutun ist IMO etwas weltfremd.
Weltfremd erscheint mir nur dein Verständnis für NN.
Die Tensor Cores multiplizieren zwei 4x4 Bit breite FP-16-Matritzen. FP-16 steht für Floatingpoint, das Ganze bedeutet Gleitkommazahl mit 16 Stellen. Anschließend wird zum Ergebnis eine dritte Matritze (FP16 oder FP32) hinzugefügt. Das geschieht mit Hilfe aggregierter Multiplikations-Additions-Operationen.
https://www.datacenter-insider.de/was-sind-tensor-cores-a-949046/
Also letztendlich nur Matritzen Operationen. Nachdem die Parameter erst mal gelernt sind, bleiben die im Endprodukt fix.
Gleicher Input erzeugt gleichen Output.
Also nix anderes als ein digitaler Filter.
Unterschied ist nur die Bestimmung der Parameter.
Algorithmisch mit dem Vorteil eines nachprüfbaren mathematischen Modells und dem Nachteil nicht alles zu berücksichtigen.
Per Deep Learning mit dem Vorteil einen weiten Bereich zu berücksichtigen aber dem Nachteil kein mathematisches Modell zu liefern und abhängig zu sein vom Lernmaterial.
NN sind aktuell ein Hype und Schlagwort wie es vor ein paar Jahren noch Fuzzi Logik, davor Digital Technik und davor war alles gut, was einen Transistor enthielt.
DL zeigt in einigen Bereichen beeindruckende Leistungen, ist aber lediglich eine weitere Methode in der Datenverarbeitung und nicht der alles lösende heilige Gral.
Ich möchte keinen auf NN basierenden Taschenrechner, da verlass ich mich lieber auf herkömmliche Algorithmen.
robbitop
2022-03-13, 14:53:38
Es sagt auch keiner, dass es ein Allheilmittel oder der heilige Gral ist. Aber dort wo es erfolgreich angewendet wird, sehen klassische Heuristiken keinen Stich mehr wenn man sich die Ergebnisse anschaut. Für diese Einsatzzwecke ist es die mittlerweile mit Abstand beste Option.
Und trivial ist es auch nicht unbedingt. Nur Matrixoperationen nur digitaler Filter. Die entsprechenden Modelle aufzusetzen - da liegt der Hirnschmalz drin. Und das scheint recht spezielles und komplexes Know How zu sein.
Und die Praxis der Ergebnisse kann man nicht mit „hype“ und „buzzword“ wegdiskutieren.
AffenJack
2022-03-13, 15:00:47
NN sind aktuell ein Hype und Schlagwort wie es vor ein paar Jahren noch Fuzzi Logik, davor Digital Technik und davor war alles gut, was einen Transistor enthielt.
DL zeigt in einigen Bereichen beeindruckende Leistungen, ist aber lediglich eine weitere Methode in der Datenverarbeitung und nicht der alles lösende heilige Gral.
Ich möchte keinen auf NN basierenden Taschenrechner, da verlass ich mich lieber auf herkömmliche Algorithmen.
Dafür brauchst du auch kein NN. Das ändert nix daran, dass die NNs als Methode in einigen Punkten, wie z.B. Bildskalierung schon klar gezeigt haben, dass man mit herkömmlichen Algorithmen nicht mehr in die Nähe von NNs kommt. Und das obwohl an diesen schon 20 Jahre geforscht wurde, während NNs erst ein paar Jahre auf dem Buckel haben. Das hat auch nix mit Hype zutun, sondern ist schlicht der Stand der Technik und Wissenschaft in diesem Bereich.
Im Bestfall landet man ohne NN bei TSR, wie robbitop schon schreibt.
OgrEGT
2022-03-13, 15:30:17
Sobald man bei 1 disengage pro 1 Mio Kilometer ist, ist man schon x mal zuverlässiger als der Mensch. Und da wird eine ganze Menge validiert.
Ich ein paar Jahrzehnten fährt kein Mensch mehr selbst Auto vermutlich. Aber es bedarf halt einer gewissen Lernkurve bis man das ganze so zuverlässig bekommt. Ohne NNs wäre das wahrscheinlich nicht möglich.
Warum sollte man das wollen? Wo wollen wir denn enden? Fett im Sofa, alles um uns herum und unser ganzes Leben wird weg automatisiert? Tolle Silicon Valley Vision... :down:
Platos
2022-03-13, 15:34:35
Was hat das bitte mit automatisierten Fahrzeugen zu tun? Aus deiner perspektive fährt auch ein Zug oder Bus automatisiert. Du fährst nicht.
OgrEGT
2022-03-13, 15:37:23
Was hat das bitte mit automatisierten Fahrzeugen zu tun? Aus deiner perspektive fährt auch ein Zug oder Bus automatisiert. Du fährst nicht.
Es ging aber nicht um Bus oder Bahn, das kann ich heute auch schon machen wenn ich will... vollkommen ohne NN... Es ging ums Autofahren, das in 10J wohl obsolet sein soll :nono:
amdfanuwe
2022-03-13, 16:17:03
Es ging aber nicht um Bus oder Bahn, das kann ich heute auch schon machen wenn ich will... vollkommen ohne NN... Es ging ums Autofahren, das in 10J wohl obsolet sein soll :nono:
Vorsicht, in deinem Kopf sollte auch ein NN sein.
OgrEGT
2022-03-13, 16:17:47
Vorsicht, in deinem Kopf sollte auch ein NN sein.
Hoffentlich :freak:
Rampage 2
2022-03-13, 19:03:51
Welche Architekturverbesserungen bzw. Effizienzsteigerungen (also Leistungseffizienz Rohleistung <-> Realleistung; NICHT Verbrauchseffizienz Perf/W) kann man von RDNA3 erwarten? Ampere war ja diesbezüglich ein Rückschritt (Recheneinheiten lassen sich nicht 100% auslasten & andere Flaschenhälse) gewesen, während RDNA2 die vorhandene Rohleistung besser auf die Straße bringen kann.
Da Nvidia von der reinen Rohleistung her möglicherweise etwas vorne liegen wird (es sei denn, AMD schafft es, N31 auf 3GHz zu takten), muss AMD etwaige Defizite durch verbesserte Leistungseffizienz wieder ausgleichen...
R2
robbitop
2022-03-13, 19:07:50
Rohleistungsnormierte Performance ist doch völlig irrelevant. Wichtiger ist Perormance pro Transistor und pro Watt (betriebspunkt- und prozessnormiert). Die Verdoppelung der FPUs pro SM war wahrscheinlich billig. Also hat man es gemacht. Die Register und die Kontrolllogik wurde nicht verdoppelt. Weniger rohleostungsnormierte Performance aber mehr Perf/W und pro Transistor.
Ich würde anhand der kolportierten fpus von einem ähnlichen Ansatz bei RDNA 3 ausgehen. Dazu mehr HW für RT Beschleunigung. Ggf Matrix fpus wobei es aktuell danach nicht aussieht.
Nightspider
2022-03-13, 19:47:26
"can be better the native" kann viel bedeuten
Irre ich mich oder liegt das nicht in der Natur der temporalen Bildaufbereitung, das manche Dinge einfach besser aussehen?
Ist bei DLSS2 ja auch schon der Fall gewesen, gerade bei manchen Gitterstrukturen.
Tobalt
2022-03-13, 21:42:02
wie ich schon im FSR thread schrieb: NN-Inference ist ein Algorithmus, den man prinzipiell auch auf einem Taschenrechner oder CPU rechnen kann. Meine Vermutung ist, dass AMD das genau irgendwie ( mit ein wenig Marketing-stille-Post) herausstellen will: sie werden keine dedizierten "AI" Inference Einheiten verbauen und preisen dort den Vorteil der Hardwareagnostik ihres Verfahrens. Ich gehe aber schon davon aus dass es ein NN-Algorithmus ist.
Ich hoffe stark dass AMD bald auch auf dedizierte low prec Einheiten setzen wird. Das ist einfach effizienter und wird sich auch künftig immer besser ausnutzen lassen.
basix
2022-03-13, 21:59:07
Ich weiss nicht, ob das so viel bringt. Bleibt Lovelace bei Ampere (Vektor zu Matrix Verhältnis), und RDNA3 legt massig Rohperformance zu, dann bringt Lovelace AD102 nur ca. doppelte INT8 TOPS wie N31 mit. N31 hat anscheinend mehr TOPS wie GA102. XeSS läuft via DP4A mit so viel Rohperformance vermutlich auch sehr schnell. TSR läuft auf jeglicher HW schnell. Ergo: Matrix Cores sind nicht zwingend nötig. Auch nicht für NN basierte Verfahren. Und wenn AMD das irgendwie sinnvoll in Async Compute reinkriegt und so übers Frame verteilen kann, kann das nochmals einen Boost bringen. DLSS Rechenbedarf spiked ja am Schluss eines Frames.
Tobalt
2022-03-14, 05:57:52
basix: Anno 2022 ist normale FP32 power für konventionelles Rendering noch gut gefragt und viele Nutzer wollen auch immernoch lieber "nativ" Rendering haben. Und man darf auch nicht vergessen, ganz wichtig: Benchmarks! Balkenlängenvergleiche in der Fachpresse werden ja leider immernoch nativ gemacht, mangels eines besseren Verfahrens. Es gibt also noch gute Gründe die FP32 Leistung zu pushen, ja gar zu priorisieren.
Wenn AMD ihren Einheiten eine halbwegs gut skalierenden low Precision Modus antackert, der nur wenig Transistorbudget, Effizienz und Geschwindigkeit kostet, dann kann das für 2022 noch eine sehr gute Entscheidung sein.
In Zukunft werden aber immer mehr Algorithmen zur Bildgewinnung eine Art von NN-Inference sein, einfach weil das Ergebnis (evtl. keine 1000%ige Exaktheit, dafür aber Speed und Stimmigkeit) aus wahrnehmungspsychologischer Sicht supereffizient ist.
Und die vielen low Prec Rechnungen auf Universaleinheiten zu rechnen, ist dann irgendwann einfach schmerzhaft ineffizienter als auf dedizierten Einheiten.
Ich hoffe das AMD hier mit FSR2 ein tolles Verfahren hat und mit RDNA3 eine sehr solide Implementierung hinkriegt..Ich hoffe auch dass sich nv/Intel und AMD hier möglichst bald auf ein Datenformat einigen werden für die NN-Inference. Weil dann können alle Hersteller dafür Einheiten massiv reinbuttern und die OPS und Bildqualität wird insgesamt massiv steigen, weil dann der Anteil an nativen Rendering fällt.. Dafür muss die Fachpresse aber von den Nativ-Rendering Balkenlängenvergleichen abrücken.
robbitop
2022-03-14, 07:30:49
Ich weiss nicht, ob das so viel bringt. Bleibt Lovelace bei Ampere (Vektor zu Matrix Verhältnis), und RDNA3 legt massig Rohperformance zu, dann bringt Lovelace AD102 nur ca. doppelte INT8 TOPS wie N31 mit. N31 hat anscheinend mehr TOPS wie GA102. XeSS läuft via DP4A mit so viel Rohperformance vermutlich auch sehr schnell. TSR läuft auf jeglicher HW schnell. Ergo: Matrix Cores sind nicht zwingend nötig. Auch nicht für NN basierte Verfahren. Und wenn AMD das irgendwie sinnvoll in Async Compute reinkriegt und so übers Frame verteilen kann, kann das nochmals einen Boost bringen. DLSS Rechenbedarf spiked ja am Schluss eines Frames.
Ja wobei die neusten Implementierungen relativ entkoppelt sind. Entsprechend könnten die Tensorcores DLSS des jetzigen Frames machen während der Rest am nächsten Frame anfängt zu rechnen. Das sind einfach mehr Ressourcen.
BlacKi
2022-03-14, 08:24:41
Irre ich mich oder liegt das nicht in der Natur der temporalen Bildaufbereitung, das manche Dinge einfach besser aussehen?
Ist bei DLSS2 ja auch schon der Fall gewesen, gerade bei manchen Gitterstrukturen.
da bin ich überfragt.
robbitop
2022-03-14, 08:30:06
Irre ich mich oder liegt das nicht in der Natur der temporalen Bildaufbereitung, das manche Dinge einfach besser aussehen?
Ist bei DLSS2 ja auch schon der Fall gewesen, gerade bei manchen Gitterstrukturen.
Es handelt sich bei TSSAA, TSR, TAUU, DLSS 2.x, Intels XeSS ja um Sparsed Grid Supersampling. Das darfst du nie vergessen. Und zwar in heutigen Lösungen zwischen 8-16 Samples.
Auch mit geringerer Inputresolution ist die Abtastung dann, wenn man die Samples "zu fassen bekommt" besser als nativ.
Die Samples werden halt aus der Vergangenheit geholt und müssen somit nicht extra berechnet werden - sind also wirklich da. Nur das "ernten" ist schwierig und nicht immer konsistent.
basix
2022-03-14, 10:43:41
Ja wobei die neusten Implementierungen relativ entkoppelt sind. Entsprechend könnten die Tensorcores DLSS des jetzigen Frames machen während der Rest am nächsten Frame anfängt zu rechnen. Das sind einfach mehr Ressourcen.
Das stimmt. Deswegen ist DLSS in vielen Implementationen schneller auf Ampere. Mein Gedanke ging eher in die Richtung, dass es allenfalls Ansätze gibt, welche übers Frame verteilt funktionieren (separate Passes in verschiedenen Stages der Rendering-Pipeline). Oder generell parallel mit der Renderpipeline laufen können (z.B. Pre/Postprocessing von FSR, wo die Daten des aktuellen Frames noch nicht benötigt werden). Das liesse sich via Async Compute gut verstecken, ergo geringer Performance Impact.
basix: Anno 2022 ist normale FP32 power für konventionelles Rendering noch gut gefragt und viele Nutzer wollen auch immernoch lieber "nativ" Rendering haben. Und man darf auch nicht vergessen, ganz wichtig: Benchmarks! Balkenlängenvergleiche in der Fachpresse werden ja leider immernoch nativ gemacht, mangels eines besseren Verfahrens. Es gibt also noch gute Gründe die FP32 Leistung zu pushen, ja gar zu priorisieren.
Wenn AMD ihren Einheiten eine halbwegs gut skalierenden low Precision Modus antackert, der nur wenig Transistorbudget, Effizienz und Geschwindigkeit kostet, dann kann das für 2022 noch eine sehr gute Entscheidung sein.
In Zukunft werden aber immer mehr Algorithmen zur Bildgewinnung eine Art von NN-Inference sein, einfach weil das Ergebnis (evtl. keine 1000%ige Exaktheit, dafür aber Speed und Stimmigkeit) aus wahrnehmungspsychologischer Sicht supereffizient ist.
Und die vielen low Prec Rechnungen auf Universaleinheiten zu rechnen, ist dann irgendwann einfach schmerzhaft ineffizienter als auf dedizierten Einheiten.
Ich hoffe das AMD hier mit FSR2 ein tolles Verfahren hat und mit RDNA3 eine sehr solide Implementierung hinkriegt..Ich hoffe auch dass sich nv/Intel und AMD hier möglichst bald auf ein Datenformat einigen werden für die NN-Inference. Weil dann können alle Hersteller dafür Einheiten massiv reinbuttern und die OPS und Bildqualität wird insgesamt massiv steigen, weil dann der Anteil an nativen Rendering fällt.. Dafür muss die Fachpresse aber von den Nativ-Rendering Balkenlängenvergleichen abrücken.
Mir ist schon klar, dass Low Precision Einheiten einen Effizienzvorteil usw. haben. Dafür kosten sie aber mehr als Rapid Packed Math und sind unflexibler in der Anwendung. Die Frage ist: Ist das für Spiele und deren DNN Usage überhaupt notwendig? Via DOT4A-Produkt und Async Compute lässt sich bereits sehr viel machen. Und mir ist ein effizientes und intelligentes Verfahren deutlich lieber als Brute Force via Matrix Cores. Mit den momentanen Rahmenbedingungen sowieso: Konsolen & APU-Support, welche keine Matrix Cores haben. Und: Auch bei DNN gibt es den abnehmenden Grenzertrag. Das ist gut zu sehen an all den Netzwerken für die Bilderkennung. Da werden für die letzten paar Prozent überproportional schwere DNN verwendet. Das selbe wird wohl auch hier für das Temporal Super Sampling bei Spielen gelten.
mMn sind die Tensor Cores in Turing & Ampere nur ein Beiprodukt der professionellen Ausrichtung der GPUs. Für Spiele alleine sind die nicht gedacht. Kommen professionelle Anwendungen und ML/AI Modeling dazu, machen die natürlich sehr viel Sinn. Und hier hätte RDNA3 ohne Matrix Cores definitiv einen Nachteil. In Spielen: Hmm, weiss nicht so recht. Solange man nicht noch weitere schwergewichtige Teile des Renderings auf Matrix-Beschleunigung umstellt (z.B. Haare, Fell, Rauch, Nebel, RT) sehe ich Matrix Cores noch nicht als Must Have.
Macht man das, ist schnelle Training/Inference Leistung zukünftig aber sicher sehr vorteilhaft. Wie du sagst, Spielegrafik muss keine exakte Wissenschaft sein. Und Thomas Müller et al. von Nvidia haben zum Beispiel mit "Real-Time Neural Radiance Caching for Path Tracing" einen sehr interessanten Ansatz aufgebracht: Dynamisches Training eines Mikro-DNN zur Laufzeit(!), um eine Generalisierung des DNN für Raytracing-Rendering zu erreichen. Anstatt ein riesiges DNN vorher zu trainieren, werden hier kleine DNN zur Laufzeit adaptiv an die zu rendernde Szene angepasst. Die Resultate sind verblüffend: https://tom94.net/data/publications/mueller21realtime/mueller21realtime.pdf von hier https://tom94.net/
Damit das zur Laufzeit klappt, muss man natürlich entsprechnend HW-Performance verfügbar haben. Und das geht leichter mit Matrix/Tensor-Cores.
Edit:
Evtl. nach als Schlussbemerkung: Ich wünsche mir, dass RDNA3 mit Matrix-Beschleunigung kommt. Aber nicht wegen FSR 2.0, das soll gut auf den Konsolen und APUs laufen. Sondern wegen allgemein Produktivanwendungen (z.B. Radeon ProRender oder TensorFlow/PyTorch) und dass die oben angesprochenen neuen Renderansätze sich früher durchsetzen können, da die Hardware-Basis dann früher breit genug wäre.
Tobalt
2022-03-14, 11:05:42
Danke für die Paper. RT-Denoising ist auch so eine Paradedisziplin für spezielle NN-Hardware. Live-Training braucht wohl sicher aber auch FP32 Hardware. Also wie du sagst, ist zur Zeit der totale Fokus auf dedizierte Low Prec Hardware eben noch fraglich wegen nicht völliger Anwendungsdurchdringung und zB. den Konsolen. Meine Beschreibung von "Zukunft" oben bezog sich auf die kommenden ~10 Jahre.
basix
2022-03-14, 11:18:53
Ja, bis zum Ende des Jahrzehnts ist noch ziemlich lange :) Und mMn ist es auch nicht eine Frage des ob sondern des wann.
Bei der nächsten Generation von Konsolen-HW halte ich Low Prec Hardware dann eh für einen No-Brainer. Das wird wohl um den Dreh ~2026/2027 passieren. Auf AMD dGPU Seite werden wir das also schon vorher sehen, spätestens ~2025 rum. Erwarten tue ich es aber eigentlich auch schon vorher. Wie gesagt, gibt nicht nur Spiele.
Noch zum verlinkten Paper:
Ich finde das Ding (NRC) genial. Neben der guten Qualität entfällt ein zusätzlicher Ambient Occlusion Pass (nochmals gesparte Performance), Local Contact Shadows und indirekte Beleuchtung werden akkurat und schnell erfasst (DNN konvergiert innerhalb von ~8 Frames) und es scheint sogar mit Volumetrics zu funktionieren.
Nightspider
2022-03-14, 11:56:00
Es handelt sich bei TSSAA, TSR, TAUU, DLSS 2.x, Intels XeSS ja um Sparsed Grid Supersampling. Das darfst du nie vergessen. Und zwar in heutigen Lösungen zwischen 8-16 Samples.
Auch mit geringerer Inputresolution ist die Abtastung dann, wenn man die Samples "zu fassen bekommt" besser als nativ.
Die Samples werden halt aus der Vergangenheit geholt und müssen somit nicht extra berechnet werden - sind also wirklich da. Nur das "ernten" ist schwierig und nicht immer konsistent.
Ehrlich gesagt habe ich bei den ganzen AA Methoden zu wenig Verständnis/Wissen aber etwas in der Richtung ist bei mir auch hängengeblieben.
Die Aussage also das FSR2.0 mit temporaler Bildaufbereitung besser aussehen kann als nativ ist so wenig überraschend wie neu, richtig?
Tobalt
2022-03-14, 11:57:59
genau.
Dampf
2022-03-14, 11:58:22
Wenn man sich mit ML und den zukünftigen Implikationen für Gaming beschäftigt, dann wird man schnell zu dem Schluss kommen dass ML Modelle in Real Time zukünftig eine große Rolle spielen werden. Und dafür sind Matrix Beschleuniger dann natürlich ideal. Das Paper, das Basix dargelegt hat, finde ich auch sehr beeindruckend, doch es ist nur ein Anwendungsszenario von vielen. Ich denke es wird gar nicht mehr so lange dauern bis es erste ML Modelle abseits von DLSS in Spielen geben wird. Sobald die Cross Gen zuende ist, sollte man erste Ergebnisse sehen.
Diese sollten auch auf den Konsolen gut laufen, die haben zwar keine Matrix Beschleuniger aber verfügen über INT8/4 Instruktionen und können daher ML Modelle in geringer Präzision laufen lassen, was natürlich erhebliche Vorteile in Sachen Geschwindigkeit bringt, unverzichtbar für diesen Anwendungsfall! (Dass die PS5 kein INT8/4 kann glaube ich nicht, RDNA1.1 hatte es bereits)
Klar ist, dass dann Turing/Ampere/RDNA3 fliegen werden, da die ML Modelle dank Matrix Beschleuniger kaum Gaming-Leistung wegnehmen werden.
Und ja, RDNA3 wird definitiv Beschleuniger verbaut haben. Aber ich denke sie werden einen anderen Weg als Nvidia gehen. Denke mal die werden im Vergleich zu den Tensor Cores winzig und schwach sein. Doch die Anzahl macht's. Vermutung: RDNA3' Matrix Beschleuniger werden sehr nahe an den CUs verbaut, pro CU gibts dann einen davon, der FP16, INT8 und INT4 beschleunigt.
Das sollte im Vergleich zu Nvidia auch ein paar Vorteile bieten, besonders was Latenz und Stromverbrauch angeht.
basix
2022-03-14, 12:07:33
Was ist für dich "winzig und schwach"? :D Ampere bietet 4x FP16 verglichen mit Vektor-FP32. Turing 8x FP16. Also RDNA3 mit nur 2x FP16? Damit hätte man den selben FP16-Durchsatz wie bei Vektor via RPM, könnte aber parallel zu Vektor laufen (~2x Performance im Idealfall)
robbitop
2022-03-14, 12:10:36
Ehrlich gesagt habe ich bei den ganzen AA Methoden zu wenig Verständnis/Wissen aber etwas in der Richtung ist bei mir auch hängengeblieben.
Die Aussage also das FSR2.0 mit temporaler Bildaufbereitung besser aussehen kann als nativ ist so wenig überraschend wie neu, richtig?
genau :)
mboeller
2022-03-14, 12:11:04
... Aber ich denke sie werden einen anderen Weg als Nvidia gehen.
wenn die Gerüchte stimmen definitiv ja:
https://wccftech.com/next-gen-amd-rdna-gaming-gpus-could-include-a-stacked-accelerator-die-on-the-primary-gpu-with-machine-learning-capabilities/
The latest rumor is that another technology might be coming to next-gen RDNA GPUs and that is APD or Accelerated Processor Die. Think of it as a die integrated within the main GPU (possibly a stack chiplet), designed to execute machine learning tasks.
basix
2022-03-14, 12:13:47
Ja, das APD soll im Prinzip das MCD sein: Infinity Cache + Matrix Cores. Wäre sinnvoll, da minimale Latenz und maximale Speicherbandbreite (beides wichtig für ML).
Ist aber "nur" ein Patent. Das sagt noch nicht aus, ob es auch so implementiert wird. Bei CDNA ist es jedenfalls sehr nah an dem, wie es Nvidia macht: Integration in SM/CU. Und hier hat man den Rest des Speichersubsystems und Caches als Unterstützung.
mboeller
2022-03-14, 12:15:17
Ja, das APD soll im Prinzip das MCD sein: Infinity Cache + Matrix Cores. Wäre sinnvoll, da minimale Latenz und maximale Speicherbandbreite (beides wichtig für ML).
hört sich ja nach "computing RAM" an. Das wäre cool. Ich dachte das wären 2 getrennte Die
basix
2022-03-14, 12:19:28
Sorry, muss mich korrigieren: APD != MCD. APD ist die GPU (APD Core Die) inkl. dem MCD. Oben drauf auf das APD Core Die kommt ein zweites Die mit SRAM-Cache und ML-Accelerators. Letzteres Die kann man als MCD betrachten. Da auch von Memory und Inter-Die Interconnects gesprochen wird, wäre das für RDNA3 schon ein Kandidat.
Edit:
Passend zu dem Thema auch folgendes Paper: https://arxiv.org/abs/1907.08641
0.78mm2 in 28nm für 91 GTOPS (1-bit) :D
Savay
2022-03-14, 18:39:11
Was ist für dich "winzig und schwach"?
Der theoretische Durchsatz ist doch eh nur die halbe Miete. :sneak:
Wenn ich überlege, dass unter DXO DeepPrime mit dem FP16 basierten DNN ab Version 5.x ne 6900XT (~45.000GFLOPS via RPM) immer noch schneller(!) ist als ne RTX3090 (~140.000GFLOPS via TC) und die "NPU" eines M1 Pro/Max (11.000TOPS/GFLOPS via ANE) schon auf einem Niveau mit ner RTX3060 oder 2070 (50.000 bis 70.000GFLOPS via TC) rauskommt, dann bin ich mir echt nicht mehr so sicher ob nVs Variante in Relation zur Rohleistung echt die beste Lösung ist?!
Vor allem dedizierte NPUs, die dichter am Speicher oder nem großen (System)Cache hängen als irgendwo verteilt neben den ALUs, scheinen dann doch fast sinnvoller zu sein oder nicht?
Die CUs/WGPs kann man je nach Modell ja immer noch zusätzlich mitrechnen lassen wenn man denen weiterhin FP16 und INT8/4 Fähigkeiten mitgibt.
OgrEGT
2022-03-23, 21:22:48
AMD FidelityFX Super Resolution 2.0 has 4 quality modes, supports wide range of products and platforms
https://videocardz.com/newz/amd-fidelityfx-super-resolution-2-0-takes-less-than-3-days-to-implement-for-dlss-games-geforce-10-20-30-series-supported
OgrEGT
2022-03-24, 20:29:55
https://cdn.videocardz.com/1/2022/03/AMD-FSR-GPU-SUPPORT.png (https://cdn.videocardz.com/1/2022/03/AMD-FSR-GPU-SUPPORT.png)
So wie's ausschaut, werden auch RDNA2 GPUs supported.
Und sogar Nvidia ab Pascal und höher...
AMD FSR2 is to launch next quarter for all developers under open source license. AMD will then provide samples, APIs and plugins through its GPUOpen website.
Wenn man also im worst case ~4Wochen benötigt das zu implementieren, dann könnte man erste Game Updates frühestens Anfang Juni erwarten...?
Linmoum
2022-03-24, 20:41:50
Es gibt übrigens einen extra Thread für FSR, das ist da sicherlich besser aufgehoben als hier. ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=606468
OgrEGT
2022-03-24, 20:45:52
Es gibt übrigens einen extra Thread für FSR, das ist da sicherlich besser aufgehoben als hier. ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=606468
Stimmt...
Ursprünglich dachte man FSR 2.0 käme nur mit RDNA3 wegen FF Hardware für TensorOps?
basix
2022-03-24, 21:41:16
Gab Gerüchte oder halt einfach auch Speku dazu. Ich persönlich habe eher eine non Matrix-Core Lösung erwartet, aufgrund der Konsolen. Und wie man sieht, ist es so gekommen. Alle non RTX und zukünftigen non-RDNA3 Nutzer freut das ebenfalls :)
Evtl. können Matrix-Cores den FSR 2.0 Algorithmus zusätzlich beschleunigen, wer weiss. Sehen wir dann.
robbitop
2022-03-25, 10:22:45
Unwahrscheinlich IMO. Bis dato ist es nur NN, was davon profitiert. Viele Sachen lassen sich halt einfach nicht sinnvoll in eine Matrix pressen.
BlacKi
2022-04-04, 17:50:26
wozu kommt denn anfang mitte mai nochmal ein refresh von rdna2. wenn man die produktion weiterlaufen lassen will, braucht man doch keinen neuen namen.
für mich macht der refresh nur sinn, wenn die next gen auf sich warten lassen wird. oder das portfolio monster lücken hat, dann aber bitte als 7000er serie? so wie früher?
dabei hat man noch vor einem jahr gemeint, amds rdna3 kommt vor nv next ampere...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.