Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
mironicus
2020-10-23, 17:53:44
Mein Instinkt lag richtig, als ich die 3090-Vorbestellung storniert habe. Denn sonst wäre es jetzt schon zu spät für die Rücksendung gewesen.
Das wäre schon ein gewaltiger Paukenschlag und ist so nicht zu erwarten gewesen. Allerdings habe ich auch nicht erlebt, dass so kurz nach einer Produktvorstellung 2 angekündigte Produkte aus dem Lineup gestrichen werden, bevor die Konkurrenz offiziell launched. Ich meine welche Gründe auch immer für das streichen der 20GB/16GB-Versionen entscheidend waren, diese können nicht erst in den letzten 4 Wochen bekannt geworden sein, wenn es interne Gründe sind wie z.B. Speicherknappheit.
Diesbezüglich muss man unabhängige Tests abwarten (also kein PCGH, da hier vermutlich ne 1080Ti vor ner 6900 rauskommt). Manche Games liegen dem Einen oder Anderen besser. Wenn ich z.B. das Remake von Crysis anschaue, dann kann dies nur böse für AMD enden. Auch glaube ich, dass Cyberpunk sehr viel besser auf NV läuft. Im Schnitt wird das AMD-Produkt schneller sein als Ampere, nur halt nicht immer.
Adam D.
2020-10-23, 18:01:44
Mythos;12470780']Nein, die 6800xt zieht die 3080 mit dem neuen Treiber richtig ab.
https://youtu.be/amgchAgub4g
Ich weiß, es ist OT, aber mein Gott hat NV mit Samsung ins Klo gegriffen. Beziehe mich auf die letzten 2-3 Minuten des Videos.
So langsam kann ich den 28. nicht mehr erwarten :freak:
Linmoum
2020-10-23, 18:06:13
Noch nie so sehr auf Wasserkühlung gefreut wie aktuell.
|MatMan|
2020-10-23, 18:19:43
Jetzt ist der Hypetrain endlich bei Lichtgeschwindigkeit angekommen!
Hakim
2020-10-23, 18:21:39
Jetzt ist der Hypetrain endlich bei Lichtgeschwindigkeit angekommen!
Lichtgeschwindigkeit? Der war schon hier immer auf Warp Geschwindigkeit, jetzt überschreiten wir halt Transwarp
Mangel76
2020-10-23, 18:24:47
Lichtgeschwindigkeit? Der war schon hier immer auf Warp Geschwindigkeit, jetzt überschreiten wir halt Transwarp
Ich dachte, die Steigerung von Warpantrieb ist der Sporenantrieb 😁
Gratzner
2020-10-23, 18:26:08
!!Nach!! der Prozentwertveröffentlichung der 6800XT Benches, gab es noch einen neuen Treiber von AMD, der noch einmal eine Verbesserung von 10% gebracht haben soll.
Im Text vom Igor, steht es aber anders. Bei Igors Diagrammen sind schon die 10% "inkludiert", hier aus seinem Artikel (https://www.igorslab.de/3dmark-in-ultra-hd-benchmarks-der-rx-6800xt-ohne-und-mit-raytracing-aufgetaucht/):
Dazu muss man auch noch ergänzen, dass AMD gestern noch einen weiteren Performance-Treiber verteilt haben soll, der dann die letzten 10% Steigerung brachte, die im obigen Ergebnis bereits inkludiert sind.
mboeller
2020-10-23, 18:26:31
Mythos;12470780']Nein, die 6800xt zieht die 3080 mit dem neuen Treiber richtig ab.
https://youtu.be/amgchAgub4g
Mal eine Frage in die Runde:
der FireStrike Extreme 4K sollte doch deutlich zeigen, dass für die 6800XT Bandbreite kein Problem ist, oder?
Auch betont Igor das die Benchmarks ja "nur" von diesem EV Board stammen, das sind noch keine finalen Karten.
Ich freu mich auf den 28. Hab extra Urlaub genommen nächste Woche! Spannend wie schon lange nicht mehr!
[MK2]Mythos
2020-10-23, 18:29:39
Mal eine Frage in die Runde:
der FireStrike Extreme 4K sollte doch deutlich zeigen, dass für die 6800XT Bandbreite kein Problem ist, oder?
Das hatte Dampf ja auch schon angedeutet.
Eines sage ich euch, die Speicherbandbreite ist nicht von Bedeutung. Ihr werdet sehen, warum, ihr werdet sehen.
Haltet eure Augen auf nach der Wahrheit...!
Genießt es einfach!
Lichtgeschwindigkeit? Der war schon hier immer auf Warp Geschwindigkeit, jetzt überschreiten wir halt Transwarp
Ähm-du vergisst mich! Wenn es bei euch Transwarp war, was war dann für mich(?) - Gummizelle?
Interessant werden imo die taktbereinigten Tests 6900-3090. Erst dann wird man wissen wie stark N2x wirklich ist und wo ne N22 rauskommt.
Es gab doch mal ne Aussage, dass selbst der kleinste bekannte Navi vor einer 2080Ti rauskommt - time will tell;)
Auch betont Igor das die Benchmarks ja "nur" von diesem EV Board stammen, das sind noch keine finalen Karten.
Ich freu mich auf den 28. Hab extra Urlaub genommen nächste Woche! Spannend wie schon lange nicht mehr!
Nur wegen einer GPU? Deine Probleme möchte ich haben :biggrin:
dargo
2020-10-23, 18:38:36
Das sagt der Richtige. ;D
mboeller
2020-10-23, 18:40:12
Im Text vom Igor, steht es aber anders. Bei Igors Diagrammen sind schon die 10% "inkludiert", hier aus seinem Artikel (https://www.igorslab.de/3dmark-in-ultra-hd-benchmarks-der-rx-6800xt-ohne-und-mit-raytracing-aufgetaucht/):
stimmt, aber im Video sagt er es kommen noch mal 10% dazu
Das sagt der Richtige. ;D
Ich war glaube ich der Einzige, der es relativ genau getroffen hat. Nur weil nicht sein kann was nicht sein darf? Jensen soll mit seinem Backblech untergehen. Frauen kochen und backen für gewöhnlich eh besser ;)
dargo
2020-10-23, 18:45:49
Ich war glaube ich der Einzige, der es relativ genau getroffen hat.
Kriegst du gleich einen virtuellen Keks von mir. :)
stimmt, aber im Video sagt er es kommen noch mal 10% dazu
Die 13k sind repräsentativ. Ab hier würde ich treiberseitig nimmer all zu viel erwarten. Die RT-Performance wird noch etwas steigen und ansonsten die Fixes und Improvements, welche aber per se keine Rolle spielen!
Nur wegen einer GPU? Deine Probleme möchte ich haben :biggrin:
Für die einen ist es nur eine GPU, für die Anderen der schnellste Grafikprozessor der Welt ;-)
Tja, jeder hat ne andere Makke. CPUs sind mir aber lieber...
Bin gespannt wie die das mit der Bandbreite gelöst haben!
PingpiN
2020-10-23, 18:57:56
Schön! Da es keine 3080 mit 20 GB gibt,wird es ebend eine AMD Karte. Bild wird bestimmt auch die AMD Karte auf mein 75 Zoll erzeugen können.. Ärgerlich wegen DLSS.. In 1,5 Jahren kann man mit der Geforce Dank DLSS vielleicht noch immer alles auf max Spielen währenddessen man auf der AMD Karte Details reduzieren muss.
Hoffentlich kann AMD über ein Treiber Update was ähnliches wie DLSS anbieten.
Kriegst du gleich einen virtuellen Keks von mir. :)
Der war lecker, vielen Dank :wink:
@ping
Upscaling mit einem SSAA-Anteil und Schärfe geht auch per Treiber. Musst du für den Moment nur von Hand einstellen. Ein Equivalent wird es nicht geben, da AMD keine Einheiten dafür hat, welche dies in Hardware berechnen.
Linmoum
2020-10-23, 19:04:24
Demnächst haben wir dann womöglich
8704 Shader 3080 < 4608 Shader 6800XT.
90% mehr (Marketing-)Shader für nur ähnliche (oder gar schlechtere?) Performance. So übel war nicht mal Vega.
mironicus
2020-10-23, 19:06:11
Schön! Da es keine 3080 mit 20 GB gibt,wird es ebend eine AMD Karte. Bild wird bestimmt auch die AMD Karte auf mein 75 Zoll erzeugen können.. Ärgerlich wegen DLSS.. In 1,5 Jahren kann man mit der Geforce Dank DLSS vielleicht noch immer alles auf max Spielen währenddessen man auf der AMD Karte Details reduzieren muss.
Bei der hohen Rohleistung wird man es bei AMD-GPUs wohl gar nicht nötig haben die Auflösung und Details reduzieren zu müssen. Und für DLSS muss NVidia halt jedes Mal blechen.
Die meisten hier werden es wohl eher begrüßen, daß sich die Leistungsverbesserung bei AMD auf alle erhältlichen Titeln auswirken wird und nicht etwas hineingepatcht werden muß.
Demnächst haben wir dann womöglich
8704 Shader 3080 < 4608 Shader 6800XT.
90% mehr (Marketing-)Shader für nur ähnliche (oder gar schlechtere?) Performance. So übel war nicht mal Vega.
Aber Turing ;). Sind halt TOPs+FLOPs, ansonsten gleiche Anzahl Einheiten wie Ampere. Darauf kommts also einfach nicht mehr so an offensichtlich.
WedgeAntilles
2020-10-23, 19:19:20
Mythos;12470798']Scheint, als wäre das gesamte nvidia Portfolio komplett unterlegen. In jeder Hinsicht. Bestätigt auch meinen Eindruck, den ich seit der Ampere EnttäuschungVorstellung hatte.
Komisch, bei meinem Video und meiner Tabelle ist Nvidia bei RT 22% schneller.
DLSS gibt es übrigens auch nocht.
"komplett, in jeder Hinsicht" :rolleyes:
Wie wäre es, wenn man bei der Wahrheit bleibt? Ist ja nicht so, dass die Wahrheit nicht gut genug wäre. Wieso noch diese Lügen? Ist doch gar nicht nötig bei den Werten?
Linmoum
2020-10-23, 19:22:51
Warum Lügen? Igor hat es doch auch schon am Beispiel der 3070 angesprochen: Wer will diese Karte denn überhaupt noch, wenn alles "bekannte" zu N21 auch so zutreffen wird? Das Ding ist dann einfach völlig Fehl am Platz. Also davon ausgehend, dass AMD eine 6800 nicht mit 800€ bepreist. Was aber nicht passieren wird.
WedgeAntilles
2020-10-23, 19:23:06
stimmt, aber im Video sagt er es kommen noch mal 10% dazu
Nein, sagt er nicht.
Er sagt: Es könne sein, dass es final noch mal schneller wird.
Und als Beispiel nennt er eben den neuesten Treiber, der zum Vorgänger noch mal 10% gebracht hat.
Das ist aber in den Werten die er im Video zeigt eben schon drin.
Nur: Wenn es jetzt einen Treiber mit +10% gab - dann ist es ja gut möglich, dass der finale Treiber auch noch mal was drauflegt.
[MK2]Mythos
2020-10-23, 19:23:59
Komisch, bei meinem Video und meiner Tabelle ist Nvidia bei RT 22% schneller.
DLSS gibt es übrigens auch nocht.
"komplett, in jeder Hinsicht" :rolleyes:
Wie wäre es, wenn man bei der Wahrheit bleibt? Ist ja nicht so, dass die Wahrheit nicht gut genug wäre. Wieso noch diese Lügen? Ist doch gar nicht nötig bei den Werten?
Gut, ich meinte Performance/Watt, Performance/$, VRAM und Endpreis. Dass in dem gezeigten Benchmark die 3080 die Nase bei Raytracing vorne hat, ist doch für jeden erkennbar. Mal sehen ob es so bleibt.
WedgeAntilles
2020-10-23, 19:25:13
Warum Lügen? Igor hat es doch auch schon am Beispiel der 3070 angesprochen: Wer will diese Karte denn überhaupt noch, wenn alles "bekannte" zu N21 auch so zutreffen wird? Das Ding ist dann einfach völlig Fehl am Platz.
"nvidia Portfolio komplett unterlegen"
Stimmt nicht.
Die 3080 hat besseres RT.
Und DLSS.
-> Komplett unterlegen ist schlicht und ergreifend eine Falschaussage.
Denn die 3080 gehört zum Portfolio und es gibt Disziplinen, in denen sie besser ist.
Macht sie das zur besseren Karte? Nein.
Aber eine Aussage "komplett unterlegen" ist schlicht und ergreifend falsch.
Was ich mich ernsthaft nach wie vor Frage: Man blecht für nen Upscaler relativ viel Geld und der funktioniert noch nicht mal perfekt (Artefakt ahoi). Die 3080 welche gerade im Rechner werkelt, schon schnell, allerdings im Verhältnis zu ner 2080Ti nix was die Welt braucht. Sprich es braucht in 4K mit RT noch immer heavy Upscaling. Eigentlich ist die GPU nicht für mich und der Adressat ist NV- und Intel Fanboy. Wir haben es mit allen verfügbaren VBIOS getestet und hier läuft das Strix VBIOS am besten. Der Vorteil zwischen 2.2g Turing und 2.05g Ampere ist kaum vorhanden, wo ich mich dann schon frage: Wenigstens Evolution?
@wedge
Du gibst so viel Geld aus für nen Upscaler? Kauf doch ne 2070s und spiele nativ
WedgeAntilles
2020-10-23, 19:27:37
Mythos;12470954']Gut, ich meinte Performance/Watt, Performance/$, VRAM und Endpreis. Dass in dem gezeigten Benchmark die 3080 die Nase bei Raytracing vorne hat, ist doch für jeden erkennbar. Mal sehen ob es so bleibt.
Bei diesen Punkten will ich dir überhaupt nicht widersprechen. (Wobei Preis natürlich noch nicht 100% sicher ist.)
Nur die absolute Pauschalaussage "alles ist in jedem Punkt unterlegen" ist halt nicht richtig.
Und gerade da AMDs BigNavi ja sau stark zu sein scheint (finale Gamebenches stehen ja noch aus, aber da wird nix passieren) ist es nicht sinnvoll, sich mit offensichtlichen Falschaussagen angreifbar zu machen.
Das ist ja überhaupt nicht notwendig - wenn der Großteil der Fakten für einen spricht kann man bedenkenlos zu den Punkten stehen wo der andere besser ist.
Das ist seriöser und sinnvoller als so eine Pauschalaussage, die leicht widerlegt werden kann :)
mboeller
2020-10-23, 19:27:41
Warum Lügen? Igor hat es doch auch schon am Beispiel der 3070 angesprochen: Wer will diese Karte denn überhaupt noch, wenn alles "bekannte" zu N21 auch so zutreffen wird? Das Ding ist dann einfach völlig Fehl am Platz. Also davon ausgehend, dass AMD eine 6800 nicht mit 800€ bepreist. Was aber nicht passieren wird.
Das wichtigste war wohl der Preis den er für die 6800XL genannt hat. 550,- gegen 500,- bei der 3700 (ob Dollar od. Euro ist für mich nicht klar geworden). Für die 50,- gibt es dann 12GB statt 8GB und wahrscheinlich ca. 75% der Leistung der XT wegen dem 192bit/256bit Speicherinterface. Also wahrscheinlich immer noch schneller als eine 3070/2080Ti.
Linmoum
2020-10-23, 19:33:29
Alle N21-GPUs sollen 16GiB und 256bit haben. Das werden sicherlich eher noch 80-85% der Leistung einer 6800XT, aber auch nur, weil der Game Clock ~200MHz niedriger liegen soll.
dargo
2020-10-23, 19:33:36
Die 3080 hat besseres RT.
Im 3DMark vorerst... ob es so bleibt und auf jedes Game mit RT übertragbar ist muss sich noch zeigen. Die RT-Last ist nicht in jedem Spiel gleich. Frage mich wann du das endlich mal raffst?
Unicous
2020-10-23, 19:38:56
Update Big Navi Firestrike Ultra benchmark
6800XT AIB: ~12800
RTX 3090 FE: ~12400
RTX 3080 FE: ~10600
-> 6900XT: 14000??
https://twitter.com/CapFrameX/status/1319674037686161411
Sind aber leider nur 77% eines verdoppelten Navi 10 laut Blacki. Oder 1,9x laut Troyan.
Finde die Werte aber etwas unheimlich, hoffentlich werden die Leaker nicht getrollt.:freak:
WedgeAntilles
2020-10-23, 19:39:59
Im 3DMark vorerst... ob es so bleibt und auf jedes Game mit RT übertragbar ist muss sich noch zeigen. Die RT-Last ist nicht in jedem Spiel gleich. Frage mich wann du das endlich mal raffst?
Der Benchmark belegt, dass BigNavi sau stark ist - aber nicht in absolut jeder Disziplin besser ist. Und somit die Aussage von Mythos nicht stimmt. Hat er ja selber eingeräumt.
Was genau überfordert dich eigentlich an meinen Posting?
Ne, antworte nicht, ich ignorier dich ab sofort, da von dir nie was sinnvolles kommt.
dargo
2020-10-23, 19:42:18
https://twitter.com/CapFrameX/status/1319674037686161411
Sind aber leider nur 77% eines verdoppelten Navi 10 laut Blacki. Oder 1,9x laut Troyan.
Finde die Werte aber etwas unheimlich, hoffentlich werden die Leaker nicht getrollt.:freak:
Ich hoffe bei den Zahlen hebt Lisa nicht ab. X-D Also bei den Preisen meine ich. :freak: Das schöne dabei... wenn das so weiter geht reicht mir die N21XL völlig um die Performance grob zu verdoppeln. :ulol:
Der Benchmark belegt, dass BigNavi sau stark ist - aber nicht in absolut jeder Disziplin besser ist.
Sorry... ich wusste nicht, dass du den 3DMark spielst.
Hakim
2020-10-23, 19:42:45
Mir wäre die RT Performance bei CP 2077 wichtig, wenn es im Spiel mit RT geil aussieht und es massig RT Leistung kostet könnte für mich die RT Leistung entscheidend sein und die 22% bei PR sind schon sehr viel. Bin echt gespannt ob AMD viel auf RT eingehen und entsprechend Benchs zeigen wird
PingpiN
2020-10-23, 19:45:31
Mir wäre die RT Performance bei CP 2077 wichtig, wenn es im Spiel mit RT geil aussieht und es massig RT Leistung kostet könnte für mich die RT Leistung entscheidend sein und die 22% bei PR sind schon sehr viel. Bin echt gespannt ob AMD viel auf RT eingehen und entsprechend Benchs zeigen wird
Bei Cyberpunk wird bestimmt Nvidia dominieren weil ne Menge Scheine an den publisher fließen werden.:mad:
dargo
2020-10-23, 19:45:54
Mir wäre die RT Performance bei CP 2077 wichtig, wenn es im Spiel mit RT geil aussieht und es massig RT Leistung kostet könnte für mich die RT Leistung entscheidend sein und die 22% bei PR sind schon sehr viel.
Da machst du statt RT "ultra" RT "high" rein und schon hast du deine ~22% wieder raus. ;D
weisserteufel
2020-10-23, 19:50:01
Nein, sagt er nicht.
Er sagt: Es könne sein, dass es final noch mal schneller wird.
Und als Beispiel nennt er eben den neuesten Treiber, der zum Vorgänger noch mal 10% gebracht hat.
Das ist aber in den Werten die er im Video zeigt eben schon drin.
Nur: Wenn es jetzt einen Treiber mit +10% gab - dann ist es ja gut möglich, dass der finale Treiber auch noch mal was drauflegt.
Das ist schlichtweg BS.
Die 11k irgendwas waren die alten Treiber. Bei 10% Mehrleistung hat er dann die 13000er Werte und sagt dann am Schluss, dass da sicherlich noch etwas geht über neuere Treiber, aber er spricht nicht von 10%, die sind ja bei den 13k schon enthalten.
Guck bitte nochmal!
Hakim
2020-10-23, 19:51:49
Fragt doch bei Igor einfach nach statt Seitenlang darüber zu streiten, mir war es ehrlich gesagt nicht ganz klar nach dem Video ob es mit den 10% Treibern gebencht wurde oder ohne.
weisserteufel
2020-10-23, 19:52:26
Das wichtigste war wohl der Preis den er für die 6800XL genannt hat. 550,- gegen 500,- bei der 3700 (ob Dollar od. Euro ist für mich nicht klar geworden). Für die 50,- gibt es dann 12GB statt 8GB und wahrscheinlich ca. 75% der Leistung der XT wegen dem 192bit/256bit Speicherinterface. Also wahrscheinlich immer noch schneller als eine 3070/2080Ti.
Hä? Die Navi21XL, als die 6800 wird doch sehr wohl ebenso 16GB RAM und 256Bit haben.
Sie hat halt nur 8 CUs weniger, also 64CUs und einen niedrigeren Takt. Aber das war´s dann auch.
Linmoum
2020-10-23, 19:52:50
Die +10% sind in seinen 13000 enthalten. Passt ja auch ganz grob zu den 11600, die vorher überall umherflogen.
Er sagt aber auch, dass das noch von einem Evaluation Board stammt und von keiner finalen Karte.
[MK2]Mythos
2020-10-23, 19:54:12
Die gezeigten Ergebnisse sind natürlich mit dem neuen Treiber, hat er mehr als deutlich geschrieben und im Video gesagt. Trotzdem betonte er auch, dass da evtl noch ein schnellerer Treiber kommen könnte.
Das wichtigste war wohl der Preis den er für die 6800XL genannt hat. 550,- gegen 500,- bei der 3700 (ob Dollar od. Euro ist für mich nicht klar geworden). Für die 50,- gibt es dann 12GB statt 8GB und wahrscheinlich ca. 75% der Leistung der XT wegen dem 192bit/256bit Speicherinterface. Also wahrscheinlich immer noch schneller als eine 3070/2080Ti.
Die XL hat auch 16GB. Die Frage ist nur, welche Anbindung
Linmoum
2020-10-23, 20:03:01
Das ist doch keine Frage, bei 16GiB sind es genauso 256bit.
14 oder 16 GPS
Zudem (ich weiß jetzt lachen wieder alle): Auf dem Engineeringboard läuft sowohl als auch. Der Cache, naja ich weiß nicht....
Ich glaube da wäre es wesentlich günstiger HBM2 mit ~400mm^2 Diesize zu verbauen. Manche Dinge der Leaks wirken für mich inkonsistent
Linmoum
2020-10-23, 20:08:11
Gut, das stimmt natürlich. Dann schreib aber bitte nächste Mal nicht Anbindung. :D
Gut, das stimmt natürlich. Dann schreib aber bitte nächste Mal nicht Anbindung. :D
Sorry
Nazar
2020-10-23, 20:24:51
Schön! Da es keine 3080 mit 20 GB gibt,wird es ebend eine AMD Karte. Bild wird bestimmt auch die AMD Karte auf mein 75 Zoll erzeugen können.. Ärgerlich wegen DLSS.. In 1,5 Jahren kann man mit der Geforce Dank DLSS vielleicht noch immer alles auf max Spielen währenddessen man auf der AMD Karte Details reduzieren muss.
Hoffentlich kann AMD über ein Treiber Update was ähnliches wie DLSS anbieten.
Heben sich mehrere Paradoxen eigentlich gegenseitig auf? :freak:
EPIC_FAIL
2020-10-23, 20:25:52
Die Leaks klingen interessant. Aber was mache ich jetzt mit meinem alten G-Sync Monitor? :D
Ich wollte auf jeden Fall spätestens im November upgraden. Wenn NV nicht liefern kann wird es dann wohl AMD und ein neuer Monitor. Der alte 2716DG kann auch gerne in Rente, hab ich nix dagegen.
Ich befürchte aber, dass man wegen der teils unterschiedlichen Architekturen von Big Navi vs Ampere teilweise sehr abweichende Performance in den Spielen sehen wird. Wenn das Dickschiff im Average auf Niveau der 3080 liegt, dann gibt es bestimmt Games wo es 20-30% schlechter performt aber dafür andere wo es wesentlich besser performt (inklusive bessere Frametimes wegen mehr VRAM).
mboeller
2020-10-23, 20:25:52
nt
Troyan
2020-10-23, 20:27:12
https://twitter.com/CapFrameX/status/1319674037686161411
Sind aber leider nur 77% eines verdoppelten Navi 10 laut Blacki. Oder 1,9x laut Troyan.
Finde die Werte aber etwas unheimlich, hoffentlich werden die Leaker nicht getrollt.:freak:
Was soll an den Werten "unheimlich" sein, wenn die 5700XT schon ~6600 Punkte im Firestrike Ultra erreicht? Achja, die 12800 sind 1,95x mehr. :rolleyes:
Und da du dich selbst überzeugen kannst, einfach hier schauen:https://www.sweclockers.com/test/30343-nvidia-geforce-rtx-3080-ampere-ett-ovanligt-stort-prestandakliv/7
Unicous
2020-10-23, 20:33:07
Und mit dem Ergebnis von Igor sind es 1,99.:eek:
https://i.kym-cdn.com/entries/icons/facebook/000/009/479/Ermahgerd.jpg
Nazar
2020-10-23, 20:42:57
Nein, sagt er nicht.
Er sagt: Es könne sein, dass es final noch mal schneller wird.
Und als Beispiel nennt er eben den neuesten Treiber, der zum Vorgänger noch mal 10% gebracht hat.
Das ist aber in den Werten die er im Video zeigt eben schon drin.
Nur: Wenn es jetzt einen Treiber mit +10% gab - dann ist es ja gut möglich, dass der finale Treiber auch noch mal was drauflegt.
Ab 7:38 ".. und es gab gestern Treiber und dann gabs nochmal son kleinen Performanceschub.. also die aktuellen Performancetreiber haben da noch einmal so um die 10% zulegen können...aber da kommt mit Sicherheit noch etwas Finales und wir wissen ja,...."
Er spricht die ganze Zeit über die Werte und bringt zum Schluss das es aber noch einen neuen Perfromacetreiber gab, der nochmal um die 10% zulegen konnte. Das würde überhaupt keinen Sinn machen, wenn das schon in die Tabelle eingepreist wäre.
Aber es könnte durchaus auch so sein... ich stecke ja nichts in Igors Synapsen.
amgchAgub4g
Und mit dem Ergebnis von Igor sind es 1,99.:eek:
https://i.kym-cdn.com/entries/icons/facebook/000/009/479/Ermahgerd.jpg
Korinthenkacker :biggrin:
BTW. würde es mich schon interessieren, in wie weit N10 vom Horn-Treiber profitiert.
Linmoum
2020-10-23, 20:45:59
Das war auch schon im Video eigentlich eindeutig, dass die 10% mit drin sind. Ansonsten einfach mal den Artikel lesen. Spätestens der klärt es, wie immer, auf.
Dazu muss man auch noch ergänzen, dass AMD gestern noch einen weiteren Performance-Treiber verteilt haben soll, der dann die letzten 10% Steigerung brachte, die im obigen Ergebnis bereits inkludiert sind.
Das war auch schon im Video eigentlich eindeutig, dass die 10% mit drin sind. Ansonsten einfach mal den Artikel lesen. Spätestens der klärt es, wie immer, auf.
Ich meine eigentlich 5700 und 5700XT
Linmoum
2020-10-23, 20:55:08
Ging um die 10% durch den neuen Treiber @Nazar.
Nazar
2020-10-23, 20:55:23
Komisch, bei meinem Video und meiner Tabelle ist Nvidia bei RT 22% schneller.
DLSS gibt es übrigens auch nocht.
"komplett, in jeder Hinsicht" :rolleyes:
Wie wäre es, wenn man bei der Wahrheit bleibt? Ist ja nicht so, dass die Wahrheit nicht gut genug wäre. Wieso noch diese Lügen? Ist doch gar nicht nötig bei den Werten?
DLLS funktioniert
1. nicht in jedem Spiel
2. nicht immer einwandfrei
3. ist nicht bei jedem RT Spiel vorhanden
Hinzu kommt, den wenigsten Spielern fällt RT in den derzeitigen Spielen überhaupt -und schon gar nicht- immer positiv auf.
DLSS ist immer noch weit weg von "anstellen und läuft gut".
Nicht alles was DLSS verbessert, muss verbessert werden (Death Stranding). DLSS !!verändert!! auch Texturen, die nicht verändert werden sollen.
RT können Spieler nur dann sofort als positiv erkennen, wenn das RZ absichtlich extrem !!abgewertet!! wurde. Ich kann jedem nur mal empfehlen sich Pumpkin Jack anzusehen. Das absichtliche weglassen von möglichen Shadereffekten, um RT zu puschen, ist fast schon zum fremdschämen.
sMM-mJEl_4Y
Ging um die 10% durch den neuen Treiber @Nazar.
Jep, habe ich jetzt auch gelesen.... danke ;)
Zergra
2020-10-23, 21:13:42
Ich glaube da wäre es wesentlich günstiger HBM2 mit ~400mm^2 Diesize zu verbauen. Manche Dinge der Leaks wirken für mich inkonsistent
Das ist niemals günstiger, sonst wäre NV auch schon lange auf den Zug aufgesprungen.
Aber nein, sie entwickeln lieber einen extra Speicher.
Alleine dadurch sollte einem klar sein das HBM wesentlich teurer ist, bei der Entwicklung und auch bei der Fertigung.
Gleichzeitig entwickelt AMD möglicherweise einen extra Cache um nicht auf HBM zu setzen.
HBM für Gamer ist Tod, vllt. ändert sich das irgendwann nochmal aber nicht in den nächsten Jahren.
Dampf
2020-10-23, 21:16:53
Das absichtliche weglassen von möglichen Shadereffekten, um RT zu puschen, ist fast schon zum fremdschämen.
https://youtu.be/sMM-mJEl_4Y
Ähm, gewöhn dich mal lieber daran. In Zukunft wird das häufiger vorkommen aber nicht weil Nvidia Geld springen lässt, sondern weil Raytracing die Entwicklungskosten/Zeit dramatisch senkt. Jetzt wird ja bald auch AMD RT Beschleunigung haben.
basix
2020-10-23, 21:24:16
Ich dachte, die Steigerung von Warpantrieb ist der Sporenantrieb 😁
Haha, danke für die Erinnerung. Dank dir habe ich schnell nachgeschaut und Season 3 hat gerade gestartet :D
Fragman
2020-10-23, 21:44:27
RT können Spieler nur dann sofort als positiv erkennen, wenn das RZ absichtlich extrem !!abgewertet!! wurde. Ich kann jedem nur mal empfehlen sich Pumpkin Jack anzusehen. Das absichtliche weglassen von möglichen Shadereffekten, um RT zu puschen, ist fast schon zum fremdschämen.
Mit solchen Aussagen wär ich sehr vorsichtig.
Beispiel Borderlands 3, daran musste ich beim schauen von dem Kürbisspiel sofort denken. In BL3 vermisse ich allgemein vernünftiges Shadowing, das Lighting ist weich und ohne Definition, die es gar nicht gäbe, hätten wir das grobe AO nicht. Von dem Noise überall fang ich dabei nicht an. Ob das ein Performanceproblem der UE4 ist, die in Techdemos IMMER besser aussieht als dann in realen Spielen, kann ich nicht sagen.
Vielleicht nutzt man die Skalierungsmöglichkeiten der Engine einfach zu stark nach unten aus, was einem "downgrade" ähnlich ist? Bei RT Unterstützung muss man nicht darauf achten, wie die Performance auf günstigeren Karten ist und liefert entsprechend deutlich mehr. Reine Spekulation meinerseits, halte ich aber für plausibel.
Schnoesel
2020-10-23, 21:55:49
Ich sch... auf DLSS und RTX. Und nun?
Bin da aber völlig frei was meine nächste Karte anbelangt. Lieferbar sollte sie sein und es muss ein Fullcover dafür geben. Wenn Nvidia liefern könnte hätte ich schon längst ne 3080 drin, jetzt schaue ich mir eben mal die schöne Navi an. Wer mein Geld nicht will der schon hat. RTX/DLSS war nie Teil meiner Überlegung und da geht es vielen wie mir.
Ich hoffe nur das NAVI XTX keine Limited oder so wird.
Das ist niemals günstiger, sonst wäre NV auch schon lange auf den Zug aufgesprungen.
Aber nein, sie entwickeln lieber einen extra Speicher.
Alleine dadurch sollte einem klar sein das HBM wesentlich teurer ist, bei der Entwicklung und auch bei der Fertigung.
Gleichzeitig entwickelt AMD möglicherweise einen extra Cache um nicht auf HBM zu setzen.
HBM für Gamer ist Tod, vllt. ändert sich das irgendwann nochmal aber nicht in den nächsten Jahren.
NV hat sein Ding durchgezogen und ja, die wussten etwas früher als wir von der Performance seitens N2x.
Aber ernsthaft: Was soll ein ein GA 102 hier noch bringen, wenn man Overall komplett untergeht :confused:
dargo
2020-10-23, 22:01:55
RT können Spieler nur dann sofort als positiv erkennen, wenn das RZ absichtlich extrem !!abgewertet!! wurde. Ich kann jedem nur mal empfehlen sich Pumpkin Jack anzusehen. Das absichtliche weglassen von möglichen Shadereffekten, um RT zu puschen, ist fast schon zum fremdschämen.
https://youtu.be/sMM-mJEl_4Y
Schönes Beispiel von "sieht sowohl mit RT als auch ohne RT scheiße aus". :ulol:
Savay
2020-10-23, 23:15:10
Schönes Beispiel von "sieht sowohl mit RT als auch ohne RT scheiße aus". :ulol:
"Es ist 1998.
Meine Karte ist alt und bräunt sich.
Im Rechner. (allein?)
Ja, mein Budget ist klein (na fein)" *träller*
Mal im Ernst:
Erinnert mich von der Optik schon ein wenig an diesen ominösen CreativeLabs Stencil Shadow Patch für Unreal. :freak:
Digidi
2020-10-23, 23:36:47
Kann damit jemand was anfangen? Sind da wichtige Infos drin?
[PATCH] drm/amdgpu: correct the cu and rb info for sienna cichlid
https://lists.freedesktop.org/archives/amd-gfx/2020-October/055069.html
basix
2020-10-24, 01:18:29
Der relevante Teil ist dieser hier:
+ bitmap = i * adev->gfx.config.max_sh_per_se + j;
+ if ((adev->asic_type == CHIP_SIENNA_CICHLID) &&
+ ((gfx_v10_3_get_disabled_sa(adev) >> bitmap) & 1))
+ continue;
max_sh_per_se beschreibt die Anzahl CUs pro WGP. Bei Navi 1x und 2x sind das 2. Und gfx_v10_3_get_disabled_sa() scheint eine Funktion zu sein, um ein abgeschaltetes Shader Array für RDNA2 basierte Chips zu erhalten. Irgendwie scheint bei N21 das beim normalen Readout nicht korrekt ausgelesen zu werden. Hat N21 mehr CUs oder Shader Arrays? :freak: Das wäre aber sehr komisch. Dann wären die von Igor gezeigten Benchmarks allenfalls nur mit gekappter Leistung gefahren worden ;D
Chooo Chooo! :D
Nee, ich denke irgendwie wird die Anzahl aktiver Shader Arrays gezählt und wenn eines deaktiviert ist und man das findet, muss man früher aus dem Loop raus. Nichts weltbewegendes.
Nazar
2020-10-24, 01:36:45
Mit solchen Aussagen wär ich sehr vorsichtig.
Beispiel Borderlands 3, daran musste ich beim schauen von dem Kürbisspiel sofort denken. In BL3 vermisse ich allgemein vernünftiges Shadowing, das Lighting ist weich und ohne Definition, die es gar nicht gäbe, hätten wir das grobe AO nicht. Von dem Noise überall fang ich dabei nicht an. Ob das ein Performanceproblem der UE4 ist, die in Techdemos IMMER besser aussieht als dann in realen Spielen, kann ich nicht sagen.
Vielleicht nutzt man die Skalierungsmöglichkeiten der Engine einfach zu stark nach unten aus, was einem "downgrade" ähnlich ist? Bei RT Unterstützung muss man nicht darauf achten, wie die Performance auf günstigeren Karten ist und liefert entsprechend deutlich mehr. Reine Spekulation meinerseits, halte ich aber für plausibel.
Ich kenne bisher niemanden, der mir während des Spielens sagen konnte, ob das Spiel gerade mit oder ohne RT läuft. Erst nachdem ich fragte, wurde nach z.B. "Pfützen" oder anderen Spiegelnden Flächen gesucht.
Wie heißt gleich eines der RT Spiele? "Control"?
Oder sollte man besser fragen, wie eines der "Pfützenspiele" heißt?
Selbst der Boden in Control sieht aus wie in einem Schwinnbad. Alles was glänzen und reflektieren konnte, wurde auch reflektierend gemacht und zwar derart, dass es selbst den Leuten mit den 3 schwarzen Punkten auf der gelben Armbinde auffallen musste. Deshalb ist gerade Control so rechenintensiv.
Ich sage nicht das RT -richtig angewandt- nicht gut aussieht aber das was ich derzeit sehe rechtfertigt in keiner Weise den extremen Performanceeinbruch. Man bekommt fast genauso gute Effekte auch mit RZ hin (neue Unreal Engine) und das mehr als 70%+ günstiger.
Ich durfte mir die RT Schatten in WoW anschauen und konnte die Effekte erst auf höchster Qualitätsstufe als erkennbar ausmachen, auch wenn niemand, der den Effekt so sah, mir sagen konnte, dass es 1. viel besser aussah (manche empfinden weichere Schatten als "natürlicher") und 2. das es RT Schatten waren.
Meine 2080Ti brach, je nach Situation, nur wegen dieser Schatten um mehr als 70% ein (Raid mit allen Effekten on).
Das Gesamtbild während des Spielens wurde nicht besser. Die Schatten kosteten nur extrem viel Leistung und machten das Gameplay im Raid unmöglich.
Eine 3090 eines Kumpels brach mit RT Schatten auf max Q um 35% ein.
Auf zwei nacheinader gezeigten Screenshots, ohne das verglichen werden konnte, konnte niemand sagen, dass ein RT Effekt aktiv war und als ich sagte, dass ein RT Effekt aktiv war, wurde wild geraten. Ich konnte nach belieben behaupten, welcher Screenshot mit RT war und man glaubte es mir. :rolleyes:
Ich behaupte einfach mal kackfrech, dass maximal 1% aller Spieler auf Anhieb RT Effekte erkennen, wenn sie ein Spiel spielen und wenn man ihnen sogar die möglichen Effekte erklärt hat!
Ich behaupte aber auch, dass mehr als 90% aller Spieler sofort sagen können ob AA aktiv ist oder nicht und mindestens 50% aller Spieler auffällt, wenn AF fehlt.
Das größte Problem was ich aber mit RT habe, ist die Werbung und die darin enthaltende Verarschung der Konsumenten.
99% aller Spieler würde nicht auffallen ob RT on oder off ist. Maximal an den FPS.
Lustige Anekdote: Ich habe in BF-V einen FPS Limiter auf 45 FPS gesetzt und einem Kollegen gesagt, dass ich keine RT Effekte erkennen könne. Er aber war fest davon überzeugt, dass RT aktiv war und wollte mir anhand von Spiegelungen das auch beweisen.
Er wusste gar nicht mehr wie mit aktiven RT Spiegelungen aussehen! :eek:
Das ist doch der Witz an der Sache: ohne eine Anleitung, wie man die RT Effekte erkennen kann, können die meisten Spieler überhaupt keine Unterschiede definieren und erkennen!
AA kann fast jeder sofort erkennen, bei AF wird es schwieriger aber RT von RZ zu unterscheiden, dass schafft kaum einer während des Spielens und selbst bei Vergleichsbildern wird oft daneben gegriffen, wenn RZ auch die volle Aufmerksamkeit bekommen hat.
RT wird frühestens in 10 Jahren seine Vorteile in Spielen ausspielen können, wenn die RT Leistung weiterhin so beschieden steigt, wie derzeit.
Momentan sieht RT nämlich in vielen Fällen noch unnatürlicher aus als RZ (unnatürlich hell oder unnatürlich dunkel, zu glänzend, zu spiegelnd), weil RT mit viel zu wenig Strahlen auskommen muss, um Effekte natürlich aussehen lassen zu können. Die GPU Performance reicht vorne und hinten nicht für vernünftiges Path Tracing aber ohne Path Tracing wird es keine gut aussehenden RT Spiele ohne zusätzliches RZ geben!
Digidi
2020-10-24, 01:40:24
Der relevante Teil ist dieser hier:
+ bitmap = i * adev->gfx.config.max_sh_per_se + j;
+ if ((adev->asic_type == CHIP_SIENNA_CICHLID) &&
+ ((gfx_v10_3_get_disabled_sa(adev) >> bitmap) & 1))
+ continue;
max_sh_per_se beschreibt die Anzahl CUs pro WGP. Bei Navi 1x und 2x sind das 2. Und gfx_v10_3_get_disabled_sa() scheint eine Funktion zu sein, um ein abgeschaltetes Shader Array für RDNA2 basierte Chips zu erhalten. Irgendwie scheint bei N21 das beim normalen Readout nicht korrekt ausgelesen zu werden. Hat N21 mehr CUs oder Shader Arrays? :freak: Das wäre aber sehr komisch. Dann wären die von Igor gezeigten Benchmarks allenfalls nur mit gekappter Leistung gefahren worden ;D
Chooo Chooo! :D
Nee, ich denke irgendwie wird die Anzahl aktiver Shader Arrays gezählt und wenn eines deaktiviert ist und man das findet, muss man früher aus dem Loop raus. Nichts weltbewegendes.
Danke für die Info. Ich war halt etwas durch die Überschrift die wirlich so lautete "drm/amdgpu: correct the cu and rb info for sienna cichlid" irritiert:
basix
2020-10-24, 01:50:39
Das einzige was man daraus ableiten könnte ist, dass es bei N21 SKUs mit deaktivierten SA gibt (=10 CUs). N21 XL mit z.B. 64 CUs wäre so ein Kandidat.
Brillus
2020-10-24, 03:07:01
Ich kenne bisher niemanden, der mir während des Spielens sagen konnte, ob das Spiel gerade mit oder ohne RT läuft. Erst nachdem ich fragte, wurde nach z.B. "Pfützen" oder anderen Spiegelnden Flächen gesucht.
Wie heißt gleich eines der RT Spiele? "Control"?
Oder sollte man besser fragen, wie eines der "Pfützenspiele" heißt?
Selbst der Boden in Control sieht aus wie in einem Schwinnbad. Alles was glänzen und reflektieren konnte, wurde auch reflektierend gemacht und zwar derart, dass es selbst den Leuten mit den 3 schwarzen Punkten auf der gelben Armbinde auffallen musste. Deshalb ist gerade Control so rechenintensiv.
Ich sage nicht das RT -richtig angewandt- nicht gut aussieht aber das was ich derzeit sehe rechtfertigt in keiner Weise den extremen Performanceeinbruch. Man bekommt fast genauso gute Effekte auch mit RZ hin (neue Unreal Engine) und das mehr als 70%+ günstiger.
Ich durfte mir die RT Schatten in WoW anschauen und konnte die Effekte erst auf höchster Qualitätsstufe als erkennbar ausmachen, auch wenn niemand, der den Effekt so sah, mir sagen konnte, dass es 1. viel besser aussah (manche empfinden weichere Schatten als "natürlicher") und 2. das es RT Schatten waren.
Meine 2080Ti brach, je nach Situation, nur wegen dieser Schatten um mehr als 70% ein (Raid mit allen Effekten on).
Das Gesamtbild während des Spielens wurde nicht besser. Die Schatten kosteten nur extrem viel Leistung und machten das Gameplay im Raid unmöglich.
Eine 3090 eines Kumpels brach mit RT Schatten auf max Q um 35% ein.
Auf zwei nacheinader gezeigten Screenshots, ohne das verglichen werden konnte, konnte niemand sagen, dass ein RT Effekt aktiv war und als ich sagte, dass ein RT Effekt aktiv war, wurde wild geraten. Ich konnte nach belieben behaupten, welcher Screenshot mit RT war und man glaubte es mir. :rolleyes:
Ich behaupte einfach mal kackfrech, dass maximal 1% aller Spieler auf Anhieb RT Effekte erkennen, wenn sie ein Spiel spielen und wenn man ihnen sogar die möglichen Effekte erklärt hat!
Ich behaupte aber auch, dass mehr als 90% aller Spieler sofort sagen können ob AA aktiv ist oder nicht und mindestens 50% aller Spieler auffällt, wenn AF fehlt.
Das größte Problem was ich aber mit RT habe, ist die Werbung und die darin enthaltende Verarschung der Konsumenten.
99% aller Spieler würde nicht auffallen ob RT on oder off ist. Maximal an den FPS.
Lustige Anekdote: Ich habe in BF-V einen FPS Limiter auf 45 FPS gesetzt und einem Kollegen gesagt, dass ich keine RT Effekte erkennen könne. Er aber war fest davon überzeugt, dass RT aktiv war und wollte mir anhand von Spiegelungen das auch beweisen.
Er wusste gar nicht mehr wie mit aktiven RT Spiegelungen aussehen! :eek:
Das ist doch der Witz an der Sache: ohne eine Anleitung, wie man die RT Effekte erkennen kann, können die meisten Spieler überhaupt keine Unterschiede definieren und erkennen!
AA kann fast jeder sofort erkennen, bei AF wird es schwieriger aber RT von RZ zu unterscheiden, dass schafft kaum einer während des Spielens und selbst bei Vergleichsbildern wird oft daneben gegriffen, wenn RZ auch die volle Aufmerksamkeit bekommen hat.
RT wird frühestens in 10 Jahren seine Vorteile in Spielen ausspielen können, wenn die RT Leistung weiterhin so beschieden steigt, wie derzeit.
Momentan sieht RT nämlich in vielen Fällen noch unnatürlicher aus als RZ (unnatürlich hell oder unnatürlich dunkel, zu glänzend, zu spiegelnd), weil RT mit viel zu wenig Strahlen auskommen muss, um Effekte natürlich aussehen lassen zu können. Die GPU Performance reicht vorne und hinten nicht für vernünftiges Path Tracing aber ohne Path Tracing wird es keine gut aussehenden RT Spiele ohne zusätzliches RZ geben!
Sehe ich ähnlich kann mich noch gut an ein blindvergleich Video erinnern als es raus kam mit ~10 verschiedenen Szenen aus unterschiedlichen Spielen. Hab eigentlich immer nach spätestens 5 sec gewusst was RT war. Aber in gut 90% der Fälle sah ohne besser aus. Übertriebene Spegelungen, schlechte Helligkeitsabstimmung im Bild, überharte Schatten etc.
y33H@
2020-10-24, 08:52:14
Irgendwo muss es anfangen, gerade Schatten wie in WoW sind doch völlig offensichtlich.
Opprobrium
2020-10-24, 09:01:47
Irgendwo muss es anfangen[...]
Eben. Und daßam Anfang einer Technologie oft der BlingBling Faktor mehr zählt als die Ästhetik ist auch nichts neues.
dargo
2020-10-24, 09:48:45
Irgendwo muss es anfangen, gerade Schatten wie in WoW sind doch völlig offensichtlich.
Absolut... dann aber bitte keine Features die erst am Anfang stehen als das non plus ultra verkaufen. Siehst ja schon was in diesem Forum los war als Turing kam (dabei hatten TU116/117 nicht mal RT in Hardware). ;) Plötzlich entstand der Eindruck, dass jeder Raytracing braucht. :rolleyes: Wir sind noch völlig am Anfang was RT in Realtime anbelangt.
Ich bin echt gespannt, wie AMD genau mit nur 256Bit auskommt ^^
Genau Das dürfte auch NV interessieren.
Deren herkömmliches(aufgeblasenes) 256Bit(384Bit) GDDR6(X) ist da scheinbar nicht konkurrenzfähig.
Auch die mögliche Speicherbestückung mit 2Gb Chips ergibt bei NV nur "unglückliches".
(8/10Gb zu wenig - 16/20Gb zu teuer/"zu viel")
AMD ist da mit 10?-12-14?-16Gb wesentlich sinnvoller platziert.
M.f.G. JVC
Adam D.
2020-10-24, 10:09:25
Ich bin echt gespannt, wie AMD genau mit nur 256Bit auskommt ^^
Genau Das dürfte auch NV interessieren.
Deren herkömmliches(aufgeblasenes) 256Bit(384Bit) GDDR6(X) ist da scheinbar nicht konkurrenzfähig.
M.f.G. JVC
Ich wäre mal mit Formulierungen wie "nicht konkurrenzfähig" mal ganz vorsichtig. Natürlich ist NV konkurrenzfähig, die Leute tun schon wieder so, als wäre Ampere der Schrott des Jahrhunderts. Die Architektur fetzt, am Ende gab es aber halt ein paar (sehr) fragwürdige Entscheidungen bzgl. des Gesamtpaketes. Und dass Samsungs Schrottprozess hier mit reinspielt, dürfte inzwischen wohl kaum mehr bestreitbar sein.
ChaosTM
2020-10-24, 10:09:58
@Nazar
Im grossen und ganzen hast du Recht. Das bisher gezeigte ist eher bescheiden und rechtfertigt den FPS Verlust noch in keinster Weise.
Dient bisher nur als Alleinstellungsmerkmal um die Konkurrenz "schlecht" auschaun zu lassen. Das gleiche gilt für DLSS.
Proprietäres Zeugs ist nie gut.
dargo
2020-10-24, 10:17:11
Ich wäre mal mit Formulierungen wie "nicht konkurrenzfähig" mal ganz vorsichtig. Natürlich ist NV konkurrenzfähig, die Leute tun schon wieder so, als wäre Ampere der Schrott des Jahrhunderts. Die Architektur fetzt, am Ende gab es aber halt ein paar (sehr) fragwürdige Entscheidungen bzgl. des Gesamtpaketes. Und dass Samsungs Schrottprozess hier mit reinspielt, dürfte inzwischen wohl kaum mehr bestreitbar sein.
Das wird sich erst zeigen wo AMD N21 preislich aufstellt. Sollte AMD den langsamsten N21 @XL bei 449$ und den schnellsten N21 @XTX bei 699-749$ aufstellen bekommt NV erhebliche Probleme. Die RTX 3090 ist nur für extrem wenige Gamer interessant.
Edit:
Man muss sich nur mal überlegen wo wir aktuell stehen. Eine 3070 mit lächerlichen 8GB soll für 499$ kommen. Jetzt stelle dir vor du bekommst eine N21XL für 449-499$ mit 16GB die zudem noch etwas schneller ist. Wer, außer den absoluten Fanboys kauft sich da noch eine RTX 3070? Zumal Jensen die 3070 erstmal liefern muss. Bei den katastrophalen Stückzahlen von GA102 habe ich da immer noch meine Zweifel ob die Lage sich bei der 3070 erheblich verbessert. Vielleicht will Jensen gar nicht mal so viele 3070 von Samsung auf die Masse loslassen. Aber das werden wir ja bald erfahren.
Grendizer
2020-10-24, 10:21:03
Das wird sich erst zeigen wo AMD N21 preislich aufstellt. Sollte AMD den langsamsten N21 @XL bei 449$ und den schnellsten N21 @XTX bei 699-749$ aufstellen bekommt NV erhebliche Probleme. Die RTX 3090 ist nur für extrem wenige Gamer interessant.
Eine XTX für 749 wäre schon ziemlich genial, aber nach den Performance Aussichten würde es mich wundern, wenn sie so preiswert wäre.
dargo
2020-10-24, 10:32:17
Die Preise sind eh sehr schwierig abzuschätzen momentan da immer noch niemand sagen kann wie groß tatsächlich N21 ist und wie aggressiv AMD das gesamte RDNA2 Portfolio aufstellen möchte.
TheGood
2020-10-24, 10:34:00
Puh, das ist ja ein echter Hypetrain hier. Ich lasse mich nicht mithypen, dann FAll ich ggf. nicht so tief. Ich finde es schon mehr asl gut, wenn sie mit der mittleren Lösung mit der 3080 konkurrieren können (-10 bis +5% ) das wäre und ist doch schon ein super erfolg. Das mit ähnlichen preisen oder etwas günstiger wie Nvidia und dann ist das ein runde paket. Am Ende gibts dann zwei Pakete von denen jeder seines auswählen kann. Für mich ist das klar eines mit Mehrspeicher da ich Grafikkarten immer lang im Einsatz habe.
Ich denke auch dass die grösste Lösung von AMD maximal 1000 Euro kosten wird. Aber auch da kann man dann überrascht werden, da AMD sich eben durchaus an der KOnkurrenz orientiert.
Ähm, gewöhn dich mal lieber daran. In Zukunft wird das häufiger vorkommen aber nicht weil Nvidia Geld springen lässt, sondern weil Raytracing die Entwicklungskosten/Zeit dramatisch senkt. Jetzt wird ja bald auch AMD RT Beschleunigung haben.
Mit Sicherheit nicht. Die Studios bedienen den Massenmarkt und der wird auf absehbare Zeit auf RT zugunsten der Performance verzichten. RT bleibt die nächsten Jahre zusätzliche Arbeit für die Studios, wie LowLevelAPIs sind 2015-2018.
Screemer
2020-10-24, 10:35:16
Und jetzt überleg euch Mal, dass das die ganzen in den letzten zwei Tagen kolportierten Zahlen Nonsens sind. Das wäre einfach nur Wasser auf die Mühlen der ewigen Forenschreihälse.
Ich will damit sagen, dass man am besten ein wenig den Fuß vom Gas gehen sollte.
Und jetzt überleg euch Mal, dass das die ganzen in den letzten zwei Tagen kolportierten Zahlen Nonsens sind. Das wäre einfach nur Wasser auf die Mühlen der ewigen Forenschreihälse.
Ich will damit sagen, dass man am besten ein wenig den Fuß vom Gas gehen sollte.
Dann gibts halt enttäuschte Gesichte, so what? Ist man bei NV doch gewöhnt nach Pascal ;) (Volta, Turing, Ampere). Warum sollte das hier dann anders sein? Nach dem 28. leben alle mit dem Ergebnis und Ende.
Dampf
2020-10-24, 10:39:00
Mit Sicherheit nicht. Die Studios bedienen den Massenmarkt und der wird auf absehbare Zeit auf RT zugunsten der Performance verzichten. RT bleibt die nächsten Jahre zusätzliche Arbeit für die Studios, wie LowLevelAPIs sind 2015-2018.
Guck dir mal RTXGI an. Läuft gut selbst ohne RT Hardware und auf jeder DXR GPU (also später auch auf AMD). Da wird der Hase hinlaufen.
Adam D.
2020-10-24, 10:39:12
Eine XTX für 749 wäre schon ziemlich genial, aber nach den Performance Aussichten würde es mich wundern, wenn sie so preiswert wäre.
Das ist genau der Punkt. AMD sieht doch, wie die Leute NV die fünf produzierten Karten aus den Händen reißen, als gäbe es kein Morgen mehr. AMD ist kein Wohltäter und zeigt mit Zen 3 genau, wie die Preisstrukturen zu erwarten sind, wenn man konkurrenzfähig ist.
dargo
2020-10-24, 10:39:43
Mit Sicherheit nicht. Die Studios bedienen den Massenmarkt und der wird auf absehbare Zeit auf RT zugunsten der Performance verzichten. RT bleibt die nächsten Jahre zusätzliche Arbeit für die Studios, wie LowLevelAPIs sind 2015-2018.
Würde ich jetzt nicht so sehen. Da jetzt AMD und vor allem die Konsolen RT in Hardware bekommen spricht man eine wesentlich größere Zielgruppe an. Ich denke schon, dass die nächsten Games immer mehr RT bekommen. Spricht ja auch nichts dagegen. Dann hast du RT medium was dem Konsolen-Preset entspricht und bekommst dann noch high + ultra RT am PC damit auch die High-End bis Enthusiasten-GPUs am PC in die Knie gezwungen werden. Ich sehe da jetzt keine großen Probleme bei der Skalierung von RT. Ist ja auch kein riesen Mehraufwand wenn eh schon RT implementiert ist. Das werden natürlich nicht alle Studios im "Übergang" so handhaben. Sicherlich werden noch einige Games ohne RT kommen.
Und jetzt überleg euch Mal, dass das die ganzen in den letzten zwei Tagen kolportierten Zahlen Nonsens sind. Das wäre einfach nur Wasser auf die Mühlen der ewigen Forenschreihälse.
Ich will damit sagen, dass man am besten ein wenig den Fuß vom Gas gehen sollte.
Geht davon die Welt dann unter? Wir reden hier von unwichtigen Grafikkarten. :freak:
Das ist genau der Punkt. AMD sieht doch, wie die Leute NV die fünf produzierten Karten aus den Händen reißen, als gäbe es kein Morgen mehr.
Das würde bei AMD genauso passieren wenn sie 5.000 Stück produzieren. ;D
Complicated
2020-10-24, 10:41:33
An der Preisfestsetzung wird sich zeigen welche Strategie AMD verfolgt. Marktanteile gewinnen oder Marge erhöhen. Ich fürchte einfach, dass Marktanteile zu gewinnen derzeit noch nicht möglich ist. Für die RX 6000 Serie mit Kampfpreis sind vermutlich einfach nicht ausreichend 7nm Wafer vorhanden um die dann auch zu liefern. Daher ist es der beste unternehmerische Zeitpunkt sein Margen zu verbessern. Oder noch besser eine gute Balance hinzubekommen zwischen beidem, was allerdings keine leichte Aufgabe ist.
Dampf
2020-10-24, 10:43:44
Würde ich jetzt nicht so sehen. Da jetzt AMD und vor allem die Konsolen RT in Hardware bekommen spricht man eine wesentlich größere Zielgruppe an. Ich denke schon, dass die nächsten Games immer mehr RT bekommen. Spricht ja auch nichts dagegen. Dann hast du RT medium was dem Konsolen-Preset entspricht und bekommst dann noch high + ultra RT am PC damit auch die High-End bis Enthusiasten-GPUs am PC in die Knie gezwungen werden. Ich sehe da jetzt keine großen Probleme bei der Skalierung von RT. Ist ja auch kein riesen Mehraufwand wenn eh schon RT implementiert ist. Das werden natürlich nicht alle Studios im "Übergang" so handhaben. Sicherlich werden noch einige Games ohne RT kommen.
Jop. Machste halt ein Ultra Low Preset, das auch flott auf Karten ohne DXR Beschleunigung läuft und schon haste trotzdem alle Karten abgedeckt, musst nix mehr backen und hast massig Entwicklungskosten gespart. Raytracing ist sehr skalierbar und wenn Spiele erstmal auf viele Lichter setzen (Stichwort RTXDI) dann ist Raytracing in diesem Falle auch deutlich schneller als herkömmliche Rasterization.
amdfanuwe
2020-10-24, 10:46:25
Ich denke, AMD wird sich nach den Vorgaben Nvidias richten und die Karten entsprechend Preis/Performance einsortieren.
Der gewöhnliche Nutzer schaut auf Performance Index bzw. Preis/Leistungs Diagramme und schert sich weniger um Features wie RT, DLSS oder Speicherbestückung, solange diese nicht einen Flaschenhals darstellen.
Aber juckt mich eh nicht. Ich warte noch auf die Ablösung meiner 8GB RX480, die ich kurz nach Erscheinen noch für 239,- erstanden hatte. Werde ich noch etwas warten müssen, bis der Nachfolger der 5600X zu etwas günstigeren Preisen kommt.
dargo
2020-10-24, 10:46:56
Jop. Machste halt ein Ultra Low Preset, das auch flott auf Karten ohne DXR Beschleunigung läuft und schon haste trotzdem alle Karten abgedeckt, musst nix mehr backen und hast massig Entwicklungskosten gespart. Raytracing ist sehr skalierbar und wenn Spiele erstmal auf viele Lichter setzen (Stichwort RTXDI) dann ist Raytracing in diesem Falle auch deutlich schneller als herkömmliche Rasterization.
Das funktioniert so nicht wie du dir das vorstellst. Aktuell müssen Entwickler auch auf alte Konsolen noch Rücksicht nehmen. Natürlich auch auf alte PC-Hardware. Solange das so bleibt hast du den doppelten Entwicklungsaufwand.
jay.gee
2020-10-24, 10:47:00
Irgendwo muss es anfangen, gerade Schatten wie in WoW sind doch völlig offensichtlich.
So sieht es doch aus. Erinnert mich an die Diskussionen über nvidias Gameworks Effekte seinerzeit. Da gab es Effekte, die man Jahre davor nur aus Techdemos kannte und von denen Spieler damals nur geträumt haben. Alle waren geil auf solche Effekte und als Spiele wie Batman die alten Träumereien dann InGame aufgefahren haben, haben viele behauptet, dass sie auf so einen Schnick Schnack auch verzichten können. ;) Diese Diskussion könnte man ausweiten auf 3D-Vision, Lenkräder, TrackIR, VR, Flightsticks oder jetzt eben RT und DLSS.
Die diffusen Schatten in Metro ergeben für mich definitiv einen Mehrwert, genauso wie Spiele wie Wolfenstein: Youngblood oder Control optisch von RT profitieren. Und wenn DICE DX12 besser unter Kontrolle hätte, würde auch alle von den Effekten aus BF5 schwärmen. Zumindest wenn man nur eine ganz kleine Grafikh*re in sich hat. Und mit Blick auf Watch Dogs: Legion oder CP2077 kann mir doch niemand erzählen, dass man solche Titel nicht am liebsten mit RT spielen möchte. :| Es wird exakt so kommen, wie ich es schon im RT-Thread prognostiziert habe. Erst wenn RT im Massenstrom angekommen ist, werden es auch die Leute feiern, die es in der Vergangenheit als unnötigen Schnick Schnack bezeichnet haben.
Und zur Performance der ersten Generation sei noch gesagt. Durch zahlreiche der ersten 3dfx-Spiele hat man sich genauso geruckelt, wie später durch ein FarCry oder Crysis. Und alle haben seinerzeit völlig berechtigt drauf geschissen!!!
amdfanuwe
2020-10-24, 10:51:33
Marktanteile gewinnen oder Marge erhöhen.
Da sie, die VII mal außer acht gelassen, nichts über 400€ im Programm haben, können sie da nur gewinnen.
dargo
2020-10-24, 10:52:10
Und mit Blick auf Watch Dogs: Legion oder CP2077 kann mir doch niemand erzählen, dass man solche Titel nicht am liebsten mit RT spielen möchte. :| Es wird exakt so kommen, wie ich es schon im RT-Thread prognostiziert habe. Erst wenn RT im Massenstrom angekommen ist, werden es auch die Leute feiern, die es in der Vergangenheit als unnötigen Schnick Schnack bezeichnet haben.
Da muss ich dich enttäuschen. Das hängt alles von den Kosten mit RT ab. Wird die Framerate deutlich mit RT einbrechen verzichte ich ganz einfach darauf. Nur für paar korrektere Spiegelungen verzichte ich doch nicht auf meine hohen Frames. :ucrazy2: Ist ja nicht so, dass diese Spiegelungen mit SSR komplett fehlen.
btw.
In CP2077 sehe ich noch nicht was da so grafisch überzeugen soll. Sieht für mich immer noch nach Lastgen Assets aus. Daran ändert Raytracing auch nichts.
Dampf
2020-10-24, 10:53:20
Das funktioniert so nicht wie du dir das vorstellst. Aktuell müssen Entwickler auch auf alte Konsolen noch Rücksicht nehmen. Natürlich auch auf alte PC-Hardware. Solange das so bleibt hast du den doppelten Entwicklungsaufwand.
Das meine ich ja - Software basiertes Raytracing ist da die Lösung.
Ich empfehle dir mal RTXGI anzuschauen. Das kostet rund 1 ms auf einer Turing GPU und bietet richtig gute dynamische Raytraced GI. Wenn man das mal mit der UE4 eigenen RT GI Solution vergleicht, meint man da würden Jahrzehnte zwischen liegen, die UE4 Solution ist voller noise, halbiert die Framerate gleich und mehr. Der Trick ist, dass Raytracing nur genutzt wird, um die Light Probes zu aktualisieren wenn sich die Lichtbestimmungen ändern. Bei der UE4 wird es quasi ständig aktualisiert, unnötigerweise (wenn ich das richtig verstanden hab)
Wenn jetzt die RTXGI sagen wir 8ms auf einer midrange GPU ohne DXR Beschleunigung kostet, dann ist das kaum höher als herkömmliche GI die gebacken werden muss (die Zahlen sind jetzt nur ein Beispiel)
Ich hoffe wirklich dass Nvidia sich an das Versprechen hält, dass es auf jeder DXR GPU läuft. Dann wird auch AMD und die Konsole in den Genuss kommen und es kann zum Standard werden.
dargo
2020-10-24, 10:55:56
Das meine ich ja - Software basiertes Raytracing ist da die Lösung.
Ich empfehle dir mal RTXGI anzuschauen. Das kostet rund 1 ms auf einer Turing GPU (also fast nichts, 1 oder 2 fps) und bietet richtig gute dynamische Raytraced GI. Wenn man das mal mit der UE4 eigenen RT GI Solution vergleicht, meint man da würden Jahrzehnte zwischen liegen, die UE4 Solution ist voller noise, halbiert die Framerate gleich und mehr.
Wenn jetzt die RTXGI sagen wir 8ms auf einer midrange GPU ohne DXR Beschleunigung kostet, dann ist das kaum höher als herkömmliche GI die gebacken werden muss (die Zahlen sind jetzt nur ein Beispiel)
Kosten auf einer Turing-GPU sind irrelevant. Wenn du noch ältere Hardware abdecken musst dann schau dir besser Kosten auf Pascal, Polaris etc. an.
[...] Und alle haben seinerzeit völlig berechtigt drauf geschissen!!!
Da steckt mehr Ambivalenz/Wahrheit drin als Du im Moment glauben willst.:biggrin:
Dampf
2020-10-24, 11:00:50
Kosten auf einer Turing-GPU sind irrelevant. Wenn du noch ältere Hardware abdecken musst dann schau dir besser Kosten auf Pascal, Polaris etc. an.
Wie gesagt, deswegen mein letzter Satz in deinem Zitat. Es soll auch ohne DXR Beschleunigung gut laufen, das ist ja das Gute an der Sache!
Die AMD Karten würden sich aufgrund ihrer Compute-Leistung sicherlich exzellent für software Raytracing eignen.
Ich hoffe AMD schaltet bald DXR für alle GPUs frei. Daran scheitert es imo noch.
Berniyh
2020-10-24, 11:07:36
Das wird sich erst zeigen wo AMD N21 preislich aufstellt. Sollte AMD den langsamsten N21 @XL bei 449$ und den schnellsten N21 @XTX bei 699-749$ aufstellen bekommt NV erhebliche Probleme. Die RTX 3090 ist nur für extrem wenige Gamer interessant.
Warum sollte AMD das machen? Man hat weder bei Navi 10 noch bei Navi 14 eine Tendenz gezeigt wirklich günstige Angebote zu erstellen.
Navi 21 und 22 werden einiges an Wafern bei TSMC verschlingen, wahrscheinlich sogar deutlich mehr als Zen 2 und Zen 3 und selbst dort denkt AMD ja scheinbar über Chiplets mit einem anderen Prozess nach.
Die Radeon VII ist in meinen Augen am ehesten mit Navi 21 vergleichbar und hatte eine UVP von 749€ (obwohl nicht so wirklich konkurrenzfähig).
Das wäre dann wohl das Minimum von dem was man für eine XTX erwarten dürfte.
Alles darunter wäre zumindest für mich eine handfeste Überraschung.
aufkrawall
2020-10-24, 11:11:45
Irgendwo muss es anfangen, gerade Schatten wie in WoW sind doch völlig offensichtlich.
RT-Schatten in einem Comic-Spiel mit Content von mitunter 2005, srsly?
Ich wüsste nicht, wofür man unsinniger Leistung verballern könnte. Es lässt sich von allen RT-Effekten vermutlich mit am wenigsten Aufwand einbauen und dann hat man es halt als Checklisten-Feature...
Berniyh
2020-10-24, 11:12:20
An der Preisfestsetzung wird sich zeigen welche Strategie AMD verfolgt. Marktanteile gewinnen oder Marge erhöhen. Ich fürchte einfach, dass Marktanteile zu gewinnen derzeit noch nicht möglich ist. Für die RX 6000 Serie mit Kampfpreis sind vermutlich einfach nicht ausreichend 7nm Wafer vorhanden um die dann auch zu liefern. Daher ist es der beste unternehmerische Zeitpunkt sein Margen zu verbessern. Oder noch besser eine gute Balance hinzubekommen zwischen beidem, was allerdings keine leichte Aufgabe ist.
Wen interessieren denn Marktanteile?
Für AMD wird es darum gehen mit den Produkten einfach am meisten Umsatz und Gewinn zu machen und wenn die Wafer begrenzt und/oder teuer sind, dann werden eben die Produkte teurer.
dargo
2020-10-24, 11:13:21
Warum sollte AMD das machen? Man hat weder bei Navi 10 noch bei Navi 14 eine Tendenz gezeigt wirklich günstige Angebote zu erstellen.
Dort fehlte AMD einiges im Gesamtportfolio, also wäre es hier recht dämlich in den Preiskampf zu gehen. Außerdem ist 7nm TSMC aktuell wesentlich ausgereifter als es noch zum Zeitpunkt der Massenproduktion bei N10 und N14 der Fall war.
Die Radeon VII ist in meinen Augen am ehesten mit Navi 21 vergleichbar und hatte eine UVP von 749€ (obwohl nicht so wirklich konkurrenzfähig).
Das ist jetzt nicht dein ernst oder? :freak: Du vergleichst hier wirklich 16GB HBM2 und vier Stacks mit N21 an einem 256Bit SI und GDDR6. :ucrazy2:
Dampf
2020-10-24, 11:21:27
RT-Schatten in einem Comic-Spiel mit Content von mitunter 2005, srsly?
Ich wüsste nicht, wofür man unsinniger Leistung verballern könnte. Es lässt sich von allen RT-Effekten vermutlich mit am wenigsten Aufwand einbauen und dann hat man es halt als Checklisten-Feature...
Raytracing mag die Engine gar nicht. Sie ist halt auch einfach nicht dafür gemacht. Und ja RT Schatten in WoW sind zwar realistischer passen aber nicht zum Spiel.
Ich hab schon festgestellt, dass es auch stark an der Engine liegt, wie gut Raytracing performt. Die Northlight und 4A Engine beispielsweise eignen sich sehr gut. Frostbite ebenso.
UE4 dagegen gar nicht, was schade ist immerhin sind die meisten Spiele UE4 basiert und zieht dadurch den Ruf von RT runter. Das RT in Fortnite ist das neueste Machwerk, Reflektionen auf Mittel ziehen schon mehr als 60% der Framerate (zum Vergleich BF5 sehen ähnlich gut aus und kosten nur 18%). Die Raytraced GI bringt nicht mal wirklich viel (beispielsweise sind die Innenräume von Häusern immer noch so unecht beleuchtet anders als bei Metro) und zerstört die Framerate komplett ohne sichtlichen grafischen Mehrwert. AO macht literally gar nix in dem Spiel und zieht trotzdem krass an der Performance. Das ist ein klassischer Fall von Raytracing lohnt sich nicht.
Also ja, es hängt echt von der Engine, der Implementation und dem Spiel selbst ab.
Complicated
2020-10-24, 11:26:47
Wen interessieren denn Marktanteile?
Für AMD wird es darum gehen mit den Produkten einfach am meisten Umsatz Synonym?
Woran mißt du ob deine Strategie Erfolg hat im Verhältnis zum Gesamtmarkt?:confused: Bist du besser als deine Konkurrenz oder ist es gerade für alle dieses Quartal ein Hoch oder Tief? Um deine Preise zu gestalten kann Umsatz/Gewinn alleine als Kennzahl in die Irre führen. Beispiel Server-CPUs, wo Intel für das Enterprise-Segment ein -47% an Umsatz hatte in Q3 (Grund laut Intel ist ist ein erhöhter Umsatz in Q1 und Q2 für Corona bedingten Zuwachs bei Onlinediensten), für AMD wird ein +-0% prognostiziert für Q3
horn 12
2020-10-24, 11:29:14
Nun, Zen fruchtet schon seit Jahren und daher auch die höheren Preise da man immer mehr aufschliest seit etlichen Jahren.
AMD will die Situation ausnutzen und Marktanteile generieren und ausschöpfen was geht.
Man munkelt 499 bis 549 Euro XL
649 bis 699 Euro XT
849 XTX bis gar 899
Bedenkt sind schneller als Nvidia und doppelter, bzw. 1/3 Mehr Speicher.
Aber auch 449 / 599 und 749 Euro stehen zur Debatte!
Was kommen soll weiss wohl nur die Gesdchäftsführerein Lisa Su
Tippe auf Letzteres um einen Meilenstein bei den GPU Leistung/ Preis zu setzen!
Würde ich jetzt nicht so sehen. Da jetzt AMD und vor allem die Konsolen RT in Hardware bekommen spricht man eine wesentlich größere Zielgruppe an. Ich denke schon, dass die nächsten Games immer mehr RT bekommen. Spricht ja auch nichts dagegen. Dann hast du RT medium was dem Konsolen-Preset entspricht und bekommst dann noch high + ultra RT am PC damit auch die High-End bis Enthusiasten-GPUs am PC in die Knie gezwungen werden. Ich sehe da jetzt keine großen Probleme bei der Skalierung von RT. Ist ja auch kein riesen Mehraufwand wenn eh schon RT implementiert ist. Das werden natürlich nicht alle Studios im "Übergang" so handhaben. Sicherlich werden noch einige Games ohne RT kommen.
[...]
Das ist richtig, das war zu krass formuliert. Aber die Aussage stimmt trotzdem. Die meisten Games, die auch mit 60FPS auf den Konsolen laufen sollen sind trotzdem nicht RT-optimiert. Nur weil du Presets hast, heißt das nicht, dass das Ganze auf RT optimiert wird, vielmehr wird das RT-Preset als zusätzliches Feature mit implementiert. Aber natürlich hilft das Verbreitung enorm.
Dennoch sind wir noch sehr weit weg von einer "nur-RT-Optimierung" (also, dass RT der Optimierungsstandard wird und bisherige Techniken nur noch mit implementiert werden aus Kompatibilitätsgründen), denn das wird erst kommen, wenn die Konsolenhardware eh knapp wird und die meisten Spiele sowieso auf 30FPS zurückfallen - dann wird ja auch langsam der Refresh fällig. Auf dem PC ist es noch schwieriger. Dort wird die RT-Optimierung erst mit der nächsten Grafikkartengeneration sinnvoll gehen. Das dürfte dann aber auch der Zeitpunkt sein, bei dem die Konsolenhardware langsam knapp wird, also voraussichtlich im Laufe des Jahres 23. Bis dahin ist RT auf beiden Plattformen nicht mehr als Gimmick - dank der Konsolen allerdings stark verbreitet. Aber bei RT ist und bleibt die Leistung das Hauptproblem, daher ist es klar, dass die Spieleentwickler weiterhin primär auf bisherigen Rendertechniken setzen werden.
Berniyh
2020-10-24, 11:45:51
Dort fehlte AMD einiges im Gesamtportfolio, also wäre es hier recht dämlich in den Preiskampf zu gehen. Außerdem ist 7nm TSMC aktuell wesentlich ausgereifter als es noch zum Zeitpunkt der Massenproduktion bei N10 und N14 der Fall war.
Und?
Dennoch ist der Prozess bei TSMC sehr ausgebucht, was ihn eben recht teuer macht.
Das ist jetzt nicht dein ernst oder? :freak: Du vergleichst hier wirklich 16GB HBM2 und vier Stacks mit N21 an einem 256Bit SI und GDDR6. :ucrazy2:
Und? Dennoch positioniert sich Navi 21 wohl in Relation zu Nvidia deutlich höher im Markt.
Also warum sollte die Karte günstiger sein?
Synonym?
Woran mißt du ob deine Strategie Erfolg hat im Verhältnis zum Gesamtmarkt?:confused:
Nein, nicht wirklich synonym, nicht mal ansatzweise.
Du verwechselst Ursache und Wirkung …
Abgesehen davon bedeutet ein hoher Umsatz mitnichten auch unbedingt hohe Verkaufszahlen. Siehe Apple. Deren Marktanteil ist zwar nicht gering, aber auch nicht so hoch wie es der Umsatz und Gewinn vermuten lassen würde.
"Marktanteil gewinnen" ist in jedem Fall keine Motivation für günstigere Preise.
Es kann eine Folge der günstigeren Preise sein, das war es aber auch schon.
dargo
2020-10-24, 11:46:47
Meiner Meinung nach ist jetzt der beste Zeitpunkt um Nvidia anzugreifen um Marktanteile zurück zu erobern. Nvidia hat massive Probleme Stückzahlen zu liefern, wer weiß wann sich wieder so eine Gelegenheit bietet. Natürlich darf N21 auch nicht zu billig werden. Bringt ja nichts wenn man den Ansturm dann aufgrund zu kleinen Kapazitäten bei TSMC nicht ausreichend bedienen kann. AMD muss da einfach die beste Balance finden.
Und?
Dennoch ist der Prozess bei TSMC sehr ausgebucht, was ihn eben recht teuer macht.
Der muss unheimlich teuer sein wenn Sony die gesamte Konsole für 399$ anbieten wird. :rolleyes:
jay.gee
2020-10-24, 11:51:05
Da muss ich dich enttäuschen. Das hängt alles von den Kosten mit RT ab. Wird die Framerate deutlich mit RT einbrechen verzichte ich ganz einfach darauf. Nur für paar korrektere Spiegelungen verzichte ich doch nicht auf meine hohen Frames. :ucrazy2: Ist ja nicht so, dass diese Spiegelungen mit SSR komplett fehlen.
Völlig legitim und jeder setzt da seine eigenen Kompromisse. Aber ich finde schon, dass du dich dahingehend in den letzten Jahren ziemlich verändert hast. Es gab mal Zeiten, da warst du eine der größten Grafikh*ren dieses Forums, hast jede miese Textur kritisiert und hast dich gleichzeitig über jeden Fortschritt und neue Effekte gefreut.
Mittlerweile wirkst du auf mich häufig aber so, als wenn du diese Grafik*hure gegen Frametimes und Schwanzvergleiche im Kontext von effizienter Preisleistungshardware eingetauscht hast. Ich war fast schon ein wenig erschrocken enttäuscht, als ich kürzlich in einem HZD-Video von dir gesehen habe, dass du die Texturen reduziert hast. ;)
dargo
2020-10-24, 11:52:46
Tja... wir beide definieren Spielspaß halt etwas anders. Bei mir müssen Games sauber laufen. ;) Hat für mich die höchste Priorität. Früher spielte ich ohne VRR mit Dauergeruckel. Ich habe keine Ahnung wie ich das damals verkraften konnte. :freak:
btw.
Im Bereich Grafik ist 2020+ nicht mehr mit früher vergleichbar. Gesetz des abnehmenden Grenzertrags. Du pumpst heute Unmengen an Rohleistung für Effekte rein die kaum bis wenig bessere Bildqualität liefern.
Ich war fast schon ein wenig erschrocken enttäuscht, als ich kürzlich in einem HZD-Video von dir gesehen habe, dass du die Texturen reduziert hast. ;)
Was willst du denn machen wenn 8GB zu wenig und die neuen Karten noch nicht da sind? Aber keine Sorge... der zweite Run ist schon für BigNavi und 16GB Vram reserviert. :wink: Selbst du musstest mit 11GB Texturen reduzieren. Es sei denn dich stören Spikes in der Frameausgabe nicht. :wink:
Meiner Meinung nach ist jetzt der beste Zeitpunkt um Nvidia anzugreifen um Marktanteile zurück zu erobern. Nvidia hat massive Probleme Stückzahlen zu liefern, wer weiß wann sich wieder so eine Gelegenheit bietet. Natürlich darf N21 auch nicht zu billig werden. Bringt ja nichts wenn man den Ansturm dann aufgrund zu kleinen Kapazitäten bei TSMC nicht ausreichend bedienen kann. AMD muss da einfach die beste Balance finden.
[...]
Absolut richtig. Erst recht, wenn NV auf absehbare Zeit nicht liefern kann, muss man soviel wie geht reinhauen.
Ich denke, die XT wird für 600-700€ in den Markt kommen und die XL für 450-550€, allein um Masse zu generieren und NV die Margen zu zerstören. Es wirkt ja schon im Vorfeld, wie das canceln der 20 und 16GB-Varianten zeigt. Das bringt NV ja auch noch in eine schlechte Marktposition zusätzlich. Das hat bei Intel ja schon hervorragend funktioniert, siehe die letzten Quartalszahlen. Intel hat ja nicht weniger Server-CPUs abgesetzt, aber die Margen sind nach den ganzen massiven Preissenkungen und Rabatten total zusammengebrochen. Der Ausblick ist das echt schlecht für das Jahr 21, die würden das Jahr am liebsten direkt abschreiben. Als Konkurrent musst du sie da treffen wo es wehtut, das ist bei den Margen der Quasi-Monopolisten.
BlacKi
2020-10-24, 12:34:51
was für preise amd macht spielt doch keine rolle, umso weniger amd für die karte verlangt umso mehr bleibt einfach bei den verkäufern hängen. ich bezweifle das amd die karten in der menge liefern kann damit der preis niedrig bleibt. das spielt einiges mit rein, zb. ausgebuchter 7nm prozess, mangelhafte lieferbarkeit der konkurenzprodukte zb. es ist möglich das sich das damals mit vega wiederholt, wo man die karten zwar günstig anpreist, der freie markt aber bei den günstigen preisen nen strich durch die rechnung macht.
ich bin da auch gespannt wie es ablaufen wird.
Brillus
2020-10-24, 12:44:02
Ich wäre mal mit Formulierungen wie "nicht konkurrenzfähig" mal ganz vorsichtig. Natürlich ist NV konkurrenzfähig, die Leute tun schon wieder so, als wäre Ampere der Schrott des Jahrhunderts. Die Architektur fetzt, am Ende gab es aber halt ein paar (sehr) fragwürdige Entscheidungen bzgl. des Gesamtpaketes. Und dass Samsungs Schrottprozess hier mit reinspielt, dürfte inzwischen wohl kaum mehr bestreitbar sein.
Da bin ich bei dir bevor wir nicht Wissen was AMD macht und was der Preis dafür ist würde ich mich hütten zu sagen das eine ist besser als das andere. Nur zur Erinnerung hier gehen Spekus rum mit 150+mm^2 Chipfläche für Cache oder HBM ontop/side-by-side.
Evtl. Is NVs GDDR6X sogar der bessere Ansatz.
was für preise amd macht spielt doch keine rolle, umso weniger amd für die karte verlangt umso mehr bleibt einfach bei den verkäufern hängen. ich bezweifle das amd die karten in der menge liefern kann damit der preis niedrig bleibt. das spielt einiges mit rein, zb. ausgebuchter 7nm prozess, mangelhafte lieferbarkeit der konkurenzprodukte zb. es ist möglich das sich das damals mit vega wiederholt, wo man die karten zwar günstig anpreist, der freie markt aber bei den günstigen preisen nen strich durch die rechnung macht.
ich bin da auch gespannt wie es ablaufen wird.
Das ist ja immer nur ne Vermutung, dass die 7nm knapp wären. Das hat sich bisher nicht bewahrheitet. Ich glaub nicht, dass jetzt die 7nm knapp sind, die können knapp werden, wenn die CPUs massiv nachgefrage werden nächstes Jahr, wenn 5600 und 5700 verfügbar werden. Aber genau deshalb kommen die ja erst nächstes Jahr.
Klar sind die Referenzkarten knapp, das sind sie ja immer, aber die Partnerkarten werden schon gehen.
Da bin ich bei dir bevor wir nicht Wissen was AMD macht und was der Preis dafür ist würde ich mich hütten zu sagen das eine ist besser als das andere. Nur zur Erinnerung hier gehen Spekus rum mit 150+mm^2 Chipfläche für Cache oder HBM ontop/side-by-side.
Evtl. Is NVs GDDR6X sogar der bessere Ansatz.
Der Cache ist kein Problem, HBM gibts nicht und GDDR6X ist solange kacke, solange es keine 16Gb-Chips gibt. Wenn ein Chip eine gewisse Größe hat und damit entsprechende Leistung erreicht, ist doch furzegal, wie er die erreicht. Also kann der Cache gar kein Problem sein, er ist Teil der Lösung. Alles andere wäre aus meiner Sicht ein Denkfehler. Außerdem hat das Ganze ja auch den großen Vorteil, dass man niemals in Knappheit von Speicherchips laufen wird, denn die 14-16GT-Dinger werden alle 3 Hersteller liefern können wie Sand am Meer... Und wie 2016 die 4Gb-GDDR-Chips größtenteils verschwanden werden auch in 21 die 8GB-GDDR-Chips größtenteils verschwinden.
horn 12
2020-10-24, 13:04:33
Gaming Benchmarks der 6800XT
Zumindest am Testen...
https://twitter.com/RedGamingTech
Oh interesting. Just got given actual results of RX 6800 XT benchmarks in games.
I guess that'll be in a video later.
Slipknot79
2020-10-24, 13:05:43
RT-Schatten in einem Comic-Spiel mit Content von mitunter 2005, srsly?
Ich wüsste nicht, wofür man unsinniger Leistung verballern könnte. Es lässt sich von allen RT-Effekten vermutlich mit am wenigsten Aufwand einbauen und dann hat man es halt als Checklisten-Feature...
Das ist weniger ein Chelistenfeature, sondern mehr ein product placement um auch die "Zurückgegblieben" abzuholen. :redface:
€dit:
Yea Chelisten https://pbs.twimg.com/profile_images/378800000633333333/5ceb242f106ff012c4581c40964912d0.png
:redface:
r3ptil3
2020-10-24, 13:32:59
Gaming Benchmarks der 6800XT
Zumindest am Testen...
https://twitter.com/RedGamingTech
Oh interesting. Just got given actual results of RX 6800 XT benchmarks in games.
I guess that'll be in a video later.
Bitte den entsprechenden Tweet einbetten.
Ich sehe da nur Frontseite.
basix
2020-10-24, 13:37:46
Wenn jetzt die RTXGI sagen wir 8ms auf einer midrange GPU ohne DXR Beschleunigung kostet, dann ist das kaum höher als herkömmliche GI die gebacken werden muss (die Zahlen sind jetzt nur ein Beispiel)
Was ich gerade gesehen habe: RTXGI soll unabhängig von der Auflösung sein. Wie geht das? Wird einfach die "Raumauflösung" mit einem fixen Raster abgetastet und nicht anhand der Pixelauflösung?
Was daran aber geil ist: Umso schneller die GPU, desto weniger kostet es und egal ob man die Auflösung steigert, der Aufwand bleibt gleich. Ergo würde RTXGI in dieser Qualität in Zukunft mit schnelleren GPUs "gratis" werden.
Mandalore
2020-10-24, 13:50:40
Gaming Benchmarks der 6800XT
Zumindest am Testen...
https://twitter.com/RedGamingTech
Oh interesting. Just got given actual results of RX 6800 XT benchmarks in games.
I guess that'll be in a video later.
Interessant, in einer Antwort unterhalb des Tweets sagt er, dass AMD ein Gegenstück zu DLSS hat. DAS wäre die riesenfette Kirsche auf der Hype-Torte....:D:D:D
Brillus
2020-10-24, 14:07:28
Das ist ja immer nur ne Vermutung, dass die 7nm knapp wären. Das hat sich bisher nicht bewahrheitet. Ich glaub nicht, dass jetzt die 7nm knapp sind, die können knapp werden, wenn die CPUs massiv nachgefrage werden nächstes Jahr, wenn 5600 und 5700 verfügbar werden. Aber genau deshalb kommen die ja erst nächstes Jahr.
Klar sind die Referenzkarten knapp, das sind sie ja immer, aber die Partnerkarten werden schon gehen.
Der Cache ist kein Problem, HBM gibts nicht und GDDR6X ist solange kacke, solange es keine 16Gb-Chips gibt. Wenn ein Chip eine gewisse Größe hat und damit entsprechende Leistung erreicht, ist doch furzegal, wie er die erreicht. Also kann der Cache gar kein Problem sein, er ist Teil der Lösung. Alles andere wäre aus meiner Sicht ein Denkfehler. Außerdem hat das Ganze ja auch den großen Vorteil, dass man niemals in Knappheit von Speicherchips laufen wird, denn die 14-16GT-Dinger werden alle 3 Hersteller liefern können wie Sand am Meer... Und wie 2016 die 4Gb-GDDR-Chips größtenteils verschwanden werden auch in 21 die 8GB-GDDR-Chips größtenteils verschwinden.
Naja 100-150 mm^2 in 7nm sind vielleich 150-200 in 8nm. Schlag das GA102 drauf und es wird knapp mit der Belichtungsgrenze. Nicht alles was für A gut ist muss auch beinB gut sein. Ich bleib dabei solang wir nicht wissen was AMD gemacht and und was es kostet kann man nicht sagen was der bessere Ansatz ist.
Nakai
2020-10-24, 14:35:57
Interessant, in einer Antwort unterhalb des Tweets sagt er, dass AMD ein Gegenstück zu DLSS hat. DAS wäre die riesenfette Kirsche auf der Hype-Torte....:D:D:D
DLSS ist auch wirklich nichts besonderes, wundert mich einfach dass AMD bisher nichts geliefert hat. Läuft bei NV hald super auf den dedizierten Tensorcores.
Ansonsten sieht es nach Gleichstand aus, mit Vorteilen und Nachteilen für den einen oder anderen. Am Ende muss das Gesamtpaket gut stimmen. Jeglicher Intel/NV-Vergleich ist massiv unpassend. NV IST KEIN INTEL!
Ich freue mich dennoch auf die Leaks und die anvisierte Performance. Eventuell wird es, nach (gefühlt) Jahrtausenden Mal wieder spannend.
basix
2020-10-24, 14:42:07
Interessant, in einer Antwort unterhalb des Tweets sagt er, dass AMD ein Gegenstück zu DLSS hat. DAS wäre die riesenfette Kirsche auf der Hype-Torte....:D:D:D
Dort steht nur, dass er etwas rund um Upsampling gehört hat. Kann auch sein, dass AMD nichts hat ;)
Ich vermute aber schon, dass AMD mit etwas DLSS ähnlichem kommen wird und evtl. sieht es so aus wie bei RT: Etwas langsamer als Ampere oder etwas schlechtere Qualität. Aber nicht wahnsinnig weit weg. Wäre doch ein guter Deal. AMD bringt mehr Speicher und Energieeffizienz und allenfalls etwas mehr Leistung in "herkömmlichen" Games. Nvidia bringt mehr RT und Upsampling Performance. Beide haben aber ein Feature-Set auf Augenhöhe. Jeder kann nach seinem Gusto auswählen. Die eierlegende Wollmilchsau gibt es wohl von keinem der beiden. Obwohl, bei Nvidia wissen wir das bereits. Bei AMD "könnte" es noch so kommen :D
DLSS ist auch wirklich nichts besonderes, wundert mich einfach dass AMD bisher nichts geliefert hat. Läuft bei NV hald super auf den dedizierten Tensorcores.
Das würde ich nicht sagen. Die Technologie dahinter wächst nicht auf Bäumen. Klar, es gibt auch andere Firmen mit ähnlichen Forschungsergebnissen (z.B. Facebook). Dennoch muss man das Know How zuerst aufbauen/einkaufen und in eine praktische Anwendung giessen.
Ansonsten sieht es nach Gleichstand aus, mit Vorteilen und Nachteilen für den einen oder anderen. Am Ende muss das Gesamtpaket gut stimmen. Jeglicher Intel/NV-Vergleich ist massiv unpassend. NV IST KEIN INTEL!
Jupp :up:
Linmoum
2020-10-24, 14:50:34
Dort steht nur, dass er etwas rund um Upsampling gehört hat. Kann auch sein, dass AMD nichts hat ;)Doch, dass sagt er weiter unten:
It's not correct to say DLSS as that's Nvidia's tech. But AMD apparently has similar ish. I am sketchy on exact details
Asaraki
2020-10-24, 14:56:20
Es ist auszuschliessen, dass AMD nichts hat. Die Frage ist nur wann es kommt und ob dafür erst Geld fliessen musste für Akquisitionen von Personen, Lizenzen oder Firmen. Sorry, aber wer ernsthaft glaubt, dass da jetzt Jahre lang keine AMD-Version von DLSS kommt, der lebt wirklich in einer Traumwelt.
Oder alle bei AMD so als DLSS 1.0 rauskam "haha so dumm".
Complicated
2020-10-24, 15:07:30
Und?
Nein, nicht wirklich synonym, nicht mal ansatzweise.
Du verwechselst Ursache und Wirkung …
Abgesehen davon bedeutet ein hoher Umsatz mitnichten auch unbedingt hohe Verkaufszahlen. Siehe Apple. Deren Marktanteil ist zwar nicht gering, aber auch nicht so hoch wie es der Umsatz und Gewinn vermuten lassen würde.
"Marktanteil gewinnen" ist in jedem Fall keine Motivation für günstigere Preise.
Es kann eine Folge der günstigeren Preise sein, das war es aber auch schon.Ich verwechsle hier gar nichts, sondern du spricht von einem undefinierten "Marktanteil". Dieser kann sowohl in Umsatz als auch Stückzahlen ausgedrückt werden. Im Gegensatz zu Apple hat AMD auch strategisches Interesse die Anzahl der Systeme zu erhöhen um Softwareentwickler für Optimierungen zu gewinnen im Gaming. Hier geht es auch um einen Kampf der Relevanz, den Apple in seinem Öko-System überhaupt nicht berücksichtigen muss. Da kann es langfristig besser sein 50% der verkauften Systeme zu stellen anstatt 70% des erzielten Umsatzes. Natürlich am besten beides, wie es Nvidia derzeit hat.
P.S. ich bezog mich auf Stückzahlen, daher wohl die unterschiedliche Dynamik die wir beide sehen.
ChaosTM
2020-10-24, 15:36:35
Es ist auszuschliessen, dass AMD nichts hat. Die Frage ist nur wann es kommt und ob dafür erst Geld fliessen musste für Akquisitionen von Personen, Lizenzen oder Firmen. Sorry, aber wer ernsthaft glaubt, dass da jetzt Jahre lang keine AMD-Version von DLSS kommt, der lebt wirklich in einer Traumwelt.
Oder alle bei AMD so als DLSS 1.0 rauskam "haha so dumm".
Schon älter, aber sie haben/hatten was "ähnliches"..
RDaEnQ9ftIo
Zergra
2020-10-24, 15:41:39
Schon älter, aber sie haben/hatten was "ähnliches"..
https://youtu.be/RDaEnQ9ftIo
Das kann man ja wohl überhaupt nicht mit DLSS vergleichen.
Complicated
2020-10-24, 15:51:40
Muss man ja auch nicht. Am Ende zählt was auf den Bildschirm kommt. Die FPS und die Bildqualität muss stimmen.
Complicated
2020-10-24, 16:07:02
Hoffentlich hat AMD den richtigen HDMI 2.1 Chip verbaut, wie Sonys PS5:
https://www.heise.de/news/Bug-in-HDMI-2-1-Chips-AV-Receiver-Next-Gen-Konsole-und-Grafikkarten-betroffen-4935888.html
Nach Microsofts Aussage setzt das Vorserien-Modell der Xbox Series X bereits auf die finale Hardware auf. Die Retail-Version wird c’t aber noch einmal hinsichtlich des Problems testen.
Zu ähnlichen Problemen kam es mit einer Karte vom Typ Nvidia RTX-3080 – auch hier lieferte ein über den AV-Receiver angeschlossenes TV-Gerät kein 4K-Bild mit 120 Hertz und HDR. Mit der PS5 soll die Übertragung laut c't-Informationen indes klappen; überprüfen konnte c't das bislang nicht.
Ich bin gespannt für wie viele das Relevant sein wird, da ich denke die meisten nutzen 4K im Wohnzimmer, derzeit.
Grendizer
2020-10-24, 16:09:58
Das es die Receiver fast aller Hersteller betrifft ist es im Endeffekt egal, es sei den man geht direkt vom PC in den Fernseher, aber wer will das schon ?
Brillus
2020-10-24, 16:24:19
Das es die Receiver fast aller Hersteller betrifft ist es im Endeffekt egal, es sei den man geht direkt vom PC in den Fernseher, aber wer will das schon ?
Wie den sonst? Noch nie was anderes gemacht?
Grendizer
2020-10-24, 16:32:02
Quelle an Receiver HDMI-In und Fernseher an HDMI-Out ? Wie sonst kommt der Sound vom PC zum Receiver ?
Savay
2020-10-24, 16:41:58
2. HDMI Ausgang
eARC
ARC
SPDIF
Klinke
Grendizer
2020-10-24, 16:58:12
OK... ich sehe, das ich mir da noch nie Gedanken drüber gemacht habe, ob es auch anders geht :biggrin:
prinz_valium_2
2020-10-24, 17:05:38
Hoffentlich hat AMD den richtigen HDMI 2.1 Chip verbaut, wie Sonys PS5:
https://www.heise.de/news/Bug-in-HDMI-2-1-Chips-AV-Receiver-Next-Gen-Konsole-und-Grafikkarten-betroffen-4935888.html
Ich bin gespannt für wie viele das Relevant sein wird, da ich denke die meisten nutzen 4K im Wohnzimmer, derzeit.
Warum sollte es bei der Ps5 anders sein? Bis gestern hatte niemand eine Ps5 zum testen.
Der Fehler liegt doch in den Chips der AVRs und nicht der Konsolen oder GPUs.
Ganz schlechter Artikel. Würde mir also keine Sorgen machen.
zer0fx
2020-10-24, 17:13:44
Warum sollte es bei der Ps5 anders sein? Bis gestern hatte niemand eine Ps5 zum testen.
Der Fehler liegt doch in den Chips der AVRs und nicht der Konsolen oder GPUs.
Ganz schlechter Artikel. Würde mir also keine Sorgen machen.
Wieso schlechter Artikel. Es steht doch klar drin das es sich um fehlerhafte Chips von Panasonic handelt und es alle AV reciever Hersteller betrifft die diesen Chips verbaut haben. Das betrifft Modelle in der Entwicklung etc. Aber was jetzt NV und AMD damit zu tun haben? :confused:
Complicated
2020-10-24, 17:16:51
Mit der PS5 soll die Übertragung laut c't-Informationen indes klappen; überprüfen konnte c't das bislang nicht.
Es steht die Vermutung im Raum, dass der Effekt nicht auftritt beim verwenden der PS5. Wenn es bei der Radeon auch keine Probleme gibt, wre das ein Unterscheidungsmerkmal. Ich weiss halt nicht für wie viele das Relevant ist, das Bild durch den Receiver zu schleifen.
Linmoum
2020-10-24, 17:22:32
Was heise da schreibt ist aber Quatsch. Wenn das Problem die Chips selbst sind, dann läuft es auch nicht mit einer PS5 fehlerfrei. Wie kommt man zu so einer absurden Behauptung? Das betrifft in diesem Fall schlicht alle Produkte, die aktuell erhältlich sind oder noch auf den Markt kommen in Verbindung mit Receivern, die diesen Chip nutzen.
Complicated
2020-10-24, 17:25:49
Wenn ich das richtig interpretiere tritt der Effekt nicht auf, wenn die PS5 an einem solchen Receiver angeschlossen ist. Da das noch nicht bestätigt wurde durch einen Test der c't, bin ich gespannt ob das zutrifft, dass sich die Receiver unterschiedlich verhalten bei Xbox X und PS5, und wenn ja warum.
prinz_valium_2
2020-10-24, 17:28:23
Wieso schlechter Artikel. Es steht doch klar drin das es sich um fehlerhafte Chips von Panasonic handelt und es alle AV reciever Hersteller betrifft die diesen Chips verbaut haben. Das betrifft Modelle in der Entwicklung etc. Aber was jetzt NV und AMD damit zu tun haben? :confused:
Genau deshalb:
Was heise da schreibt ist aber Quatsch. Wenn das Problem die Chips selbst sind, dann läuft es auch nicht mit einer PS5 fehlerfrei. Wie kommt man zu so einer absurden Behauptung? Das betrifft in diesem Fall schlicht alle Produkte, die aktuell erhältlich sind oder noch auf den Markt kommen in Verbindung mit Receivern, die diesen Chip nutzen.
Und weil eben erst seit gestern überhaupt irgendjemand, der nicht Sony selbst ist, eine Ps5 hat um das überhaupt testen zu können.
Also so eine völlig an den Haaren herbeigezogene Behauptung.
ChaosTM
2020-10-24, 17:29:33
Das Thema verdient sich einen eigene faden.
Complicated
2020-10-24, 17:58:53
Also zunächst einmal wurde nichts behauptet, ausser dass es bei Xbox und Nvidia festgestellt wurde. Das wurde selber getestet. Dann wurde mitgeteilt, das man Informationen hat, die PS5 sei nicht betroffen, was man selber bisher noch nicht bestätigen konnte mit Tests.
Wer jetzt also schreibt es gäbe keine PS5 zum testen, sollte den Artikel nochmal lesen.
Nazar
2020-10-24, 18:35:22
So sieht es doch aus. Erinnert mich an die Diskussionen über nvidias Gameworks Effekte seinerzeit. Da gab es Effekte, die man Jahre davor nur aus Techdemos kannte und von denen Spieler damals nur geträumt haben. Alle waren geil auf solche Effekte und als Spiele wie Batman die alten Träumereien dann InGame aufgefahren haben, haben viele behauptet, dass sie auf so einen Schnick Schnack auch verzichten können. ;) Diese Diskussion könnte man ausweiten auf 3D-Vision, Lenkräder, TrackIR, VR, Flightsticks oder jetzt eben RT und DLSS.
Die diffusen Schatten in Metro ergeben für mich definitiv einen Mehrwert, genauso wie Spiele wie Wolfenstein: Youngblood oder Control optisch von RT profitieren. Und wenn DICE DX12 besser unter Kontrolle hätte, würde auch alle von den Effekten aus BF5 schwärmen. Zumindest wenn man nur eine ganz kleine Grafikh*re in sich hat. Und mit Blick auf Watch Dogs: Legion oder CP2077 kann mir doch niemand erzählen, dass man solche Titel nicht am liebsten mit RT spielen möchte. :| Es wird exakt so kommen, wie ich es schon im RT-Thread prognostiziert habe. Erst wenn RT im Massenstrom angekommen ist, werden es auch die Leute feiern, die es in der Vergangenheit als unnötigen Schnick Schnack bezeichnet haben.
Und zur Performance der ersten Generation sei noch gesagt. Durch zahlreiche der ersten 3dfx-Spiele hat man sich genauso geruckelt, wie später durch ein FarCry oder Crysis. Und alle haben seinerzeit völlig berechtigt drauf geschissen!!!
Wenn RT so eingesetzt wird, dass es natürlich wirkt, dann gebe ich dir recht, so lange die Performance stimmt.
Fakt ist aber, dass kaum einer der derzeit gezeigten Effekte korrekt ist, bzw. als natürlich von den Spielern wahrgenommen wird.
Control ist ein einzig großes Feuchtbiotop, eben ein typischer Vertreter der derzeitigen RT Effekte. Ohne Pfützen geht gar nichts. Spiegelungen sind übertrieben deutlich.
Viele Lichteffekte sind räumlich begrenzt, um Leistung sparen zu können. Das kann man besonders gut in Metro sehen, wo die indirekte Beleuchtung erst greift, wenn der Spieler schon fast unmittelbar vor der Leuchtquelle steht.
Ein extrem unlustiges Beispiel finde ich die Entwickler Szene mit dem Häuschen und den Fenster die Nacheinander geschlossen werden.
Immer wieder wurde diese Szene von den RT Fetischistischen gefeiert, die Frage ist nur warum?
Diese Szene, wenn die Fenster nacheinander abgedunkelt werden, zeigten alle Schwächen des derzeitigen RT. Kaum indirekte Beleuchtung, die Schatten alle viel zu hart, die Beleuchtung ebenso.
Man muss sich mal vorstellen, da war dann nur noch ein Fenster offen durch das die Sonne direkt quer von oben schien. Das Fenster hatte geschätzt eine Größe von 2m x 1.5m und man konnte in einem 2.5x5x5m großen Raum kaum noch die Decke erkennen! :eek:
Das als Gegenbeispiel gezeigt RZ Szenario kam der Realität um Welten näher als das RT Szenario aber alle Game Magz und Entwickler feierten die RT Szene als die realistischere. :eek:
Ab diesem Zeitpunkt war mir klar, dass Blinde versuchten mir die Welt der Farben zu erklären. :mad:
@Thema
AMD wird vermutlich die Preise nicht so hoch ansetzen wie nV, da sie jetzt die Chance haben Marktanteile gewinnen zu können. An der Börse wird das zumindest erwartet. Das muss zwar nicht stimmen aber ich setze darauf.
Wen interessieren denn Marktanteile?
Für AMD wird es darum gehen mit den Produkten einfach am meisten Umsatz und Gewinn zu machen und wenn die Wafer begrenzt und/oder teuer sind, dann werden eben die Produkte teurer.
AMD = Börsenunternehmen = langfristige Planung = Marktanteile
Die Großaktionäre würden der Chefetage einen erzählen, sollte versucht werden nur einen temporären Gewinn einzufahren. Ich glaube, die denken da massiv anders als viele normale Bürger. ;)
why_me
2020-10-24, 18:35:28
Also zunächst einmal wurde nichts behauptet, ausser dass es bei Xbox und Nvidia festgestellt wurde. Das wurde selber getestet. Dann wurde mitgeteilt, das man Informationen hat, die PS5 sei nicht betroffen, was man selber bisher noch nicht bestätigen konnte mit Tests.
Wer jetzt also schreibt es gäbe keine PS5 zum testen, sollte den Artikel nochmal lesen.
Wobei das Problem auch erst bei 4k/120Hz HDR aufgetreten ist und man sich, so weit ich es verstanden habe, bei heiße wohl nicht einmal sicher ist, ob es da aktuell überhaupt PS5 Spiele gibt, die es unterstützen, um das Problem zu testen.
Nakai
2020-10-24, 18:43:41
Das würde ich nicht sagen. Die Technologie dahinter wächst nicht auf Bäumen. Klar, es gibt auch andere Firmen mit ähnlichen Forschungsergebnissen (z.B. Facebook). Dennoch muss man das Know How zuerst aufbauen/einkaufen und in eine praktische Anwendung giessen.
Klar, müssen da Ressourcen reingeballert werden und ein Fingerschnipp ist das auch nicht. Der Aufwand sollte sich aber in Grenzen halten, auch wenn man die Technologie "unreif" auf den Markt wirft. Die kann aber über die Zeit verbessert werden. Wenn man da niemals mit anfängt, wird das auch nichts.
Und es ist wirklich keine besondere Technologie. Es ist mittlerweile eines der Standard-Einführungsthemen im Bereich Deep Learning.
Und nochmal: NVidia hatte da bis jetzt eine bessere HW-Basis, welche bei AMD jetzt erst langsam kommt.
Cyberfries
2020-10-24, 19:13:55
Was heise da schreibt ist aber Quatsch. Wenn das Problem die Chips selbst sind, dann läuft es auch nicht mit einer PS5 fehlerfrei.
Computerbase schreibt im neuesten Update dazu: (https://www.computerbase.de/2020-10/hdmi-2.1-bug-av-receiver-konsolen-grafikkarten/)
Im Heimkino-Bereich auf Reddit heißt es zudem, das Problem sei spezifisch für GeForce RTX 3000 und Xbox Series X, da die PlayStation 5 bei Fixed Rate Link eine andere Form der Datenübertragung nutze, die wiederum korrekt in den HDMI-Chips der AV-Receiver implementiert sei, während dies bei der Methode von Nvidia und Microsoft nicht der Fall sei.
Complicated
2020-10-24, 19:36:47
Aha....nun kann man gespannt sein welches Verfahren AMD bei den BigNavis nutzt für Fixed Rate Links.
y33H@
2020-10-24, 19:50:12
Plötzlich entstand der Eindruck, dass jeder Raytracing braucht. :Öhm, brauchen sicherlich nicht, ist ja keine Nahrung oder so ^^ aber optische Aufwertung definitiv.
Proprietäres Zeugs ist nie gut.DXR und VKRay ist nicht AMD- oder Intel- oder Nvidia-exklusiv ... einzig die Hardware-Implementierung unterscheidet sich.
RT-Schatten in einem Comic-Spiel mit Content von mitunter 2005, srsly?Gerade da zeigt es ja schön, was sich mit entsprechender Beleuchtung rausholen lässt, siehe auch Minecraft.
Klar, müssen da Ressourcen reingeballert werden und ein Fingerschnipp ist das auch nicht. Der Aufwand sollte sich aber in Grenzen halten, auch wenn man die Technologie "unreif" auf den Markt wirft. Die kann aber über die Zeit verbessert werden. Wenn man da niemals mit anfängt, wird das auch nichts.
Und es ist wirklich keine besondere Technologie. Es ist mittlerweile eines der Standard-Einführungsthemen im Bereich Deep Learning.
Und nochmal: NVidia hatte da bis jetzt eine bessere HW-Basis, welche bei AMD jetzt erst langsam kommt.
Hm - so wie es scheint ging es mit Navi bei NV schneller als bei Intel. Gleichauf war man bereits mit N10, nun dreht der Spieß eben leicht in die andere Richtung. 599-649€ sind imo kein schlechter Deal für ne Performance zwischen 3080 und 3090. Okay, mit RT liegt man auf Augenhöhe mit ner 2080Ti, sprich 20% unter einer 3080. Aber ein Äquivalent zu DLSS wird es in der Form/Qualität nicht geben. Obwohl die Umsetzung auf ner PS5 schon sehr viel besser aussieht, als DLSS 1.0 und FFX.
@y33h
Die Grafik ist trotzdem Crap und auch auf ner 3080 sehr teuer!
[MK2]Mythos
2020-10-24, 19:59:13
Aus dem eben erschienenen redgamingtech Video:
https://www.youtube.com/watch?v=HJcxKTX65F4
AMD zeigt auf dem Event angeblich 10 Spiele unter 4K und 1440p
In 4K gewinnt die 6800xt in 5 Spielen gegen die RTX3080, Gleichstand zweimal und dreimal gewinnt die RTX3080.
In 1440p gewinnt die 6800xt in 8 Spielen und verliert in 2 Spielen gegen die RTX3080.
AMD hat etwas DLSS-ähnliches, das im Dezember/Januar nachgereicht wird.
Preise stehen angeblich noch nicht fest.
prinz_valium_2
2020-10-24, 20:02:17
https://i.imgur.com/srmNfED.png
https://i.imgur.com/B39u9vu.png
Xbox Series X und RTX 3080 sind schon mal nicht gleich.
40 und 48GB/s
Was nutzt die PS5 denn jetzt bitte?
Hier wer sich einlesen will:
https://www.quantumdata.com/assets/hdmi_21_webinar.pdf
Sehe nicht, was Sony da groß anders machen könnte.
Dampf
2020-10-24, 20:07:17
Naja mit solchen Tech YouTuber-Leaks wäre ich vorsichtig.
Sollte AMD wirklich eine AI Rekonstruktion haben, dann wäre das natürlich cool. Bin gespannt.
Könnt ihr den Kram nicht im Konsolenthread behandeln?
edit: Zumindest hat er früher schon Dinge gewusst, bevor andere es hatten. Hab das Video nicht gesehen, spricht ja jetzt aber nicht gegen die Benchmark Leaks der letzten Tage.
[MK2]Mythos
2020-10-24, 20:10:04
Naja mit solchen Tech YouTuber-Leaks wäre ich vorsichtig.
Sollte AMD wirklich eine AI Rekonstruktion haben, dann wäre das natürlich cool. Bin gespannt.
Ich habe zweimal das Wort "angeblich" verwendet. Ich glaube/hoffe, dass das reicht um das einzuordnen. :)
Davon abgesehen sind die Angaben ja so konkret, dass ihm das natürlich um die Ohren fliegt, wenn das nicht stimmt.
BoMbY
2020-10-24, 20:24:49
Was nutzt die PS5 denn jetzt bitte?
AMD wird vermutlich bei allen Produkten die "DesignWare® HDMI Transmitter (TX) IP" nutzen. Der Bug ist irgendwo in den Receivern wenn ich das richtig verstanden habe, und er kann dort nicht per Firmware behoben werden. Das heißt aber nicht dass man nicht an anderer Stelle eventuell einen Workaround einbauen kann.
Nazar
2020-10-24, 20:30:26
Öhm, brauchen sicherlich nicht, ist ja keine Nahrung oder so ^^ aber optische Aufwertung definitiv.
DXR und VKRay ist nicht AMD- oder Intel- oder Nvidia-exklusiv ... einzig die Hardware-Implementierung unterscheidet sich.
Gerade da zeigt es ja schön, was sich mit entsprechender Beleuchtung rausholen lässt, siehe auch Minecraft.
Die Umschreibung "optische Aufwertung" ist mir in einer Diskussion um realistische Effekte, viel zu schwammig.
Ich glaube kaum jemand würde gegen RT und dessen Nutzen sein -selbst zu diesen enormen Kosten-, wenn die von dir erwähnte optische Aufwertung so gewaltig gut wäre, dass jeder Spieler sofort sagen würde "Meine Güte, das sieht ja fast realistisch aus.".
Allerdings ist das derzeit eben nicht der Fall.
RZ ist schon so lange in den Spielen vorhanden und wurde und wird so gut optimiert, dass die derzeit simplen RT Effekte kaum ins Auge fallen.
Diesem Umstand sind sich vermutlich auch die "Antreiber" des RT Marketings bewusst, weshalb RT Effekte meist sehr übertrieben sind, damit man sie überhaupt wahrnimmt oder aber, aufgrund der Performanceprobleme, sehen sie unnatürlicher als der mit RZ zu erreichende Effekt aus (aufpoppende indirekte RT Beleuchtung.. sehr gut in BF-V und auch CP2077 zu sehen).
Beispiel BF-V. Jenes hochglanzpolierte Auto, in dem sich das Feuer und alles andere Spiegelt, als ob es eben genau nur ein Spiegel wäre.
Abgesehen davon, dass ein Auto in so einem Szenario mit Sicherheit nicht hochglanzpoliert wäre, war die Spiegelung vollkommen übertrieben.
Fast alle derzeitigen RT Spiele bieten diese optischen "Verbrechen", die dann auch noch von Reviewern tatsächlich als "realistisch" verkauft werden. :eek:
Nochmal, wenn die derzeitige Implementierung von RT wirklich das bieten würde (mehr Realismus), als das es angepriesen wird, dann würde ich sofort ins Lager von RT wechseln aber so lange gelogen wird, dass sich die Balken biegen und RT als eine Form der "Abstrakten Kunst" eingesetzt wird, werde ich RT als das ansehen was es derzeit ist; eine Verarschung der Nutzer, die nur dazu dient damit Geld zu machen.
RT hat -so wie es derzeit in Spielen eingesetzt wird- absolut nichts mit etwas natürlichem oder mit der Realität zu tun. Es mag für mache eine teure "optische Aufwertung" sein aber die jetzige Implementierung von RT hat für mich nichts mit einer optischen !!Verbesserung!! zu tun.
Läge ich falsch, würde es keine Vergleichsstandbilder bedürfen die auch noch zusätzlich mit RT on und RT off gekennzeichnet sind.
Es wäre wie bei Vergleichsbildern mit AA on und of, es bedürfte gar keiner extra Kennzeichnungen. Jeder würde sofort erkennen was was ist und auch jeder würde sagen, dass das Bild mit AA das bessere ist und das selbst bei bewegten Bildern.
RT ist von so einem Zuspruch, gerade ob des hohen Leistungsbedarfs, noch mindestens 10 Jahre entfernt.
Es ist nur neu und, da die Presse mit macht, etwas zum Gelddrucken. Der gelackmeierte ist der Kunde, der von zwei Seiten verarscht wird.
Fragman
2020-10-24, 20:53:54
Ich verstehe das RT Problem nicht. Wer es nicht mag, macht es aus und gut ist.
Da muss man sich hier nicht um Kopf und Kragen reden. :rolleyes:
Ich verstehe das RT Problem nicht. Wer es nicht mag, macht es aus und gut ist.
Da muss man sich hier nicht um Kopf und Kragen reden. :rolleyes:
Finde ich auch, obwohl ich glaube dass kaum einer in diesem Thread ne Erfahrung mit RT und DLSS gemacht hat.
Meine Meinung: RT bringt wohl im Blöckchenspiel den größten Mehrwert. Generell ist es nativ arschteuer.
DLSS mag zwar auf mit Treiberanhang aufgenommenen Screenshots gut aussehen, ingame sieht man allerdings das Upsampling deutlich, auch mit DLSS2, obwohl nicht nur eine Welt zwischen 1 und 2 liegt. Es ist das beste Upsampling-Verfahren, keine Frage-allerdings auch nur Upsampling. Die PS5-Variante ist imo von der Qualität her min. DLSS 1.8
Sunrise
2020-10-24, 21:20:06
Ich bin mir relativ sicher, dass sehr viele echtes RT nichtmal bemerken würden. Solange es dermaßen beeindruckende Killerapplikationen wie die UE 5-Demo gibt, braucht keiner RT wirklich.
Ich sehe das eher als Arbeitserleichterung für Entwickler und vor allem als IHV-Marketing-Buzz, um vor allem den GPU-Umsatz und USPs (unique selling points) zu setzen.
Mir persönlich (diese Meinung muss niemand teilen) ist daher immer maximale Rasterizer-Leistung wichtig, und RT je nachdem, ob gut eingesetzt oder nicht, wird an oder abgeschalten.
Ich mache mich jedenfalls nicht verrückt damit. Auch wenn ich weiß, dass es natürlich dem Realismus zugute kommt.
Ich bin mir relativ sicher, dass sehr viele echtes RT nichtmal bemerken würden. Solange es dermaßen beeindruckende Killerapplikationen wie die UE 5-Demo gibt, braucht keiner RT wirklich.
Ich sehe das eher als Arbeitserleichterung für Entwickler und vor allem als IHV-Marketing-Buzz, um vor allem den GPU-Umsatz und USPs (unique selling points) zu setzen.
Mir persönlich (diese Meinung muss niemand teilen) ist daher immer maximale Rasterizer-Leistung wichtig, und RT je nachdem, ob gut eingesetzt oder nicht, wird an oder abgeschalten.
Ich mache mich jedenfalls nicht verrückt damit. Auch wenn ich weiß, dass es natürlich dem Realismus zugute kommt.
Exakt - man steht erst ganz am Anfang, dies sollte man nicht vergessen. Ob derzeit in einer Pfütze das Licht korrekt gebrochen wird sieht man auf nem Screenshot, aber Never ever ingame in Konzentration aufs Game. Es ist der erste Schritt in Bezug auf fotorealistisches Gaming, aber da dauert es noch ein paar Jahre bis es dauerhaft sichtbar DEN großen Unterschied macht.
reaperrr
2020-10-24, 22:18:34
@Thema
AMD wird vermutlich die Preise nicht so hoch ansetzen wie nV, da sie jetzt die Chance haben Marktanteile gewinnen zu können. An der Börse wird das zumindest erwartet. Das muss zwar nicht stimmen aber ich setze darauf.
AMD = Börsenunternehmen = langfristige Planung = Marktanteile
Die Großaktionäre würden der Chefetage einen erzählen, sollte versucht werden nur einen temporären Gewinn einzufahren. Ich glaube, die denken da massiv anders als viele normale Bürger. ;)
Sorry, aber da ist viel Wunschdenken bei.
Erstens: Hat AMD bei Navi1x auch schon nur bedingt gemacht.
Zweitens: Gibt genug Investoren, denen Margen und Gewinne wichtiger sind als Marktanteile. Marktanteile sind nicht viel wert, wenn dabei nix rausspringt.
Zumal die Markentreue bei NV-Anhängern eher ziemlich hoch ist, ob man über den Preis was daran ändern könnte bezweifle ich, da NV bei zu aggressiven AMD-Preisen eh nachziehen würde/müsste, dann würden beide Marge einbüßen ohne dass sich groß was an den Marktanteilen ändern würde.
Drittens: Mindestens für den Rest des Jahres wird die Nachfrage nach neuen, schnellen Grakas wahrscheinlich so hoch bleiben, dass sowohl NV als auch AMD wohl alles an Ampere/N21 verkaufen können, was sie produzieren.
Laut RedGamingTech wollte AMD wohl ursprünglich zwar leicht unter der 3080 ansetzen, ist vor allem wegen der Nachfrage/Angebot-Situation aber offenbar am Überlegen, ob sie das lassen (m.E. zu Recht).
Linmoum
2020-10-24, 22:30:46
Laut RedGamingTech wollte AMD wohl ursprünglich zwar leicht unter der 3080 ansetzen, ist vor allem wegen der Nachfrage/Angebot-Situation aber offenbar am Überlegen, ob sie das lassen (m.E. zu Recht).Nein, er hat das nicht mit der Nachfrage begründet. Sondern damit, dass RDNA2 besser als (ursprünglich) intern erwartet mit Ampere wird konkurrieren können.
Ist aber auch weniger relevant. Wenn die 6800XT auf ~3080-Perf kommt, dann kann man auch denselben Preis nehmen. Wobei das ja relativ ist, da die 3080 non-existent ist. Dasselbe wird man bei der 6800 machen, die nicht 35-40% langsamer sein wird. Da hat man genug Spielraum für eine (spürbar) schnellere Karte als die 3070 mit sogar doppeltem Speicher, um sie dann preislich dazwischen zu platzieren.
AMD unter Su ist aber alles zuzutrauen - auch, dass sie aggressiv beim Preis sein werden und mit RDNA2 erst einmal die Zen2.0-Strategie fahren werden. Zumal ja auch noch niemand weiß, wie groß die Chips tatsächlich sind. Das ist natürlich genauso ein Kosten-/Entscheidungsfaktor, den wir (noch) nicht kennen.
Nazar
2020-10-24, 22:42:59
Sorry, aber da ist viel Wunschdenken bei.
Erstens: Hat AMD bei Navi1x auch schon nur bedingt gemacht.
Zweitens: Gibt genug Investoren, denen Margen und Gewinne wichtiger sind als Marktanteile. Marktanteile sind nicht viel wert, wenn dabei nix rausspringt.
Zumal die Markentreue bei NV-Anhängern eher ziemlich hoch ist, ob man über den Preis was daran ändern könnte bezweifle ich, da NV bei zu aggressiven AMD-Preisen eh nachziehen würde/müsste, dann würden beide Marge einbüßen ohne dass sich groß was an den Marktanteilen ändern würde.
Drittens: Mindestens für den Rest des Jahres wird die Nachfrage nach neuen, schnellen Grakas wahrscheinlich so hoch bleiben, dass sowohl NV als auch AMD wohl alles an Ampere/N21 verkaufen können, was sie produzieren.
Laut RedGamingTech wollte AMD wohl ursprünglich zwar leicht unter der 3080 ansetzen, ist vor allem wegen der Nachfrage/Angebot-Situation aber offenbar am Überlegen, ob sie das lassen (m.E. zu Recht).
Da ist überhaupt kein "Wunschdenken" dabei, das ist einfach Wissen um die Materie. ;)
Marktanteile definieren nicht nur mögliche Gewinne oder Verluste, sondern sorgen für die Kontrolle des Marktes und die daraus resultierenden Ableitungen die der Markt darüber hinaus bestimmt.
Man muss manchmal auch einfach ein wenig weiter schauen als nur bis in seine Kasse.
nVidia hat doch deutlich gemacht, dass es eine Abhängigkeit von Marktdurchdringung gibt und wer bestimmt wie sich der Spielesektor im Bereich zukünftiger Technologien entwickelt. Beides beeinflusst sich gegenseitig, weshalb man dadurch mehr Stellschrauben für die Produktentwicklung hat und was die Käufer zu wollen haben sollen (PhysX, DLSS, RT). ;)
Du kannst heute versuchen deinen Wagen so teuer wie den des Konkurrenten zu verkaufen, weil dein Wagen jetzt gerade gut ist, nur wirst du über das Ganze gesehen kaum mehr Gewinn einfahren, als wenn du die Marge verkleinerst, aber den Markt stärker durchdringst. Der Gewinn kann sogar am Ende größer ausfallen.
Eine Überlegung muss sein, wie bekomme ich sogar nV Fans dazu meine Ware zu kaufen? Denn ich kann nur den von meinem Produkt überzeugen, der es auch nutzt.
Es macht aus Aktionärssicht nur dann Sinn teuer zu verkaufen, wenn die Marktsättigung kaum noch zu erhöhen ist. Das ist bei AMD und GPUs überhaupt nicht der Fall.
In der jetzigen Situation wäre es sträflich dumm zu versuchen die Produkte so teuer wie möglich zu verkaufen, da man viele potentiell Kunden und damit Gewinne verlieren verschenken würde.
Ganz so einfach, wie hier viele über die Wirtschaftlichen Möglichkeiten denken, ist es dann doch nicht! ;)
Sunrise
2020-10-24, 22:44:53
Wenn sie tatsächlich $599/649 für die XT ansetzen, werden ihnen die Dinger auf jedenfall aus den Händen gerissen. Da NV da so aggressiv bepreist hat, würde ich das fast schon von AMD erwarten. Sie wollten ja “disruptive” sein. Also quasi neue Maßstäbe setzen, ähnlich wie bei Zen.
Die AIB-Designs werden wie immer teurer werden, aber das wäre (wenn sie genug vorproduzieren konnten) denkbar, vor allem bei nur GDDR6, der wohl meilenweit besser verfügbar ist als GDDR6X. Zumindest hat AMD da sicher recht gute Margen, wenn die Die-Size nicht deutlich über 500mm2 geht.
AMD war überrascht wie das eigene Produkt im Vergleich zur Konkurrenz abschneidet - nicht wirklich. Es war exakt so: Ampere wurde zum max. geprügelt anhand der August-Treiber, wo NV bemerkt hat, oha - wird eng. Ein Konter war aufgrund der Leistungsaufnahme seitens Ampere gern willkommen, denn so kann man die eigenen Chips ausfahren. BTW. warum glaubt ihr es gibt keinen Titan?
Käsetoast
2020-10-24, 22:55:52
Was die Preise angeht ist es gerade halt eine verzwickte Situation. Die Leute wollen GPUs kaufen, aber NVIDIA ist quasi ausverkauft. Wenn AMD die NVIDIA Preise um 50 $ unterbietet, aber dann auch direkt ausverkauft ist was hat man davon? Dann doch lieber ähnliche Preise fordern was den einen oder anderen Kauf vielleicht verzögert bis nächstes Jahr sich entsprechende Preissenkungen eingestellt haben und jetzt pro Karte 50 $ mehr verdienen. Gleichzeitig hilft das vielleicht auch ein wenig das "AMD-Billigheimer" Image anfangen ein wenig abzutragen...
Ist ein wenig tricky aber ich glaube ich würde dafürstimmen die Preise nicht unnötig niedrig anzusetzen - man nutzt halt aus, dass NVIDIA nicht liefern kann (und wird wahrscheinlich dann schnell selber leer sein). Ich denke momentan gibt es durch attraktivere Preise keine Marktanteile zu gewinnen - wer momentan unbedingt schnellere Grafikkarten braucht und das noch vor den Weihnachtsferien wird kaufen was da ist. Wozu da auf 50 $ pro verkaufter Karte verzichten?
amdfanuwe
2020-10-24, 23:03:47
Macht euch um die Preisgestaltung mal keine Sorgen. Da sitzen genug BWLer sowohl bei AMD als auch bei Nvidia, die unter Berücksichtigung aller bekannten Faktoren ( Produktionsmenge, Konkurrenzprodukte, Marktstimmung, Firmenpolitik etc.) den optimalen Preispunkt für den maximalen Gewinn ausrechnen. Das entscheided bestimmt nicht Lisa nach Bauchgefühl.
Wird interessant was mit der 6900 passiert in Bezug auf Preis. Flashen von 6800 auf 6900 wird nicht funktionieren - bin wirklich gespannt was preistechnisch bei rumkommt.
Dampf
2020-10-24, 23:05:22
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12472147#post12472147
Guckt euch mal das hier an. Raytracing ist definitiv die Zukunft :)
Ich freu mich sehr, dass AMD bald auch in den Genuss kommt!
Sunrise
2020-10-24, 23:09:26
Aktuell ist es wohl tatsächlich egal, auch $699 bei >= 3080 wären aufgrund 16GB vertretbar, wenn man selbstbewusst auftreten möchte. Ob AMD das jedoch im Sinn hatte, und NV mit $699 da AMD nicht zuvorkommen wollte, wissen wir nicht. Der Schock, als NV jedoch mit $699 vorstellte, war groß IMHO. Gewollt war das nicht, das zeigt jetzt auch die Verfügbarkeit.
Neurosphere
2020-10-24, 23:38:19
Wann ist am Mittwoch eigentlich die Vorstellung? Wieder 18 Uhr?
unl34shed
2020-10-24, 23:42:58
Ja
Wiseman
2020-10-25, 00:28:49
Die Umschreibung "optische Aufwertung" ist mir in einer Diskussion um realistische Effekte, viel zu schwammig.
Ich glaube kaum jemand würde gegen RT und dessen Nutzen sein -selbst zu diesen enormen Kosten-, wenn die von dir erwähnte optische Aufwertung so gewaltig gut wäre, dass jeder Spieler sofort sagen würde "Meine Güte, das sieht ja fast realistisch aus.".
Allerdings ist das derzeit eben nicht der Fall.
RZ ist schon so lange in den Spielen vorhanden und wurde und wird so gut optimiert, dass die derzeit simplen RT Effekte kaum ins Auge fallen.
Diesem Umstand sind sich vermutlich auch die "Antreiber" des RT Marketings bewusst, weshalb RT Effekte meist sehr übertrieben sind, damit man sie überhaupt wahrnimmt oder aber, aufgrund der Performanceprobleme, sehen sie unnatürlicher als der mit RZ zu erreichende Effekt aus (aufpoppende indirekte RT Beleuchtung.. sehr gut in BF-V und auch CP2077 zu sehen).
Beispiel BF-V. Jenes hochglanzpolierte Auto, in dem sich das Feuer und alles andere Spiegelt, als ob es eben genau nur ein Spiegel wäre.
Abgesehen davon, dass ein Auto in so einem Szenario mit Sicherheit nicht hochglanzpoliert wäre, war die Spiegelung vollkommen übertrieben.
Fast alle derzeitigen RT Spiele bieten diese optischen "Verbrechen", die dann auch noch von Reviewern tatsächlich als "realistisch" verkauft werden. :eek:
Nochmal, wenn die derzeitige Implementierung von RT wirklich das bieten würde (mehr Realismus), als das es angepriesen wird, dann würde ich sofort ins Lager von RT wechseln aber so lange gelogen wird, dass sich die Balken biegen und RT als eine Form der "Abstrakten Kunst" eingesetzt wird, werde ich RT als das ansehen was es derzeit ist; eine Verarschung der Nutzer, die nur dazu dient damit Geld zu machen.
RT hat -so wie es derzeit in Spielen eingesetzt wird- absolut nichts mit etwas natürlichem oder mit der Realität zu tun. Es mag für mache eine teure "optische Aufwertung" sein aber die jetzige Implementierung von RT hat für mich nichts mit einer optischen !!Verbesserung!! zu tun.
Läge ich falsch, würde es keine Vergleichsstandbilder bedürfen die auch noch zusätzlich mit RT on und RT off gekennzeichnet sind.
Es wäre wie bei Vergleichsbildern mit AA on und of, es bedürfte gar keiner extra Kennzeichnungen. Jeder würde sofort erkennen was was ist und auch jeder würde sagen, dass das Bild mit AA das bessere ist und das selbst bei bewegten Bildern.
RT ist von so einem Zuspruch, gerade ob des hohen Leistungsbedarfs, noch mindestens 10 Jahre entfernt.
Es ist nur neu und da die Presse mit macht, etwas zum Gelddrucken. Der Gelackmeierte ist der Kunde, der von zwei Seiten verarscht wird.
+1
unl34shed
2020-10-25, 00:35:06
Ich dachte 17 Uhr?
misst könntest recht haben, wegen der Zeit Umstellung.
Neurosphere
2020-10-25, 00:42:11
Gut das ich nochmal gefragt habe. Also 17 Uhr?
Linmoum
2020-10-25, 00:46:19
Ja, 17 Uhr. Zeitumstellung drüben ist erst nächsten Sonntag.
Brillus
2020-10-25, 02:07:04
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12472147#post12472147
Guckt euch mal das hier an. Raytracing ist definitiv die Zukunft :)
Ich freu mich sehr, dass AMD bald auch in den Genuss kommt!
Naja ich sehe vor allem offensichtlich Fehlerhafte Beleuchtung beim Raytracing. Wenn das die Zukunft sein soll kann sie es gerne behalten.
Linmoum
2020-10-25, 02:15:48
RDNA2 with 10-15% more IPC and very high clocks.
https://mobile.twitter.com/CapFrameX/status/1320152682355707905
6700XT between 2080 Super and 2080 Ti.
https://mobile.twitter.com/CapFrameX/status/1320153908296155137
patrickschur
2020-10-25, 02:33:12
Ein kleiner Teaser...
Interested in some numbers like the average SCLK for an AIB custom card? Well... more on that later.
https://mobile.twitter.com/patrickschur_/status/1320151481685889027
horn 12
2020-10-25, 02:02:38
Ist wohl Sapphire das Board
Mit Nitro+
Zudem Asus Strix so wie Igor andeutete
XFX - Powercolor - MSI dann ab 3-ter/ 4-ter Novemberwoche.
Die Boardpartner dürften die 3080 Generell schlagen, aber auch deutlich Teurer werden.
Ravenhearth
2020-10-25, 02:57:50
6700XT < 3070
6800XT > 3080
6900XT ~ 3090 (?), no infos yet
https://twitter.com/CapFrameX/status/1320172068248424453
[MK2]Mythos
2020-10-25, 06:27:51
Ein kleiner Teaser...
https://mobile.twitter.com/patrickschur_/status/1320151481685889027
Ich warte.
:biggrin:
Adam D.
2020-10-25, 07:48:22
https://twitter.com/CapFrameX/status/1320172068248424453
Schade, dass hier nicht nochmal Bezug auf die 6800 genommen wird - die eindeutig spannendste Karte aus dem Lineup.
Linmoum
2020-10-25, 07:58:54
Naja, bei ~3080-Perf dürfte die 6800XT rund 35% vor der 3070 sein. Klau der 6800 nochmal 8CUs und etwas Game Clock, dann ist die Karte wahrscheinlich immer noch 15-20% vor der 3070. Größer dürfte der Abstand zwischen 6800 und XT nicht werden.
Zossel
2020-10-25, 08:06:51
Macht euch um die Preisgestaltung mal keine Sorgen. Da sitzen genug BWLer sowohl bei AMD als auch bei Nvidia, die unter Berücksichtigung aller bekannten Faktoren ( Produktionsmenge, Konkurrenzprodukte, Marktstimmung, Firmenpolitik etc.) den optimalen Preispunkt für den maximalen Gewinn ausrechnen. Das entscheided bestimmt nicht Lisa nach Bauchgefühl.
Und wer macht die Firmenpolitik?
dargo
2020-10-25, 08:21:17
6700XT between 2080 Super and 2080 Ti.
https://mobile.twitter.com/CapFrameX/status/1320153908296155137
Also doch wie vermutet. :D Wenn AMD das hier mit 399$ ausweist wird der Grafikkartenmarkt demnächst sowas von aufgemischt. ;D Endlich tut sich wieder was in dieser Sparte.
Wobei es eigentlich schon 349$ sein müssten sofern die N21XL für 499$ kommt. 3 Tage noch. :cool:
Grendizer
2020-10-25, 08:32:23
Sind schon rosige Aussichten, wenn diese Gerüchte alle stimmen.
ChaosTM
2020-10-25, 08:32:48
2 Performance Kronen in einem Jahr wäre gut für den Aktienkurs.
Bin gespannt viel AMD sich zu nehmen getraut für den ganz dicken Chip. (Hoffentlich auch mit 32GB)
Spannend :)
dargo
2020-10-25, 08:35:08
6900XT mit 32GB? Da müsste man die Karte doppelseitig bestücken. Nee... das wird nicht kommen. Wofür auch? Geldverschwendung.
ChaosTM
2020-10-25, 08:37:17
Reserven für grindige Alpha Spiele ;)
dargo
2020-10-25, 08:38:37
Es lohnt sich einfach nicht für wenige Nerds eine 32GB SKU in der Gamingsparte aufzulegen. :rolleyes:
Screemer
2020-10-25, 08:39:30
2 Performance Kronen in einem Jahr wäre gut für den Aktienkurs.
Es wird allgemein ein Ausbruch der amd-aktie am Montag erwartet. Bin gespannt ob sich das so einstellt.
Es lohnt sich einfach nicht für wenige Nerds eine 32GB SKU in der Gamingsparte aufzulegen. :rolleyes:
It's for creators ;)
horn 12
2020-10-25, 08:40:40
Naja, bei ~3080-Perf dürfte die 6800XT rund 35% vor der 3070 sein. Klau der 6800 nochmal 8CUs und etwas Game Clock, dann ist die Karte wahrscheinlich immer noch 15-20% vor der 3070. Größer dürfte der Abstand zwischen 6800 und XT nicht werden.
Sagte ich doch dass jene Ohne Konkurrenz lebt
Und vieles von mir stimmte schon, bei Vega / VII hatte ich mich gar zu viel verrannt.
dildo4u
2020-10-25, 08:41:42
Sowas muss so oder so für Apple kommen, ich bezweifle mal das sie diese Leistungsklasse so schnell mit ARM Chips ersetzen.
https://www.amd.com/de/graphics/workstations-radeon-pro-vega-ii
Die neuen Compute GPUs von AMD haben vermutlich keine Video Ausgänge oder?
dargo
2020-10-25, 08:43:00
It's for creators ;)
Für Content Creators kann AMD so eine SKU gerne mit 32GB unter einem anderen Namen auflegen.
Adam D.
2020-10-25, 08:44:35
Also doch wie vermutet. :D Wenn AMD das hier mit 399$ ausweist wird der Grafikkartenmarkt demnächst sowas von aufgemischt. ;D Endlich tut sich wieder was in dieser Sparte.
Wobei es eigentlich schon 349$ sein müssten sofern die N21XL für 499$ kommt. 3 Tage noch. :cool:
Wenn NV die 3070 nicht am 27. noch im Preis reduziert, sehe ich immer noch nicht, wie du die 6800 bei 499$ positionieren kannst. Mehr Speicher, spürbar mehr Performance und das zum selben Preis. No way.
ChaosTM
2020-10-25, 08:44:41
Es wird allgemein ein Ausbruch der amd-aktie am Montag erwartet. Bin gespannt ob sich das so einstellt.
It's for creators ;)
Genau. All die Youtuber Helden können dann ihre 32GB Karte vorzeigen, bis NV mit der Titan 48 antanzt ;)
Berniyh
2020-10-25, 08:48:35
Reserven für grindige Alpha Spiele ;)
Meinst du das wird viel bringen bei nur 256 Bit Speicheranbindung?
Den ominösen Cache wird man ja nicht entsprechend vergrößern können.
[MK2]Mythos
2020-10-25, 08:48:43
Weiß jemand zufällig wie AMDs Garantiebedingungen sind wenn man den Kühler tauscht? Also, nur falls die 6900xt ausschließlich von AMD kommt...;)
Sapphire hat ja nichts dagegen, wenn ich mich richtig erinner.
dargo
2020-10-25, 08:49:32
Wenn NV die 3070 nicht am 27. noch im Preis reduziert, sehe ich immer noch nicht, wie du die 6800 bei 499$ positionieren kannst. Mehr Speicher, spürbar mehr Performance und das zum selben Preis. No way.
An welchen AMD-Preisen hat sich Nvidia beim GA102 und GA104 orientiert? :rolleyes: Ihr versteht immer noch nicht, dass die Preise aktuell die neuen Konsolen vorgeben. Übertreibt man es mit dem Preis wird man viele Kunden bei den Konsolen verlieren. Dort wirbt man gerade mit 4k und 60fps für 499$ für die gesamte Kiste.
horn 12
2020-10-25, 09:03:25
@Dargo voll ins Schwarze getroffen
Dann verliert man massig PC User an die Konsolen
---->> Mich kann man da nicht mit einberechnen!
Grendizer
2020-10-25, 09:10:14
Ich glaube das das 2 unterschiedliche Käufersichten sind. Vor allem wird es sogar einen recht großen Anteil von Nutzern geben, die neben einem PC eine Konsole kaufen werden. Scheint zwar für viele hier eine Ungeheuerlichkeit zu sein, aber gerade im Sony Lager gibt es für mich einige interessante Titel, die mich dazu verleiten werden in 2021 eine PS5 zu erwerben ( oder wann immer Horizon 2) rauskommen wird.
AffenJack
2020-10-25, 09:15:21
An welchen AMD-Preisen hat sich Nvidia beim GA102 und GA104 orientiert? :rolleyes: Ihr versteht immer noch nicht, dass die Preise aktuell die neuen Konsolen vorgeben. Übertreibt man es mit dem Preis wird man viele Kunden bei den Konsolen verlieren. Dort wirbt man gerade mit 4k und 60fps für 499$ für die gesamte Kiste.
So wie man sich bei den CPUs an den Konsolen orientiert? Eine Konsolenäquivalente CPU kommt für 299$. Die Konsolen sind für die Preisgestaltung unwichtig.
Bei keinem Produkt von Navi1 hat AMD auf disruptive Preise gesetzt, weil sie Marge haben wollen und weg vom Billigimage wollen. Man wird mit noch stärkeren Produkten sicher nicht ne Rolle Rückwärts machen. Bei den aktuellen Zahlen ist nix tiefer als 599$ für die 6800 und 699$ für die 6800XT zu erwarten. (Falls 6800XT die 3080 knapp schlägt).
Complicated
2020-10-25, 09:25:30
Umfragen zeigen, dass nur 14% der Gamer ausschließlich auf der Konsole zocken. Allerdings dürfte zum Release Zeitpunkt von neuen Konsolen der Preisdruck einfach auch höher sein, da Ausgaben priorisiert werden. Tatsächlich ist somit auch deren Verkaufpreis eine stärkere psychologische Grenze in diesem Zeitrahmen, die als Vergleichspunkt dient.
Adam D.
2020-10-25, 09:25:35
An welchen AMD-Preisen hat sich Nvidia beim GA102 und GA104 orientiert? :rolleyes: Ihr versteht immer noch nicht, dass die Preise aktuell die neuen Konsolen vorgeben. Übertreibt man es mit dem Preis wird man viele Kunden bei den Konsolen verlieren. Dort wirbt man gerade mit 4k und 60fps für 499$ für die gesamte Kiste.
Ok, ich sehe deinen Punkt, aber ich teile ihn 100%ig nicht. AMD positioniert sich auf dem Grafikkartenmarkt, nicht auf dem Konsolenmarkt. Das ist zwar alles Gaming, aber noch lange kein gemeinsamer Markt. Wenn sie ne Karte für die Masse haben wollen, dann wohl eindeutig N22XT. Wir sehen es ja in in ein paar Tagen.
OgrEGT
2020-10-25, 09:26:54
So wie man sich bei den CPUs an den Konsolen orientiert? Eine Konsolenäquivalente CPU kommt für 299$. Die Konsolen sind für die Preisgestaltung unwichtig.
Bei keinem Produkt von Navi1 hat AMD auf disruptive Preise gesetzt, weil sie Marge haben wollen und weg vom Billigimage wollen. Man wird mit noch stärkeren Produkten sicher nicht ne Rolle Rückwärts machen. Bei den aktuellen Zahlen ist nix tiefer als 599$ für die 6800 und 699$ für die 6800XT zu erwarten. (Falls 6800XT die 3080 knapp schlägt).
Bei RedGamingTech hieß es dass AMD bei vergleichbarer Leistung einen kleinen aber spürbaren Tick unter NV Preisen bleiben will... also vlt. 50USD drunter... bei 6800XT dann 649 statt 699...
Wenn AMD keine Lieferprobleme hat dann wird der Preisunterschied zu den NV Mondpreisen noch viel größer sein...
Adam D.
2020-10-25, 09:28:24
Bei RedGamingTech hieß es dass AMD bei vergleichbarer Leistung einen kleinen aber spürbaren Tick unter NV Preisen bleiben will... also vlt. 50USD drunter... bei 6800XT dann 649 statt 699...
Könnt ihr bitte mal die Infos aus diesen (eh unsinnigen Videos) richtig widergeben? Er hat gesagt, dass das der Plan WAR. Aber nicht mehr IST, weil man NV stärker eingeschätzt hat.
OgrEGT
2020-10-25, 09:31:16
Könnt ihr bitte mal die Infos aus diesen (eh unsinnigen Videos) richtig widergeben? Er hat gesagt, dass das der Plan WAR. Aber nicht mehr IST, weil man NV stärker eingeschätzt hat.
Weiß nicht ob man jedes Wort auf die Goldwaage legen sollte...
Aber du hast recht... bei der Lieferunfähigkeit seitens NV wäre es gar nicht nötig die Referenzpreise von NV zu unterbieten...
Adam D.
2020-10-25, 09:32:12
Weiß nicht ob man jedes Wort auf die Goldwaage legen sollte...
Doch, wenn es so zentral ist, dann schon. Ich kann auch lange Pläne schmieden und mich dann 1 Sekunde später umentscheiden. Wenn du dann nur davon berichtest, was meine Pläne vor einer Minute waren, dann bringt das wem genau irgendwas?
Brillus
2020-10-25, 09:32:56
2 Performance Kronen in einem Jahr wäre gut für den Aktienkurs.
Bin gespannt viel AMD sich zu nehmen getraut für den ganz dicken Chip. (Hoffentlich auch mit 32GB)
Spannend :)
32GB wird sehr teuer das sehe ich nur im Profesdionallen Bereich. Und bevor wer CDNA schreit, die sind Compute gibt aber auch sowas wie CAD etc. Profi Bereich.
fondness
2020-10-25, 09:34:48
2 Performance Kronen in einem Jahr wäre gut für den Aktienkurs.
Ich befürchte, dass sie für den Xilinx-Kauf den Aktienkurs deutlich verwässern werden.
Brillus
2020-10-25, 09:39:46
Bzgl. Preis gehe ich von 10% besser FPS/€ Verhältniss gegenüber 3080 aus sobald auf beiden Seiten die Lieferbarkeit gegeben ist. Ob am Anfang AMD da noch mehr nimmt und später mit Minirefresh Preise anpasst kommt drauf an wiegut sie liefern können und wielange sie bei NV Probleme erwarten.
amdfanuwe
2020-10-25, 10:00:22
Und wer macht die Firmenpolitik?
Du hast wirklich keine Ahnung vom Aufbau einer Aktien Gesellschaft?
Nur mal als Tip: Lisa ist auch "nur" eine Angestellte.
Thunderburne
2020-10-25, 10:03:38
Umfragen zeigen, dass nur 14% der Gamer ausschließlich auf der Konsole zocken. Allerdings dürfte zum Release Zeitpunkt von neuen Konsolen der Preisdruck einfach auch höher sein, da Ausgaben priorisiert werden. Tatsächlich ist somit auch deren Verkaufpreis eine stärkere psychologische Grenze in diesem Zeitrahmen, die als Vergleichspunkt dient.
Welcher Preisdruck es sind keine Produkte lieferbar weder NV noch Konsolen vorbestellbar?
Der Markt ist wie Freiwild aktuell!
ChaosTM
2020-10-25, 10:09:53
Deshalb gehen die 90er selbst mit 2k weg wie nix.
Bin gespannt ob sich AMD da preislich anpasst mit der großen. Verschenken wird man sie aber sicher nicht.
AffenJack
2020-10-25, 10:19:05
Bei RedGamingTech hieß es dass AMD bei vergleichbarer Leistung einen kleinen aber spürbaren Tick unter NV Preisen bleiben will... also vlt. 50USD drunter... bei 6800XT dann 649 statt 699...
Wenn AMD keine Lieferprobleme hat dann wird der Preisunterschied zu den NV Mondpreisen noch viel größer sein...
Jupp, so seh ich das ja auch. Die 699$ erwarte ich wie gesagt, wenn AMD die 3080 knapp schlägt, sonst auch eher 649$ und 549$. Damit hat man das ja gerade. Minimal mehr Leistung/$ und mehr RAM. Mehr muss und wird man nicht anbieten.
Momentan tendiere ich zur 6800XT... 3080 Niveau +16Gb für vermutlich~699.- passt :)
(die N22 40CU 6700XT mit 12Gb(~3070 8Gb Konkurrent) würde ich bei maximal 499.- sehen)
Selbst wenn die 6900XT von Haus aus unter Wasser kommt, würde ich maximal 999.- vermuten.
(*Orakel* mehr als Dreistellig wird erst RDNA3 ^^)
M.f.G. JVC
Zossel
2020-10-25, 10:32:19
Ich befürchte, dass sie für den Xilinx-Kauf den Aktienkurs deutlich verwässern werden.
Das Aktienfuzzis technische Zusammenhänge nicht verstehen ist ja eine Binsenweisheit.
Zossel
2020-10-25, 10:40:54
Du hast wirklich keine Ahnung vom Aufbau einer Aktien Gesellschaft?
Nur mal als Tip: Lisa ist auch "nur" eine Angestellte.
Na dann schauen wir doch mal zu Intel nach dem Flächenbombardement was der Finanzfuzzi als Chef dort veranstaltet hat.
Die Zeiträume bis zum ROI in der Halbleiterbranche überfordern Finanztypen komplett.
Complicated
2020-10-25, 10:53:34
Welcher Preisdruck es sind keine Produkte lieferbar weder NV noch Konsolen vorbestellbar?
Der Preis steht dennoch als "Kampfzone" fest.
dargo
2020-10-25, 11:07:36
So wie man sich bei den CPUs an den Konsolen orientiert? Eine Konsolenäquivalente CPU kommt für 299$.
Schwachsinn... die gibt es schon länger für 165€ (https://www.ebay.de/itm/AMD-Ryzen-5-3600-AMD-CPU-3-6-GHz-BOX-inklusive-Kuhler-AM4-Prozessor/284024096776?epid=20034577063&hash=item422127c808%3Ag%3ApHsAAOSwTd9fbiVE&LH_ItemCondition=1000) obwohl die Konsolen noch nicht mal da sind.
Edit:
Die CPU der Xbox Series S basiert auf Zen 2 mit halben L3 Cache der Desktop-Varianten. Zudem taktet die nur mit 3,4GHz sobald SMT benutzt wird. Und die Konsolen können max. 14 Threads für Spiele verwenden. Wichtig ist es jetzt nur noch, dass wir keinen DX11 Rotz mit hoher CPU-Last bekommen damit am PC nicht wieder die große Brechstange nötig wird.
pixeljetstream
2020-10-25, 11:22:26
Die Zeiträume bis zum ROI in der Halbleiterbranche überfordern Finanztypen komplett.
Nicht nur die, man muss soweit nicht gehen und Reaktionen bei Neuerungen ansehen, die mehrere Jahre / Iterationen brauchen bis sie voll durchschlagen.
Iscaran
2020-10-25, 12:03:19
Hmmm, das hier könnte ein Hinweis auf die Cache Optimierungen sein die man in RDNA2 fortgeführt hat.
den Part ab: Bonus-LDS-Modus in der RDNA-Architektur
https://translate.googleusercontent.com/translate_c?depth=2&pto=aue&rurl=translate.google.com&sl=auto&sp=nmt4&tl=de&u=https://www.coelacanth-dream.com/posts/2020/10/04/aco-ngg-gfx10/&usg=ALkJrhgXCq1qqTXJzu-7cVJkTabi7GmeWA
RDNA hat gegenüber GCN5 offenbar 2x soviel LDS (Local Data Share) und dieser LDS kann auch noch zwischen CUs ODER ganzen WGP geshared werden.
Im Whitepaper ist es nur dieser Satz: "In addition, the explicitly addressed local data share (LDS) is now part of the overall address space, simplifying programming."
Aber ich denke der hat es in sich. Wenn man die Gedanken von Coelacanth an der Stelle weiterführt - könnte ich das als eine Art "Infinity Cache" verstehen. Bzw. das was hier im Thread dazu schon spekuliert wurde. Vermutlich braucht es aber damit das gut funktioniert eben noch eine Kontrollinstanz (eine Art CacheController)...das könnte der zusätzliche Platzbedarf von 0.09mm^2 pro CU sein, wie Complicated ja schon vermutet/spekuliert hat.
prinz_valium_2
2020-10-25, 12:13:48
6900XT $799
6800XT $599
6800 $499
6700XT $399
6700 $349
Gerne auch günstiger.
Nicht vergessen. Früher war der salvage top dog $350
Mehr ist einfach nicht drin.
Sonst wird es so eine fail generation wie die RTX2000 Serie.
Die RTX3000 Serie ist immer noch teuer.
Tolle AIB Karten können dann noch mal etwas drauflegen
Linmoum
2020-10-25, 12:18:54
Natürlich ist mehr drin.
Wenn die 6800XT auf 3080-Niveau mit 16GiB landet, dann wird AMD die Karte auch für $749 leergekauft. Dasselbe für die 6800, wenn die tatsächlich (spürbar) schneller als die 3070 mit doppeltem Speicher wird. Sowas kriegt AMD dann auch für $599 problemlos an den Mann.
prinz_valium_2
2020-10-25, 12:27:15
Tja das meinen einige hier, aber der Markt für solche Preise ist super gering.
Ich würde 100% keine 6800XT für 750 kaufen, auch wenn die stärker als eine 3080 ist.
Und leergekauft ist so eine Sache. Wird nVidia auch nur, weil die Stückzahlen minimal sind.
AMD braucht mehr für weniger Geld.
Alles andere wird keine große Veränderung bei den Marktanteilen geben.
Der_Korken
2020-10-25, 12:27:23
Die Frage ist ja, ob man auch bei RT die Performance halten kann. Wenn die 3080 dort z.B. 15% schneller ist als die 6800XT, wird sie es für 749$ sehr schwer haben. Ich glaube, dass die Balken in heutigen Spielen da besser ziehen, als irgendeine Zukunftstauglichkeit durch 16GB. Soweit können die meisten gar nicht denken, sofern es nicht heute irgendwo in den Balken sichtbar gemacht wird. 599$ oder 649$ halte ich für einen guten Tipp bei der 6800XT. Außer natürlich, die wird jetzt plötzlich 10% schneller als die 3080 mit Gleichstand bei RT. Aber da würde ich eher die 6900XT verordnen (mit entsprechenden Preisen).
6900XT $799
6800XT $599
6800 $499
6700XT $399
6700 $349
Gerne auch günstiger.
Nicht vergessen. Früher war der salvage top dog $350
Mehr ist einfach nicht drin.
Sonst wird es so eine fail generation wie die RTX2000 Serie.
Die RTX3000 Serie ist immer noch teuer.
Tolle AIB Karten können dann noch mal etwas drauflegen
899, 649, 549, 449, 379
Man sollte nicht vergessen, dass die Preise zwei Jahre Bestand haben müssen. Klar könnte man jetzt etwas mehr pro Karte abgreifen, aber meint ihr nicht es sieht komisch aus wenn die Karten in weniger als sechs Monaten dann einiges an Wert verlieren?
Nvidia reduziert ja so gut wie nie, bei AMD dann lieber gute aber konstante Preise?
Der_Korken
2020-10-25, 12:37:20
Also früher war das üblich, dass Karten mit der Zeit an Wert verlieren. Eine gute 5700XT Custom kostete ein Jahr nach Release auch keine 480€ mehr, eher so 420€ (exkl. irgendwelche Dealz).
Also früher war das üblich, dass Karten mit der Zeit an Wert verlieren. Eine gute 5700XT Custom kostete ein Jahr nach Release auch keine 480€ mehr, eher so 420€ (exkl. irgendwelche Dealz).
Dude, check nochmal Geizhals, dein Gedächtnis trügt. Meine 5700xt kam für 419 Euro auf den Markt und ich habe meine mit Deal für deutlich unter 400 bekommen.
Aber bspw. 750 fällt auf 600 sieht doch beschissener aus als bspw. von 650 auf 600. Auch wenn ich jetzt zwei Monate mehr Geld einnehmen könnte.
Adam D.
2020-10-25, 12:43:05
Navi 21 XT (ASUS Strix) - Engineering Board
[3DMark11]
System 1
Avg: 2291 MHz
Median: 2373 MHz
Max: 2556 MHz
System 2
Avg: 2289 MHz
Median: 2301 MHz
Max: 2394MHz
System 3
Avg: 2092 MHz
Median: 2320 MHz
Max: 2489 MHz
TGP: 289 W
MCLK: 1000 MHz
Max = Peak
1/2
Das sind in der Praxis natürlich schon wirklich beeindruckende Taktraten. Bin mal gespannt, was die 289W TGP für den Realverbrauch am Ende bedeuten.
https://twitter.com/patrickschur_/status/1320327830656483328
Linmoum
2020-10-25, 12:48:38
Wasser und 2.5GHz kommen sich langsam näher.
dargo
2020-10-25, 12:52:37
Die Frage ist ja, ob man auch bei RT die Performance halten kann. Wenn die 3080 dort z.B. 15% schneller ist als die 6800XT, wird sie es für 749$ sehr schwer haben. Ich glaube, dass die Balken in heutigen Spielen da besser ziehen, als irgendeine Zukunftstauglichkeit durch 16GB.
Nee... hat nichts mit Zukunft zu tun, es ist schon Gegenwart. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472536&postcount=77
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472570&postcount=81
BvB123
2020-10-25, 12:54:28
Es wird allgemein ein Ausbruch der amd-aktie am Montag erwartet. Bin gespannt ob sich das so einstellt.
It's for creators ;)
Ich erwarte einen "sell on good News" ;)
dargo
2020-10-25, 13:05:08
Das sind in der Praxis natürlich schon wirklich beeindruckende Taktraten. Bin mal gespannt, was die 289W TGP für den Realverbrauch am Ende bedeuten.
https://twitter.com/patrickschur_/status/1320327830656483328
Naja... nicht bei 289W GPU + Speicher. ;) Das geht dann schon eher Richtung 340-350W Gesamtverbrauch.
Edit:
Jetzt nicht falsch verstehen... die Taktraten an sich finde ich schon sehr gut. Die Karte schluckt mir dann nur zu viel dabei. Das ist eigentlich echt was für die Wakü-Freunde. :)
Der_Korken
2020-10-25, 13:24:25
Dude, check nochmal Geizhals, dein Gedächtnis trügt. Meine 5700xt kam für 419 Euro auf den Markt und ich habe meine mit Deal für deutlich unter 400 bekommen.
Nene, die teuren Customs (Nitro) lagen am Anfang bei 470€+ bei Geizhals. Dealz zählen für mich nicht. Die schlechten Modelle wie die Evoke gab es sicherlich auch für 420 am Anfang, aber diese wurden dann später auch teilweise für 350€ verramscht.
Durch den Mining-Boom und der generell langsameren Entwicklung sind Preisverfälle nicht mehr so präsent wie früher (Beispiel: Gute 7950er Custom für 300€ in Sep 2012, bei Launch im Januar lagen die Preise noch über 400€, ein Freund hat für 300€ ein paar Monate später dann eine 7970 bekommen). Aber zu sagen, Preise müssten über einen längeren Zeitraum Bestand haben, ist im Kontext von PC-Hardware Quatsch.
Nee... hat nichts mit Zukunft zu tun, es ist schon Gegenwart. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472536&postcount=77
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472570&postcount=81
VRAM-Verbrauch geht hoch, aber Performance sieht auf den ersten Blick noch gut aus. Auf den zweiten Blick vielleicht nicht mehr, weil du mir jetzt vielleicht irgendein Frametime-Diagramm um die Ohren haust, aber genau das wollte ich mit meinem Post oben sagen: In den üblichen Balkendiagrammen für den Normaluser findest du diese Daten meistens nicht, da sieht man halt nur, dass die 3080 im neuesten RT-Titel z.B. 10% schneller ist. Da greifen die zum gleichen Preis lieber zum bekannten Geforce-Brand.
Nazar
2020-10-25, 13:25:09
Die Frage ist ja, ob man auch bei RT die Performance halten kann. Wenn die 3080 dort z.B. 15% schneller ist als die 6800XT, wird sie es für 749$ sehr schwer haben. Ich glaube, dass die Balken in heutigen Spielen da besser ziehen, als irgendeine Zukunftstauglichkeit durch 16GB. Soweit können die meisten gar nicht denken, sofern es nicht heute irgendwo in den Balken sichtbar gemacht wird. 599$ oder 649$ halte ich für einen guten Tipp bei der 6800XT. Außer natürlich, die wird jetzt plötzlich 10% schneller als die 3080 mit Gleichstand bei RT. Aber da würde ich eher die 6900XT verordnen (mit entsprechenden Preisen).
Na endlich, wurde ja auch mal Zeit, dass aufgezeigt wird, dass es hier nicht nur um die Rohleistung geht, sondern in erster Linie um das Marketing. :wink:
Betrachtet man die derzeit am meisten umworbenen top AAA Spiele, dann sind das alles RT Titel, die in meinem Bekanntenkreis auch gerne mal als RTX Spiele betitelt werden. ;)
AMD müsste, um höhere Preise als nVidia nehmen zu können und auch gleichzeitig im nV Fanlager wildern zu können, mindestens RT Leistung auf demselben Niveau wie nVidia bieten und auch eine ebenso gutes DLSS Verfahren (DirectML von MS?).
Die ersten Benchmarks zeigen aber gerade bei RT noch einen recht großen Rückstand.
Egal was man von RT und DLSS hält, in den Köpfen der Käufer ist das ein nicht zu unterschätzender Faktor.
Und ob man es glaubt oder nicht, die Konsolen beeinflussen sehr wohl auch den PC GPU Preis, insbesondere dann, wenn beide zur selben Zeit und in einer wirtschaftlich angespannten Lage auf den Markt kommen.
Ein Auszug derzeit relevanter Faktoren:
1. Corona und die Wirtschaftlichen folgen (2. Lockdown) und die sich daraus ergebenen Kauflaune.
2. Releasszeitpunkt von Konkurrenzprodukten (nicht ohne Grund hat nV deren Release so früh gestartet)
3. Leistungsansprüche der Kunden im Verhältnis zur gesunkenen Kaufkraft
4. Auf keinen Fall den Kunden mit zu hohen Preisen verschrecken
nV hatte es so lange super gemacht, bis auffiel, dass sie nicht mehr liefern konnten, denn so schlecht sind deren Produkte nun auch nicht. Und besonders in RT kann nV immer noch gut punkten.
AMD muss schauen, so viele Leute wie irgend möglich vom Kauf einer AMD GPU zu überzeugen, !!!bevor!!! die Konsolen auf dem Markt sind und bevor nVidia wieder in vernünftigen Stückzahlen liefern kann.
Was auf keinen Fall passieren darf, ist, dass die eventuell sogar wenigen AMD GPUs in den Regalen liegen bleiben, weil der Preis os hoch ist, dass man doch lieber noch auf die Konsole oder eine nV GPU mit besserer RT Leistung wartet.
Was sich allerdings die AMD Strategen da ausgedacht haben, steht auf einem anderen Blatt und selbst die machen manchmal Fehler. :wink:
dargo
2020-10-25, 13:30:57
VRAM-Verbrauch geht hoch, aber Performance sieht auf den ersten Blick noch gut aus. Auf den zweiten Blick vielleicht nicht mehr, weil du mir jetzt vielleicht irgendein Frametime-Diagramm um die Ohren haust, aber genau das wollte ich mit meinem Post oben sagen: In den üblichen Balkendiagrammen für den Normaluser findest du diese Daten meistens nicht, da sieht man halt nur, dass die 3080 im neuesten RT-Titel z.B. 10% schneller ist. Da greifen die zum gleichen Preis lieber zum bekannten Geforce-Brand.
Von mir aus... manche müssen halt den Schmerz erst am eigenen Leib erfahren. ;) In den Bildern wollte ich nur den Unterschied zwischen Texturen high und ultra (letzteres gibts mit dem Texturepack) aufzeigen. In manchen Arealen reichen für ultra Texturen 8GB Vram aus. In anderen nicht, dann ruckelt es spürbar. Auch mit 11GB Vram.
Slipknot79
2020-10-25, 13:37:37
An welchen AMD-Preisen hat sich Nvidia beim GA102 und GA104 orientiert? :rolleyes: Ihr versteht immer noch nicht, dass die Preise aktuell die neuen Konsolen vorgeben. Übertreibt man es mit dem Preis wird man viele Kunden bei den Konsolen verlieren. Dort wirbt man gerade mit 4k und 60fps für 499$ für die gesamte Kiste.
Deswegen Zen3 8/16 um 450 Dollar? :wink:
Ich glaube, die Träumer hier werden eins mal in die Fressen bekommen in 3 Tagen.
AMD aint Caritas und Wohlfahrt in einem. AMD wird bei guten Katen auch selbstbewusste Preise aufrufen wie bei Zen3.
Ich hätte auch nichts dagegen wenn die Preise etwas aufgemischt werden, aber das ist nun mal nicht realistisch. Konsolen hin oder her.
Sollten die Konsolen tatsächlich reinhauen, wird man das sehen und kann die Preise immer noch anpassen.
Nightspider
2020-10-25, 13:46:45
Wie siehts eigentlich mit einer 32GB XTX Variante aus in Gold und mit Wakü? :D
Slipknot79
2020-10-25, 13:53:07
Wie siehts eigentlich mit einer 32GB XTX Variante aus in Gold und mit Wakü? :D
Nur wenn Gold statt Wasser durch die Leitungen fließt. :redface:
Korvaun
2020-10-25, 13:57:43
Die 6800XT sollte nur teurer als die 3080 werden wenn sie in der Breite der Benchmarks schneller ist. Bei uneinheitlicher Lage (mal gewinnt AMD Benches, mal unentschieden, einige Male ist nV schneller) ist max. gleicher Preis sinnvoll, trotz 16GB. Besser noch nenn bisschen drunter, 679.- sollten schon reichen fürs Marketing...
Eine 6800 mit 16GB die in der Leistung zwischen 3070 und 3080 liegt (am besten mit Tendenz nach oben) kann für 579.- sehr gut verkauft werden.
Bleibt nur die Frage nach verfügbaren Stückzahlen zum Verkaufsstart. So einen Paperlaunch wie nV hingelegt hat bleibt uns hoffentlich erspart. Ich glaube selbst wenn AMD die Preise rel. hoch ansetzt, bei ordentlicher Verfügbarkeit wäre das nicht so schlimm solange die Karten ohne Probleme laufen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.