PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 [63] 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

dargo
2020-10-25, 14:00:39
Leute... lass uns mal den 28. Oktober abwarten. Die Preisdiskussion wird ansonsten hier noch mehrere Seiten fortgeführt. Langweilig... :cool:

patrickschur
2020-10-25, 14:00:48
@dargo Vielleicht sind 255 W eher etwas für dich?


System 2
Avg: 2298 MHz
Median: 2357 MHz
Max: 2509 MHz

System 3
Avg: 1993 MHz
Median: 2342 MHz
Max: 2557 MHz
Quelle: https://twitter.com/patrickschur_/status/1320346548937641986

dargo
2020-10-25, 14:02:18
@Patrick

Mir scheint der Treiber spinnt noch. :D System 2 taktet mit 255W schneller als System 2 mit 289W. ;D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472606&postcount=15488

PS: 255W sind mir immer noch zu viel. Aber zur Not behelfe ich mir da mit UV. ;) Die ganzen wichtigen Details erfahre ich erst wenn die Karten bei den Usern sind. :)

patrickschur
2020-10-25, 14:05:10
Die Taktraten sollten in der Regel richtig sein. Mit Ausnahme des Avg. Clocks bei System 3. Der Treiber taktet nämlich manchmal enorm runter.

Der_Korken
2020-10-25, 14:08:09
Warum ist der avg-Takt teilweise so viel kleiner als der Median? Sieht so aus, als hätte die Karte phasenweise geidled und deswegen ist der Schnitt so nach unten gezogen. Ansonsten ist das taktmäßig deutlich mehr als ich erwartet hätte. Mehr als 2,1Ghz hätte ich nicht gedacht für den großen Chip, zumindest stock.

Edit: OK, danke @patrickschur das erklärt es.

dargo
2020-10-25, 14:09:12
@Patrick

Weißt du schon ob es Custom 6800XTs mit weniger als 255W geben wird? Beide Biose müsste man dafür checken.

patrickschur
2020-10-25, 14:14:46
Bei der XT ist 255 W das niedrigste und 289 W das höchste was ich finden konnte. Manche Hersteller testen auch Karten irgendwo dazwischen. Ich kann dir aber nicht sagen ob sie wirklich auf dem Markt kommen. Bei der XL scheint es bei 203 W anzufangen und bei 230 W aufzuhören.

dargo
2020-10-25, 14:15:52
Merci. (y)

Neurosphere
2020-10-25, 14:25:14
https://cdn.discordapp.com/attachments/694482077143269387/769914011680374804/amd.png

Edith sagt:

gerade erst die 14GB gesehen, scheint blödsinn zu sein.

MR2
2020-10-25, 14:25:31
Wenn die XL dann auch 16gb hat wäre das wohl meine Karte!Eine Sapphire Tri-X XL oder Vapor-X bitte!

Der_Korken
2020-10-25, 14:25:37
Bei der 5700XT hatten meines Wissens alle Customs selbst beim Silent-BIOS immer mindestens so viel PT wie die Referenz (mit Ausnahme vielleicht der XFX-Versionen oder die kleinen Dinger wie Red Dragon). Also wird man ootb wohl nicht unter 250W PT bei den Customs kommen.

Wie machen das eigentlich diejenigen von euch, die ne 300W Karte betreiben und ne AiO für die CPU haben? Igor hat bei den 5700er Reviews damals auch die Lufttemp im Gehäuse mit angegeben und die lag z.B. bei der Gaming X bei satten 44°C für eine 260W-Karte. Wenn die AiO das durch den Radi zieht, ist das Wasser noch ein paar Grad wärmer. Gehen Pumpen bei den Temps nicht irgendwann einfach kaputt? Bei meiner 5700 mit 150W PT heizt sich das Gehäuse auch um 10°C auf gegenüber idle (gemessen mit T-Sensor auf Höhe des CPU-Sockels), obwohl meine Gehäuselüfter mit nach oben regeln, wenn die Casetemp steigt. 300W für die Graka würde vermutlich deswegen gar nicht gehen.

Link zu Igor: https://www.igorslab.de/msi-rx-5700-gaming-x-im-test-radeon-kraftpaket-mit-guten-genen-und-ordentlich-durst/7/

Edit: 14GB bei der 6900XT ... hm ob das nicht mal ein Fake ist :D

Linmoum
2020-10-25, 14:26:08
https://cdn.discordapp.com/attachments/694482077143269387/769914011680374804/amd.png
Fake, der schon Monate alt ist.

https://www.extremetech.com/computing/311797-the-supposed-amd-radeon-6900-xt-slides-are-completely-fake

Nakai
2020-10-25, 14:36:07
Die 6800XT sollte nur teurer als die 3080 werden wenn sie in der Breite der Benchmarks schneller ist. Bei uneinheitlicher Lage (mal gewinnt AMD Benches, mal unentschieden, einige Male ist nV schneller) ist max. gleicher Preis sinnvoll, trotz 16GB. Besser noch nenn bisschen drunter, 679.- sollten schon reichen fürs Marketing...

Eine 6800 mit 16GB die in der Leistung zwischen 3070 und 3080 liegt (am besten mit Tendenz nach oben) kann für 579.- sehr gut verkauft werden.

Bleibt nur die Frage nach verfügbaren Stückzahlen zum Verkaufsstart. So einen Paperlaunch wie nV hingelegt hat bleibt uns hoffentlich erspart. Ich glaube selbst wenn AMD die Preise rel. hoch ansetzt, bei ordentlicher Verfügbarkeit wäre das nicht so schlimm solange die Karten ohne Probleme laufen.

Die Liefersituation von Nvidia kann auch zur Preisgestaltung genutzt werden.
NV hat implizit ein Intel gebaut. Man hat den Fertigungsprozess etwas unterschätzt, womöglich hat man auch AMD unterschätzt. Dass AMD (wie bisher geleakt) so auf die K***e haut haben auch die wenigsten erwartet.
Wenn es wirklich so kommt, wie spekuliert, dann Touché. :up:

Technisch würde es mich eher interessieren, wie man mit so geringer Speicherbandbreite eine so starke Performance liefert. Vielleicht verfolgt Navi2 einen deutlich krasseren TBDR-Ansatz, um massiv Bandbreite zu sparen.:freak:

Egal, wie es kommen wird, so billig wie "früher" wird es dennoch eher nicht werden.

BigBangBacket
2020-10-25, 14:38:59
Bei der 5700XT hatten meines Wissens alle Customs selbst beim Silent-BIOS immer mindestens so viel PT wie die Referenz (mit Ausnahme vielleicht der XFX-Versionen oder die kleinen Dinger wie Red Dragon). Also wird man ootb wohl nicht unter 250W PT bei den Customs kommen.

Wie machen das eigentlich diejenigen von euch, die ne 300W Karte betreiben und ne AiO für die CPU haben? Igor hat bei den 5700er Reviews damals auch die Lufttemp im Gehäuse mit angegeben und die lag z.B. bei der Gaming X bei satten 44°C für eine 260W-Karte. Wenn die AiO das durch den Radi zieht, ist das Wasser noch ein paar Grad wärmer. Gehen Pumpen bei den Temps nicht irgendwann einfach kaputt? Bei meiner 5700 mit 150W PT heizt sich das Gehäuse auch um 10°C auf gegenüber idle (gemessen mit T-Sensor auf Höhe des CPU-Sockels), obwohl meine Gehäuselüfter mit nach oben regeln, wenn die Casetemp steigt. 300W für die Graka würde vermutlich deswegen gar nicht gehen.

Link zu Igor: https://www.igorslab.de/msi-rx-5700-gaming-x-im-test-radeon-kraftpaket-mit-guten-genen-und-ordentlich-durst/7/

Edit: 14GB bei der 6900XT ... hm ob das nicht mal ein Fake ist :D

Das kann ich so nicht nachvollziehen. Habe eine 360er AiO auf dem 3700x und eine Titan P @2Ghz und mein Kühlwasser ist nur ca 30° warm.
Die Titan zieht auch ca 300w bei den Settings.
Als die Titan noch unter Wasser war, sah es aber nicht anders aus.
Hoffe auf eine AiO bei der 6900 xt

€: Der 3700 ist natürlich auch ein Sparfuchs. Dezember kommt der 5900x rein, da wird sich die Wassertemp bestimmt erhöhen.

dargo
2020-10-25, 14:41:52
https://cdn.discordapp.com/attachments/694482077143269387/769914011680374804/amd.png

Edith sagt:

gerade erst die 14GB gesehen, scheint blödsinn zu sein.
Leichenschänder. :ubash2:

horn 12
2020-10-25, 14:46:13
@Patrick

Und sind die Karten schon bald auf den Weg zu uns.
Sollten Freitag bis Montag eintrudeln ?

Neurosphere
2020-10-25, 15:05:06
Leichenschänder. :ubash2:

:udevil:

Immerhin wäre der Preis ok wenn 3090 Level stimmt.

prinz_valium_2
2020-10-25, 15:09:26
Deswegen Zen3 8/16 um 450 Dollar? :wink:

Ich glaube, die Träumer hier werden eins mal in die Fressen bekommen in 3 Tagen.

AMD aint Caritas und Wohlfahrt in einem. AMD wird bei guten Katen auch selbstbewusste Preise aufrufen wie bei Zen3.
Ich hätte auch nichts dagegen wenn die Preise etwas aufgemischt werden, aber das ist nun mal nicht realistisch. Konsolen hin oder her.
Sollten die Konsolen tatsächlich reinhauen, wird man das sehen und kann die Preise immer noch anpassen.

Zen ist jetzt bei der 4. Generation und man hat sich bewiesen.
Man hat eine Marke am Markt und genug goodwill. Es wurden stetige Verbesserung gezeigt und man ist nun endlich deutlich vor der Konkurrenz und auch der Sprung zur eigenen älteren Generation ist größer.

Da kannst du dir so etwas leisten.
AMD GPUs sind nicht annähernd da.
Und selbst mit einer guten Generation ist man nicht da.
Man denke doch nur an RDNA1. War doch auch eher ein Reinfall und man stand gegen die mit Abstand schlechteste nVidia Generation was Preis/Leistung angeht.
AMD kann gerne hohe Preise auffahren, aber dann wird halt nichts gekauft. Und ich rede da nicht persönlich von mir, sondern vom Marktumfeld. Gerade in China, dem größten PC Markt der Welt, wo man quasi 0 Markanteile hat.
Da muss alles stimmen.

Olliver
2020-10-25, 15:18:58
Diskutiert ihr hier ernsthaft seit zehn Seiten um 50€ mehr oder weniger?

patrickschur
2020-10-25, 15:30:19
@horn 12: Ich weiß nur, dass einige Karten bereits Anfang November und andere Mitte/Ende November verschifft werden. Wie es mit den Referenz Karten von AMD oder der AIBs aussieht weiß ich nicht.

dargo
2020-10-25, 15:33:11
Na immerhin verschifft. Ist die erste Schiffsladung von den Stückzahlen her dann wohl größer als alles was Nvidia bisher bei GA102 produziert hat. :ulol:

Hakim
2020-10-25, 15:38:00
Verschifft heißt aber wohl mehrere Wochen Schifffahrt? Es wird doch bestimmt kleine kontingente über luftweg geben (wie sonst immer)?

dargo
2020-10-25, 15:50:31
Ja... die ersten kleineren Stückzahlen kommen immer mit dem Flieger. Die große Masse dann mit dem Schiff. Aber was heißt mehrere Wochen? Afaik waren das 2-3 Wochen oder irre ich mich da?

BigBangBacket
2020-10-25, 15:52:04
Verschifft heißt aber wohl mehrere Wochen Schifffahrt? Es wird doch bestimmt kleine kontingente über luftweg geben (wie sonst immer)?

Das Schiff nimmt hoffentlich nicht die gleiche Route wie Borat 🤭

Adam D.
2020-10-25, 15:52:13
Ja... die ersten kleineren Stückzahlen kommen immer mit dem Flieger. Die große Masse dann mit dem Schiff. Aber was heißt mehrere Wochen? Afaik waren das 2-3 Wochen oder irre ich mich da?
Hoffen wir lieber mal, dass die Container voll sind :freak:

Hakim
2020-10-25, 15:53:00
Ka Google spuckt das aus "die Frachtlaufzeiten für die reine Seefracht beträgt 4 Wochen, sie sollten aber 6 Wochen Gesamtlaufzeit einplanen.*"

Grendizer
2020-10-25, 15:53:28
Ja... die ersten kleineren Stückzahlen kommen immer mit dem Flieger. Die große Masse dann mit dem Schiff. Aber was heißt mehrere Wochen? Afaik waren das 2-3 Wochen oder irre ich mich da?

https://de.quora.com/Wie-lange-braucht-ein-Schiff-von-China-nach-Deutschland

Eine durchschnittliche Fahrt per Containerschiff wird insgesamt von Hong Kong nach Hamburg etwa 25 -30 Tage dauern. Wobei normalerweise 5–10 Zwischenstopps in anderen Häfen dabei sind. Dabei gehen pro Stopp etwa 12–24 Stunden für Laden und Entladen verloren. Eine direkte Fahrt ist in 17–20 Tagen per Schiff möglich.

dargo
2020-10-25, 16:17:25
Ok.. dann muss man halt die ~4 Wochen mit Luftfracht überbrücken.

prinz_valium_2
2020-10-25, 16:34:17
Oder einfach später launchen.
Grafikkarten sind aber zum Glück nicht so schwer. Man kann also auch auf Luftfracht setzten.

Aber normal will man das vermeiden.

patrickschur
2020-10-25, 16:50:39
Hier noch einmal die Taktraten etwas aufgedröselt.

System 1
Avg: 2291 MHz
Median: 2373 MHz
Max: 2556 MHz

≥ 2500 MHz (10.28 %)
2400 ≤ x < 2500 MHz (24.46 %)
2300 ≤ x < 2400 MHz (50.49 %)
2200 ≤ x < 2300 MHz (3.64 %)
2100 ≤ x < 2200 MHz (1.38 %)
< 2100 MHz (9.75 %)

Cyberfries
2020-10-25, 16:56:35
Keine Liebe für die Trans-Sib?
Peking - Moskau in 6 Tagen, in 800m Zug sollten mehr Karten passen als in 60m Flugzeug.

Hier noch einmal die Taktraten etwas aufgedröselt.

85% der Zeit über 2300mhz? Wow.
289w TGP sind mir aber zuviel, mal abwarten was darunter so kommt.

Flinx
2020-10-25, 17:08:09
Die Eisenbahnlinie zwischen der chinesischen Metropole Chongqing und Duisburg. Dreimal wöchentlich fährt ein bis zu 50 Container fassender Zug, "Yuxinou" genannt, die mit 11 179 Kilometer längste Güterzugstrecke der Welt. Genau 16 Tage ist der Zug unterwegs und damit fast dreimal so schnell wie ein Schiff, das für die Distanz mindestens 40 Tage braucht.

dargo
2020-10-25, 17:12:12
Jetzt driften wir vom Thema etwas ab. Würde mich aber trotzdem interessieren was eine Tonne Fracht mit diesem Zug gegenüber einer Frachttonne per Schiff kostet. Oder halt pro Container.

Der_Korken
2020-10-25, 17:12:24
Das kann ich so nicht nachvollziehen. Habe eine 360er AiO auf dem 3700x und eine Titan P @2Ghz und mein Kühlwasser ist nur ca 30° warm.
Die Titan zieht auch ca 300w bei den Settings.
Als die Titan noch unter Wasser war, sah es aber nicht anders aus.
Hoffe auf eine AiO bei der 6900 xt

€: Der 3700 ist natürlich auch ein Sparfuchs. Dezember kommt der 5900x rein, da wird sich die Wassertemp bestimmt erhöhen.

Der CPU-Verbrauch ist völlig wurscht, geht darum, dass die Wassertemp selbst bei 0W CPU-Verbrauch nicht kühler als die Luft im Case sein kann. Hast du die 360er vorne montiert als intake montiert? Anders können 30°C ohne eine DHE-Graka kaum möglich sein.

ZuseZ3
2020-10-25, 17:20:31
Ich habe ein wenig den Überblick verloren, eigentlich wollte ich ja auch erst bei Navi 3X aufrüsten. Aber nun hat sich leider meine Rx 580 verabschiedet.
Was war der letzte Stand bzgl. Navi 23,24?
Ich habe Q1 im Kopf, ist das noch aktuell?

Das Event am 29. ist mir bekannt, aber ich vermute AMD wird die kleinen Chips erstmal unter den Tisch fallen lassen, damit die Leute weiter oben zugreifen.
Außerdem, warten kann jeder. :D


Was den Transport angeht, Flugzeug stelle ich mir auch schwierig vor. Bahn klingt da sinnvoller, aber hat AMD das in der Vergangenheit schon dafür genutz?
Ich meine CPU Blister dürften doch grob 16x dichter packbar sein als GPUs, bei denen ja noch der Kühlkörper mitgeschickt wird.
Selbst wenn man nun damit rechnet, das GPUs grob für den doppelten durchschnittspreis verkauft werden, bleiben 8x so hohe Transportkosten.

Der_Korken
2020-10-25, 17:28:53
Zu N23 gibt es noch keine Infos zum Release. Man spekuliert nur, dass es ein 32CU-Chip für mobile sein wird. Zu N24 weiß man glaube ich noch nicht mal, ob es diesen Chip überhaupt gibt. Ich würde erstmal damit rechnen, dass N10 und N14 noch bis Frühling weiterlaufen. Wenn du nicht all zu lange warten willst, könntest du eventuell eine günstige 5700 im Abverkauf schießen, da die 6700 von oben sicher preislich etwas Druck ausüben wird.

gedi
2020-10-25, 17:44:54
https://cdn.discordapp.com/attachments/694482077143269387/769914011680374804/amd.png

Edith sagt:

gerade erst die 14GB gesehen, scheint blödsinn zu sein.

Das Bild ist uralt

Berniyh
2020-10-25, 17:48:47
Aber was heißt mehrere Wochen? Afaik waren das 2-3 Wochen oder irre ich mich da?
:freak::biggrin:

gedi
2020-10-25, 17:51:08
Hier noch einmal die Taktraten etwas aufgedröselt.

Okay, der Boost funktioniert anders als bei N10, denn hier war max. immer das was eingestellt war -70 MHz. Ausgehend von 2.577G scheint das Boostverhalten geändert worden zu sein.

Linmoum
2020-10-25, 17:58:18
Okay, der Boost funktioniert anders als bei N10, denn hier war max. immer das was eingestellt war -70 MHz. Ausgehend von 2.577G scheint das Boostverhalten geändert worden zu sein.Und die >=2500MHz peak kommen dann woher?

289TGP:
System 3 Avg: 2092 MHz Median: 2320 MHz Max:2489 MHzSystem 1 Avg: 2291 MHz Median: 2373 MHz Max: 2556 MHz255W TGP
System 3 Avg: 1993 MHz Median: 2342 MHz Max:2557 MHzSystem 2 Avg: 2298 MHz Median: 2357 MHz Max: 2509 MHz


Wie Patrick ansonsten schon schreibt: Treiber (und Engineering Board).

patrickschur
2020-10-25, 17:58:57
Zu N23 gibt es noch keine Infos zum Release.
Navi 23 kommt nächtes Jahr in Notebooks mit Cezanne und TigerLake-H zusammen. ;)

Berniyh
2020-10-25, 18:02:19
Ich habe ein wenig den Überblick verloren, eigentlich wollte ich ja auch erst bei Navi 3X aufrüsten. Aber nun hat sich leider meine Rx 580 verabschiedet.
Was war der letzte Stand bzgl. Navi 23,24?
Ich habe Q1 im Kopf, ist das noch aktuell?
Ich habe das mal abgeschätzt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12452562#post12452562

Navi 23 wäre demnach in etwa Ende Q1 zu erwarten.

Navi 24 … keine Ahnung. Außer dem Codenamen haben wir noch nichts davon gehört.
(Edit: und dieses Gerücht dass sich aber ziemlich sicher einer ausgedacht hat.)

dargo
2020-10-25, 18:19:42
Okay, der Boost funktioniert anders als bei N10, denn hier war max. immer das was eingestellt war -70 MHz. Ausgehend von 2.577G scheint das Boostverhalten geändert worden zu sein.
Keine Ahnung was du da wieder siehst. Ich sehe da Null Unterschied zu N10. Boosttaktraten werden wie immer in erster Linie vom Powerlimit sowie der Applikation bestimmt.

Redneck
2020-10-25, 18:32:29
Jetzt driften wir vom Thema etwas ab. Würde mich aber trotzdem interessieren was eine Tonne Fracht mit diesem Zug gegenüber einer Frachttonne per Schiff kostet. Oder halt pro Container.
Ca das doppelte.. Transitzeit ex china ca 20 tage. Die meisten Karten und Chips kommen ja aber aus Taiwan.. Mit dem schiff daher nochmal ca 10 tage mehr. Mit der bahn geht da nix. Luftfracht ist angesagt. Die Luftfracht raten sind aber aufgrund von Corona absurd hoch, weil kaum Passagiermaschinen fliegen, die normalerweise einen grossteil an frachtkapazität darstellen.

dargo
2020-10-25, 18:35:34
Egal... dann müssen wir uns halt noch etwas gedulden. In Dezember sind hoffentlich die Händlerlager mit guten Customs ausreichend gefüllt. Anfangs gibt es eh immer den bekannten Deppenaufschlag. :tongue:

nordic_pegasus
2020-10-25, 18:36:34
Ca das doppelte.. Transitzeit ex china ca 20 tage. Die meisten Karten und Chips kommen ja aber aus Taiwan.. Mit dem schiff daher nochmal ca 10 tage mehr. Mit der bahn geht da nix. Luftfracht ist angesagt. Die Luftfracht raten sind aber aufgrund von Corona absurd hoch, weil kaum Passagiermaschinen fliegen, die normalerweise einen grossteil an frachtkapazität darstellen.

könnte man dann nicht komplette Jets mieten und nur Fracht transportieren? Müsste doch eigentlich günstig sein, alternativ würde die Maschine doch irgendwo abgestellt werden müssen.

Redneck
2020-10-25, 18:42:33
könnte man dann nicht komplette Jets mieten und nur Fracht transportieren? Müsste doch eigentlich günstig sein, alternativ würde die Maschine doch irgendwo abgestellt werden müssen.
die charterflieger sind alle im Einsatz. Passagierflieger lohnen nicht ohne Passagiere.

Nightspider
2020-10-25, 18:49:16
Ob es den Infinity Cache auch in Van Gogh und Rembrandt geben wird?

Berniyh
2020-10-25, 18:54:39
Ob es den Infinity Cache auch in Van Gogh und Rembrandt geben wird?
Na zuerst muss sich das ja mal für Navi 2x bestätigen, meinst du nicht? ;)

gedi
2020-10-25, 18:55:33
2.577G minus 70 sind bei mir max. 2.507G!

gedi
2020-10-25, 18:57:16
Keine Ahnung was du da wieder siehst. Ich sehe da Null Unterschied zu N10. Boosttaktraten werden wie immer in erster Linie vom Powerlimit sowie der Applikation bestimmt.

Da sieht man, dass du N10 nicht verstanden hast in Bezug auf maxed out

prinz_valium_2
2020-10-25, 19:01:14
Die Eisenbahnlinie zwischen der chinesischen Metropole Chongqing und Duisburg. Dreimal wöchentlich fährt ein bis zu 50 Container fassender Zug, "Yuxinou" genannt, die mit 11 179 Kilometer längste Güterzugstrecke der Welt. Genau 16 Tage ist der Zug unterwegs und damit fast dreimal so schnell wie ein Schiff, das für die Distanz mindestens 40 Tage braucht.

TDIL
Nice

Wie viele Tonnen bewegt der und was kostet der pro Container?

dargo
2020-10-25, 19:04:39
Da sieht man, dass du N10 nicht verstanden hast in Bezug auf maxed out
Erklärs mir. :rolleyes:

gedi
2020-10-25, 19:08:15
Power-Limit auf max. und deinen Takt einstellen. Ergibt unter Wasser bei 2.3G ebend dauerhafte 2.23G

dargo
2020-10-25, 19:15:44
Warum wusste ich, dass nur Blödsinn wieder kommt? ;D Was zum Teufel hat das mit den AIB-Karten zu tun? Die werden erstens nicht bis zur maximalen Kotzgrenze gekeult. Und zweitens werden sie nicht mit Wakü ausgeliefert.

gedi
2020-10-25, 19:26:45
Warum wusste ich, dass nur Blödsinn wieder kommt? ;D Was zum Teufel hat das mit den AIB-Karten zu tun? Die werden erstens nicht bis zur maximalen Kotzgrenze gekeult. Und zweitens werden sie nicht mit Wakü ausgeliefert.

Meh, du hast es nicht verstanden. Okay nochmals: Du hast nen max. Boostclock von 2.577g, welcher wohl laut Patrick für ne 6800XT das Maximum darstellt. 2.577 - 70 = 2.507!

BigBangBacket
2020-10-25, 19:28:02
Und woher kommen die 70? Sind die bei jeder Graka fest? 🤨

nairune
2020-10-25, 19:31:21
Das war halt so bei Navi 10, ca.
Nun scheint der Takt bis zum oder zumindest fast bis zum eingestellten Maximaltakt zu gehen. Vielleicht haben sie einen Offset weggenommen (oder drauf gepackt), weil die User verwirrt waren oder damit man bei N10 einen höheren Boost angeben konnte.
Wie auch immer, finde ich aktuell nicht besonders wichtig.

Wuge
2020-10-25, 19:34:30
Wenn die Karten mit 256 Bit Interface und GDDR6 kommen, herrscht dann nicht Bandbreitenknappheit?

dargo
2020-10-25, 19:38:18
Meh, du hast es nicht verstanden. Okay nochmals: Du hast nen max. Boostclock von 2.577g, welcher wohl laut Patrick für ne 6800XT das Maximum darstellt. 2.577 - 70 = 2.507!
:rolleyes:

Wenn du N21 offenes Powerlimit gibst dann wirst du auch deine 2,5Ghz bekommen mit entsprechenden Kühlung. Mit "nur" 289W garantiert nicht. Inwieweit man das Powerlimit mit MPT oder dem Afterburner über diesen 289W (falls überhaupt) erhöhen kann muss sich erst zeigen. Igor sprach auch davon, dass er da bestimmte Limits einbauen lassen will damit nicht gleich jeder seine Karte schrottet.

Wenn die Karten mit 256 Bit Interface und GDDR6 kommen, herrscht dann nicht Bandbreitenknappheit?
:freak:

ianm
2020-10-25, 19:39:35
Willkommen, es wird gemunkelt es gibt einen besonderen Cache der dafür sorgen soll, dass 256 Bit ausreichen sollen.

Der_Korken
2020-10-25, 19:47:40
gedi hat doch Recht mit den 70Mhz :confused:

Ich sehe es bei mir auch, dass der Takt nie über [Max. Boost]-65Mhz hinausgeht. Momentan steht bei mir 1850Mhz @980mV im Wattman und wenn ich GPU-Z mitlogge, dann geht der Takt auch bei nicht ausgereiztem PT nicht über ~1785Mhz. Mit dem default von 1750Mhz geht er entsprechend nie über 1685Mhz. Wenn ich das PT runterschraube und immer ein PT-Limit erzwinge, ist das natürlich egal, weil ich dann selbst die 1785Mhz nicht erreiche, aber prinzipiell stimmt es, dass bei N10 das Maximum im Wattman nicht erreicht wird.

dargo
2020-10-25, 20:15:13
gedi hat doch Recht mit den 70Mhz :confused:

Nein... hat er nicht. :rolleyes: Reiner Zufall in seinem spezifischen Szenario bzw. Konfiguration der Grafikkarte. Jede vom AIB ausgelieferte Karte hängt im Powerlimit. Wenn sie im Taktlimit hängt dann hat der AIB zu wenig max. Takt im Bios hinterlegt oder die Applikation lastet die Karte wenig aus (war hier bsw. der Fall mit einer MSI Gaming X 5700 non XT). Worüber wird hier die ganze Zeit eigentlich wieder gequasselt? Willst du mit Wakü maximale Frequenzen dann rauf mit dem max. Takt (höher als 2577Mhz) und rauf mit dem Powerlimit. Was hier wieder für ein Drama wegen nichts gemacht wird... unglaublich.

nairune
2020-10-25, 20:18:34
Dargo, darum ging es doch gar nicht. Ihm ist einfach nur aufgefallen, dass die maximal erreichten Taktraten nun deutlich näher am "eingestellten" liegen und damit hat er Recht.
Das Drama kommt nur zu stande, weil du widersprichst ;)

dargo
2020-10-25, 20:21:17
Wegen dem Quatsch so ein Aufstand? :freak: Die genaue max. anliegende Frequenz wirst du eh nie erfahren da die Tools die diese auslesen viel zu träge sind.

Edit:
https://youtu.be/OTXIsXkdAs0?t=538

Max. 1999Mhz bei 155W PT eingestellt. Ingame max. 1965Mhz und somit 34Mhz unter dem max. Wert erreicht. Habe ich jetzt einen Keks gewonnen? Bei 9:36 erreiche ich sogar 1968Mhz. :whistle:

Zergra
2020-10-25, 20:21:43
Wenn die Karten mit 256 Bit Interface und GDDR6 kommen, herrscht dann nicht Bandbreitenknappheit?
Das ist wohl das größte Fragezeichen, AMD dürfte sich da was überlegt habe, wie gut das am Ende klappt werden wir sehen.

kabe
2020-10-25, 20:24:59
Meine Pulse RX 5700 steht bei 1850MHz@1030mV. Power Limit habe ich großzügig auf 170Watt mittels MorePowerTool hochgesetzt. Daraus ergibt sich ein stabiler Realtakt bei 1820-1830MHz in jeder Lebenslage.

dargo
2020-10-25, 20:41:53
Meine Pulse RX 5700 steht bei 1850MHz@1030mV. Power Limit habe ich großzügig auf 170Watt mittels MorePowerTool hochgesetzt. Daraus ergibt sich ein stabiler Realtakt bei 1820-1830MHz in jeder Lebenslage.
Eben... weil du praktisch mit diesem Setting nie ins Powerlimit rennst.

Der_Korken
2020-10-25, 20:44:37
Habe ich jetzt einen Keks gewonnen? Bei 9:36 erreiche ich sogar 1968Mhz. :whistle:

Ja hast du. Die beiden Nitros, die ich mal hatte, haben auch nie mehr als max. Wattman-Takt minus ~65Mhz geschafft (was fast schon Betrug war, weil die zweite nur somit nie mehr als 1915Mhz geschafft hat, obwohl mit >2Ghz Boost beworben, welcher u.a. bei CB auch gemessen wurde ...). Also auch anliegend für länger als 1 Sekunde, Spikes zählen nicht.

Schon komisch. Hätte gedacht, das wäre ein Sapphire-Ding, aber die Nitros sind halt auch von Sapphire. Gut aber bei realen Bedingungen spielt es wie du sagst keine wirkliche Rolle.

dargo
2020-10-25, 20:59:00
Diese ganze Diskussion über ein paar Mhz ist schon albern genug, besonders in den Regionen von N21 der eh schon mit >2GHz läuft. Yeah... ich habe 50Mhz max. Takt mehr und wahnsinnige +0,5fps Leistungszuwachs. :freak:

Brillus
2020-10-25, 21:03:41
Ca das doppelte.. Transitzeit ex china ca 20 tage. Die meisten Karten und Chips kommen ja aber aus Taiwan.. Mit dem schiff daher nochmal ca 10 tage mehr. Mit der bahn geht da nix. Luftfracht ist angesagt. Die Luftfracht raten sind aber aufgrund von Corona absurd hoch, weil kaum Passagiermaschinen fliegen, die normalerweise einen grossteil an frachtkapazität darstellen.
Chips werden auch nicht per Frachtschiff verschickt. Sondern wenn ganze Karten. Die Chips werden produziert dann mit Fähre/Zug/LKW zu den Chinesischen ODM und dann als ganze Karten weiter, aber der erste Teil ist für den ersten Aufschlag schon durch. Patrik schrieb doch die ersten Karten werden nun so langsam verschickt.

patrickschur
2020-10-25, 21:16:38
@Brillus Ja, aber wie es mit den Referenz Karten aussieht kann ich dir nicht sagen. Wäre schon gut möglich, dass die ersten Karten im November verfügbar sind.

Dampf
2020-10-26, 00:42:10
Nur noch 2 Tage, dann werden wir endlich alles verfahren!

Nakai
2020-10-26, 01:36:25
Eine XBOX Series X hat auf dem Papier deutlich mehr Bandbreite pro CU als ein spekulierter N21. Da ist definitiv eine Secret-Sauce verbaut. Bisher haben wir das Package noch nicht gesehen. Von der Grundarchitektur sollten die Konsolen-Navis den PC-Navis nicht sonderlich unterschiedlich sein. Ein mögliches Architektur-Addon kann man sich ja vorstellen, weswegen ein extra Speicher (Caches/HBM) viel Sinn ergeben. Kann ja sein, dass man einen HBM-Speicher direkt im Die untergebracht hat. ;D

Wir können ja nochmal ein Tipp-Spiel machen, aber ich vermute wir werden uns sehr wundern. Und wehe ich lese irgendwas in Reviews in Richtung, dass es nur allgemeine Architektur-Optimierungen waren. Ne, das passt nicht. Dahingehend würde ich gerne eine Bombe platzen sehen wollen.

@patrickschur:
Ich hoffe das ganze Geleake wird dir keine beruflichen oder privaten Probleme mit sich bringen. Aber wenn man die ganzen Leaks verfolgt...da ist Einiges zeitähnlich abgelaufen. Wenn dahinter nur eine Quelle steckt würde mich nicht wundern.

Wuge
2020-10-26, 10:01:35
Ach Leute, ich weiß auch nimmer. 10 Jahre mit ner GT570 ausgehalten, dann ne 2080Super günstig geschossen, dann in der Ampere-Panik ne 2080 TI abgestaubt und jetzt seh ich, dass die Dinger bei EBay über 700 EUR gehandelt werden und denk mir da muss die wieder weg. Einzige Alternative wäre dann Big Navi... was nu? ;D

Lurtz
2020-10-26, 10:03:04
Wie ist das nun eigentlich mit "nVidia-Raytracing"-Titeln? Werden die auf Navi prinzipiell laufen, oder ist alles was nicht DXR (?) unterstützt, auf Navi eh nicht lauffähig?

Dampf
2020-10-26, 10:06:39
Wie ist das nun eigentlich mit "nVidia-Raytracing"-Titeln? Werden die auf Navi prinzipiell laufen, oder ist alles was nicht DXR (?) unterstützt, auf Navi eh nicht lauffähig?

RTX basiert auf DXR, sollten also ohne Probleme auf Navi laufen.

Lurtz
2020-10-26, 10:08:25
RTX basiert auf DXR, sollten also ohne Probleme auf Navi laufen.
Das heißt die Render-API meldet dem Spiel, was die Grafikkarte an Features hat und darüber werden die Raytracing-Optionen freigeschaltet oder eben nicht? Oder ist es denkbar dass bisherige Titel wie Control explizit auf eine RTX-Karte checken?

Brillus
2020-10-26, 10:11:30
Wie ist das nun eigentlich mit "nVidia-Raytracing"-Titeln? Werden die auf Navi prinzipiell laufen, oder ist alles was nicht DXR (?) unterstützt, auf Navi eh nicht lauffähig?

Gab mal irgendwo eine Aussage von einem Spieleentwickler das grundsätzlich läuft. Man um es performant zu machen jeweils auf den Hersteller optimieren muss.

Das heißt die Render-API meldet dem Spiel, was die Grafikkarte an Features hat und darüber werden die Raytracing-Optionen freigeschaltet oder eben nicht? Oder ist es denkbar dass bisherige Titel wie Control explizit auf eine RTX-Karte checken?
Nicht auszuschließen. Solche Sachen gab es schon mal muss da an die Schatten in Giants denken, cda gibts die hochauflösenden nur auf NV Hardware obwohl alle DX9+ Karten das auch könnten. Wäre aber sehr blöd vom Spieleentwickler zu einer Zeit wo das Feature noch so im Focus ist.

pixeljetstream
2020-10-26, 10:11:45
RTX basiert auf DXR, sollten also ohne Probleme auf Navi laufen.
Vulkan hat noch keine standardisierte Form des raytracings. Ist seit Jahren in Diskussion/Entwicklung. Daher sind die Titel die RT dort nutzen erstmal NV exklusiv. Da aber das standardisierte RT (ein Preview gab es schon) sich nicht fundamental unterscheidet ist ein patch nicht unrealistisch.

Streng genommen ist die Abstraktion der Implementierung andersrum

Titel
|
Api
|
V
DXR, VKRay oder (Optix7+)
|
Treiber (hw/Hersteller spezifisch)
Bei DXR durch ein layer von MS. Der Rest direkt vom Hersteller.
|
V
NV Marketingname: RTX Technologie (rtcore Treiber).

AMD und Intel werden auf der Ebene hier unten ein equivalent haben.

Screemer
2020-10-26, 10:13:36
RTX basiert auf DXR, sollten also ohne Probleme auf Navi laufen.Das ist faktisch falsch. Ohne Arbeit durch die devs wird da gar nix ootb laufen.

Dampf
2020-10-26, 10:14:59
Das heißt die Render-API meldet dem Spiel, was die Grafikkarte an Features hat und darüber werden die Raytracing-Optionen freigeschaltet oder eben nicht? Oder ist es denkbar dass bisherige Titel wie Control explizit auf eine RTX-Karte checken?

Ja glaub schon, dass das so ähnlich funktioniert. Wenn DXR vorhanden ist, sollte es freigeschaltet werden und wenn nicht lässt sich das mit nem kleinen Patch sicherlich lösen.

Das einzige was mich verwundert ist, dass CB2077 zum Launch kein DXR auf AMD hat. Das widerspricht dem ganzen irgendwie.

Die einzig logische Erklärung für mich ist, dass AMD die DXR Unterstützung zum Launch von CB2077 noch nicht bereit hat.

w0mbat
2020-10-26, 10:16:58
Wo steht, dass CP2077 zum launch kein RT auf AMD haben wird?

Dampf
2020-10-26, 10:17:55
Wo steht, dass CP2077 zum launch kein RT auf AMD haben wird?

Hier https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/News/Raytracing-RX-6000-1360451/

ChaosTM
2020-10-26, 10:19:23
Pure Vermutung. Das ? nicht vergessen bei solchen Meldungen ;)

Brillus
2020-10-26, 10:20:21
Das ist faktisch falsch. Ohne Arbeit durch die devs wird da gar nix ootb laufen.

Da gibts schon gegenteilige Aussage von Devs und denen vertrau ich da mehr als dir.

Lurtz
2020-10-26, 10:21:15
Klingt als müsse man das für den Einzelfall beurteilen. Aber man kann wohl nicht davon ausgehen, mit AMD in einem beliebigen existierenden Spiel mit Raytracing das auch nutzen zu können.

Szudri
2020-10-26, 10:23:26
Würd mich nicht wundern, wenn nVidia RT an DLSS koppelt. Kein DLSS, kein RT. Imho glaube ich auch eher, dass RT in niedriger Auflösung berechnet wird und per DLSS auf die eigentliche Auflösung skaliert wird (ist das möglich?).
Bei Watch Dogs Legion gibt es auch nur die HW Anforderungen für DLSS + RT und nicht nur mit RT.

Dampf
2020-10-26, 10:23:45
Pure Vermutung. Das ? nicht vergessen bei solchen Meldungen ;)

Naja, es kommt von einem Interview in PCGamer. Scheint also schon glaubwürdig zu sein.

Würd mich nicht wundern, wenn nVidia RT an DLSS koppelt. Kein DLSS, kein RT. Imho glaube ich auch eher, dass RT in niedriger Auflösung berechnet wird und per DLSS auf die eigentliche Auflösung skaliert wird (ist das möglich?).
Bei Watch Dogs Legion gibt es auch nur die HW Anforderungen für DLSS + RT und nicht nur mit RT.

Die RT Effekte werden teils und je nach Setting in einer geringeren Auflösung berechnet. Aber dazu braucht es kein DLSS. Das einzige Spiel was die Renderauflösung der RT Effekte an der DLSS input Auflösung misst, ist Fortnite aber das ist eher ein Einzelfall.

RT Effekte an DLSS zu knüpfen macht wenig Sinn, da ja auch AMD bzw die Konsolen die Effekte darstellen müssen. Die Systemanforderungen sind wohl für 60 FPS, das ist mit DLSS einfacher zu erreichen.

dargo
2020-10-26, 10:26:52
Bei Watch Dogs Legion gibt es auch nur die HW Anforderungen für DLSS + RT und nicht nur mit RT.
Was soll da auch sonst stehen? RTX 4090? ;D

Iscaran
2020-10-26, 10:26:57
Imho glaube ich auch eher, dass RT in niedriger Auflösung berechnet wird und per DLSS auf die eigentliche Auflösung skaliert wird (ist das möglich?).
Bei Watch Dogs Legion gibt es auch nur die HW Anforderungen für DLSS + RT und nicht nur mit RT.

In niedrigerer Auflösung RT rechnen müssen tut man nicht. Aber genau dafür wurden ja Upscaling-Techniken wie DLSS oder FidelityFX entwickelt. Um eben in niedrigerer Auflösung zu rendern und dann mit "wenig" Aufwand so zu tun als ob man eben in der "nativen" höheren Auflösung gerendert hätte.

SKYNET
2020-10-26, 10:27:06
Würd mich nicht wundern, wenn nVidia RT an DLSS koppelt. Kein DLSS, kein RT. Imho glaube ich auch eher, dass RT in niedriger Auflösung berechnet wird und per DLSS auf die eigentliche Auflösung skaliert wird (ist das möglich?).
Bei Watch Dogs Legion gibt es auch nur die HW Anforderungen für DLSS + RT und nicht nur mit RT.


klar, NV will ja deren eigenen BQ spaltter pushen... nen paar scheine rübergeschoben "anforderungen nur mit DLSS + RT" nix nur RT... :freak:

DrFreaK666
2020-10-26, 10:36:21
Pure Vermutung. Das ? nicht vergessen bei solchen Meldungen ;)

Basis dieser Vermutungen ist wahrscheinlich dass die Next Gen Konsolen-Versionen auch erst später erscheinen

Screemer
2020-10-26, 10:36:26
Da gibts schon gegenteilige Aussage von Devs und denen vertrau ich da mehr als dir.
Die letzte Aussage von pixeljetstream hast gelesen? Welche aussagen von devs gibt es denn? Du kannst vergessen, dass bf v, Control oder Metro ohne Patch auf amd-karten er bieten werden. Da war dxr noch nicht Mal fertig definiert. Bei anderen Titeln mag das anders sein. Kannst auch gerne Mal links auf die Aussagen von entsprechenden devs setzen.

dildo4u
2020-10-26, 10:43:20
Control Ultimate Edition bekommt ein Next-Gen Patch die werden sich also mit AMD DXR Beschleunigung beschäftigen.

Szudri
2020-10-26, 10:46:49
Was soll da auch sonst stehen? RTX 4090? ;D

Bei der FullHD Auflösung könnte man RTX 3080 für nur RT zum Beispiel schreiben :rolleyes:

pixeljetstream
2020-10-26, 10:46:54
Die letzte Aussage von pixeljetstream hast gelesen? Welche aussagen von devs gibt es denn? Du kannst vergessen, dass bf v, Control oder Metro ohne Patch auf amd-karten er bieten werden. Da war dxr noch nicht Mal fertig definiert. Bei anderen Titeln mag das anders sein. Kannst auch gerne Mal links auf die Aussagen von entsprechenden devs setzen.
Ich glaube du hast meine Antwort nicht verstanden. Die Titel die rein auf dxr setzen sollten dann auch auf AMD laufen.

dr.denton
2020-10-26, 10:48:07
Schon das Neue von Igor gesehen? https://www.youtube.com/watch?v=CLOVUQVpBGM
Was meint ihr zum veranschlagten Stromverbrauch?

dargo
2020-10-26, 10:48:19
Bei der FullHD Auflösung könnte man RTX 3080 für nur RT zum Beispiel schreiben :rolleyes:
Schlecht fürs Marketing. ;)

Die letzte Aussage von pixeljetstream hast gelesen?
Ja... Pixel sprach von Vulkan nix mit AMD. Zumindest nicht ohne Patch.

Schon das Neue von Igor gesehen? https://www.youtube.com/watch?v=CLOVUQVpBGM
Was meint ihr zum veranschlagten Stromverbrauch?
Neu? Das ist 6 Tage alt. :freak:

dildo4u
2020-10-26, 10:50:34
Schon das Neue von Igor gesehen? https://www.youtube.com/watch?v=CLOVUQVpBGM
Was meint ihr zum veranschlagten Stromverbrauch?
Passt immer noch 7nm aber massiv mehr Takt als Navi 10.

Nightspider
2020-10-26, 10:54:05
Wer eine grüne Karte will kann den Takt ja einfach 5% zurücknehmen und die Spannung 10%.

Screemer
2020-10-26, 10:55:28
Ich glaube du hast meine Antwort nicht verstanden.den Ball kann ich gerne zurück geben. Die Titel die rein auf dxr setzen sollten dann auch auf AMD laufen.die wären? Genau darauf bezog sich meine Antwort. Es wird so getan als gäbe es solche Titel aktuell in hoher Zahl in freier Wildbahn.

aufkrawall
2020-10-26, 10:59:05
Wer eine grüne Karte will kann den Takt ja einfach 5% zurücknehmen und die Spannung 10%.
10% weniger Spannung geht allgemein bei GPUs eigentlich ständig bei hochgeprügelten Customs, auch ohne Takt-Absenkung.

dargo
2020-10-26, 11:09:11
die wären? Genau darauf bezog sich meine Antwort. Es wird so getan als gäbe es solche Titel aktuell in hoher Zahl in freier Wildbahn.
Verstehe die Frage nicht. Na alles mit einem D3D12-Renderer wo RT implementiert wurde.

Dampf
2020-10-26, 11:10:54
AMD muss halt DXR endlich freischalten.

Verstehe nicht, warum sie das nicht schon längst getan haben. Die GCN und RDNA Serie sollten sich besser für Software-Raytracing eignen als Pascal...

robbitop
2020-10-26, 11:14:32
Es wird trotzdem ohne dedizierte HW zur Beschleunigung so langsam sein, dass es die Karten unter keinem guten Licht erscheinen lässt.
Ggf. macht das Sinn, das freizuschalten, nachdem Karten vorgestellt sind, die das können. Bzw nach dem die Karten EOL und abverkauft sind.

Dampf
2020-10-26, 11:16:13
Es wird trotzdem ohne dedizierte HW zur Beschleunigung so langsam sein, dass es die Karten unter keinem guten Licht erscheinen lässt.
Ggf. macht das Sinn, das freizuschalten, nachdem Karten vorgestellt sind, die das können. Bzw nach dem die Karten EOL und abverkauft sind.

Ja stimmt, glaub ich auch. Dass DXR nach RDNA2 DXR für alle Karten freischaltet, halte ich für plausibel.

aufkrawall
2020-10-26, 11:20:27
Die GCN und RDNA Serie sollten sich besser für Software-Raytracing eignen als Pascal...
Ist die Frage, ob man von Offline Compute-Tasks Ableitungen herstellen kann für Echtzeit-. Da könnten ziemliche Fallstricke lauern und Leistung < Pascal wär blamabel.

HOT
2020-10-26, 11:22:06
Ja stimmt, glaub ich auch. Dass DXR nach RDNA2 DXR für alle Karten freischaltet, halte ich für plausibel.
Bringt nur nix, weil auch die viel zu langsam sein werden. Damit könnte man halt die Pathtraycingsachen wie Minecraft oder Quake auch starten aber spielen kann man damit eh nix.



Und Leute, alle Titel die auf DX12U basieren sind ja DXR und laufen natürlich auch auf den Radeons. Da muss sich keiner mit beschäftigen und die Optimierungen, die NV den Studios mitgibts, damit das effizienter wird, helfen den Radeons genauso.
Nur Vulkan ist NV-Exklusiv, da muss ein Patch der Entwickler her, z.B. Youngblood, aber auch Crysis-Remastered (welches ja noch Vulkan+RTX bekommen soll). Aber da bin ich zuversichtlich, dass das die Radeons sehr schnell mit einbezogen werden, zumal sie ansonsten im Rasterizing die Performancekrone zu erringen scheinen oder zumindest extrem nah dran ist.

dildo4u
2020-10-26, 11:30:26
Eine 5600xt sollte hier locker 120 FPS mit Medium RT schaffen, es macht kein Sinn alle RT Effekte in die selbe Schublade zu stecken.


https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12472325#post12472325

Screemer
2020-10-26, 11:37:08
Verstehe die Frage nicht. Na alles mit einem D3D12-Renderer wo RT implementiert wurde.
Äh, nein. Dx12 != Dxr.

Auch jetzt werden instrints genutzt die sind per se nicht auf der hw eines andern vendors lauffähig. Wieviel das die rtx sind, will ich nicht Mal abschätzen.

hilo
2020-10-26, 11:43:52
Verstehe die Frage nicht. Na alles mit einem D3D12-Renderer wo RT implementiert wurde.

Och, da gibt es schon einige Fragezeichen. Screemers Frage ist durchaus berechtigt, denn der Teufel steckt bekanntlich im Detail. Aber wir werden es ja bald sehen.

https://www.tomshardware.com/news/ba...ing,37732.html

GeForce RTX owners should get the option to turn ray tracing off. However, there is no DXR (DirectX Ray Tracing) fallback path for emulating the technology in software on non-RTX graphics cards. And when AMD comes up with its own DXR-capable GPU, DICE will need to go back and re-tune Battlefield V to support it.

Holmquist clarifies, “…we only talk with DXR. Because we have been running only Nvidia hardware, we know that we have optimized for that hardware. We’re also using certain features in the compiler with intrinsics, so there is a dependency. That can be resolved as we get hardware from another potential manufacturer. But as we tune for a specific piece of hardware, dependencies do start to go in, and we’d need another piece of hardware in order to re-tune.”

https://www.dsogaming.com/news/battl...amds-new-gpus/

So let’s assume that AMD is late to the party and releases a GPU that is capable of real-time ray tracing via DXR in 2020. If DICE is busy with its next Battlefield game, those AMD owners will not be able to enjoy these ray tracing effects from the get-go. Holmquist made it crystal clear that DICE will have to add support for them. And since DICE is a big company, that may happen but what about other smaller teams like those behind Enlisted, Assetto Corsa Competizione and Atomic Heart? Are they also using ray tracing effects in such a way that they depend on NVIDIA’s hardware?

[...]

Da wo Entwickler verschiedene Codepaths nutzen ist es nicht unüblich, dass sie spezielle intrinsics/features nutzen, das passiert in diversen Titeln. Beide Hersteller bieten hier Dinge an die halt nicht im Standard sind. Sehr oft versucht man aber diese in späteren Versionen der API zu standardisieren. Gerade DX11 hat nen haufen feature von den Herstellern bekommen die mit DX12 dann Standard waren.

Konsolenapis sind grundsätzlich nicht das gleiche wie PC apis und per definition proprietaer. Und natürlich werden die Toptitel viel staerker an genau jene Hardware angepasst. [...]

BFV nimmt ein bisschen eine Sonderrolle ein, weil es eben der erste Titel war wo DXR selbst noch in Entwicklung war und die passende Windows Version ja auch erst spaeter kam.

gedi
2020-10-26, 11:51:14
Wenn für die Konsolen RT kommt, warum sollte es für den PC mit gleicher Grafkarchitektur nicht auch kommen?

Piefkee
2020-10-26, 11:53:17
Och, da gibt es schon einige Fragezeichen. Screemers Frage ist durchaus berechtigt, denn der Teufel steckt bekanntlich im Detail. Aber wir werden es ja bald sehen.

https://www.tomshardware.com/news/ba...ing,37732.html

GeForce RTX owners should get the option to turn ray tracing off. However, there is no DXR (DirectX Ray Tracing) fallback path for emulating the technology in software on non-RTX graphics cards. And when AMD comes up with its own DXR-capable GPU, DICE will need to go back and re-tune Battlefield V to support it.

Holmquist clarifies, “…we only talk with DXR. Because we have been running only Nvidia hardware, we know that we have optimized for that hardware. We’re also using certain features in the compiler with intrinsics, so there is a dependency. That can be resolved as we get hardware from another potential manufacturer. But as we tune for a specific piece of hardware, dependencies do start to go in, and we’d need another piece of hardware in order to re-tune.”

https://www.dsogaming.com/news/battl...amds-new-gpus/

So let’s assume that AMD is late to the party and releases a GPU that is capable of real-time ray tracing via DXR in 2020. If DICE is busy with its next Battlefield game, those AMD owners will not be able to enjoy these ray tracing effects from the get-go. Holmquist made it crystal clear that DICE will have to add support for them. And since DICE is a big company, that may happen but what about other smaller teams like those behind Enlisted, Assetto Corsa Competizione and Atomic Heart? Are they also using ray tracing effects in such a way that they depend on NVIDIA’s hardware?

Natürlich wird RT von "alten" Games nicht standardmäßig bei AMD laufen. Persönlich halte ich, dass aber für unwichtig? Die 5-Games die RT aktuell nützen können gerne NV-Exklusiv sein. Alles was neu bzw. PS5 oder XBX ist wird definitv auf AMD laufen. Das ist wichtig

pixeljetstream
2020-10-26, 11:59:13
Och, da gibt es schon einige Fragezeichen. Screemers Frage ist durchaus berechtigt, denn der Teufel steckt bekanntlich im Detail. Aber wir werden es ja bald sehen.

Holmquist clarifies, “…we only talk with DXR. Because we have been running only Nvidia hardware, we know that we have optimized for that hardware. We’re also using certain features in the compiler with intrinsics, so there is a dependency. That can be resolved as we get hardware from another potential manufacturer. But as we tune for a specific piece of hardware, dependencies do start to go in, and we’d need another piece of hardware in order to re-tune.”

Das Interview ist zwei Jahre alt zu einem Zeitpunkt wo es keine andere hw gab und alles neu war. Wie unwahrscheinlich ist es dass Dice keinerlei Zugang zu neuer AMD hw in all der Zeit hätte oder AMD kein Interesse hier das vorzubereiten. Das sollte man als Kontext im Kopf haben .

Savay
2020-10-26, 12:00:16
Ist die Frage, ob man von Offline Compute-Tasks Ableitungen herstellen kann für Echtzeit-. Da könnten ziemliche Fallstricke lauern und Leistung < Pascal wär blamabel.

Wieso sollte man das nicht können, wenn es primär auf den effektiven FP32 Durchsatz ankommt?

Da macht ne Vega64 ja in bestimmten Workloads sogar ner 2080Ti Schwierigkeiten.
Von ner 1080Ti ganz zu schweigen.

Wie sehr es auch beim Gaming sonst halt klemmt, so sehr ist es bei anderen Compute Tasks dagegen wieder deutlich besser...warum auch immer.
Aber gefühlt liegt ja insbesondere bei GCN ja im Gaming die hälfte der Compute Leistung eh brach.

Ich hab da sogar ein recht aktuelles Beispiel das von der Problemstellung an sich zumindest sehr ähnlich wie bestimmte Teilprobleme bei RT sein sollte, das zumindest auf den Vegas massiv besser zu laufen scheint als auf den Pascals. (DNN basiertes Bayer Matrix Demosaicing + Denoising @DirectML)

Screemer
2020-10-26, 12:06:00
Das Interview ist zwei Jahre alt zu einem Zeitpunkt wo es keine andere hw gab und alles neu war. Wie unwahrscheinlich ist es dass Dice keinerlei Zugang zu neuer AMD hw in all der Zeit hätte oder AMD kein Interesse hier das vorzubereiten. Das sollte man als Kontext im Kopf haben .
Das ist natürlich nicht unwahrscheinlich aber wieviel würdest du darauf wetten, dass dice am renderer des bughaufens bfv Anpassungen für dxr vorgenommen hat? Ich persönlich keinen Cent. Da geht die ganze manpower grad woanders hin.

hilo
2020-10-26, 12:08:44
Das Interview ist zwei Jahre alt zu einem Zeitpunkt wo es keine andere hw gab und alles neu war. Wie unwahrscheinlich ist es dass Dice keinerlei Zugang zu neuer AMD hw in all der Zeit hätte.

Eigentlich ging es mir nur darum aufzuzeigen, daß es eben doch Abhängkeiten gibt, die man nicht einfach wegbügeln sollte. Was alle Beteiligten damit machen, ist dann natürlich eine andere Frage (Wie wahrscheinlich ist es, daß DICE Battlefield V noch mal anfasst?). Aber ich sehe es so völlig unaufgeregt wie oben Piefkee.

Nightspider
2020-10-26, 12:16:19
Gering. BF6 ist eh schon länger in Arbeit.

][immy
2020-10-26, 12:29:41
Wieso sollte man das nicht können, wenn es primär auf den effektiven FP32 Durchsatz ankommt?

Da macht ne Vega64 ja in bestimmten Workloads sogar ner 2080Ti Schwierigkeiten.
Von ner 1080Ti ganz zu schweigen.

Wie sehr es auch beim Gaming sonst halt klemmt, so sehr ist bei anderen Compute Tasks dagegen wieder deutlich besser...warum auch immer.
Aber gefühlt liegt ja insbesondere bei GCN ja im Gaming die hälfte der Compute Leistung eh brach.

Ich hab da sogar ein recht aktuelles Beispiel das von der Problemstellung an sich zumindest sehr ähnlich wie bestimmte Teilprobleme bei RT sein sollte, die zumindest auf den Vegas massiv besser zu laufen scheint als auf den Pascals. (DNN basiertes Bayer Matrix Demosaicing + Denoising @DirectML)

Das ist eine der Sachen die mir bei RDNA zu denken gibt. Optimierter GCN Code nutzt häufig potential, das vorher brach lag durch async compute etc. Bei RDNA ist es einfach an die Leistung zu kommen und diese wird direkt auf die Straße gebracht.
Daher wäre die Frage ob GCN mit für GCN optimierten Code (viel compute) tatsächlich langsamer ist als RDNA (abgesehen vom Taktvorteil).

Die Frage stellt sich weniger am PC als viel eher bei den neuen Konsolen-Chips.

basix
2020-10-26, 12:59:46
Gering. BF6 ist eh schon länger in Arbeit.

Von Seiten Dice Jein. Aber AMD wird stark daran interessiert sein --> Geld könnte fliessen / AMD macht die Hauptarbeit

aufkrawall
2020-10-26, 13:05:41
Wieso sollte man das nicht können, wenn es primär auf den effektiven FP32 Durchsatz ankommt?

Weil die GPU auch noch rastern muss und bei keinem Schritt die Latenzen durch die Decke gehen dürfen. Wer kann von uns Laien schon beurteilen, ob das einfach so trivial funktioniert?

Nightspider
2020-10-26, 13:07:51
Apropos ACEs. Gabs die noch bei RDNA oder wurden die durch etwas besseres ersetzt?

basix
2020-10-26, 13:47:27
Apropos ACEs. Gabs die noch bei RDNA oder wurden die durch etwas besseres ersetzt?

Gibt es immer noch, aber verbessert:
https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
The RDNA architecture introduces a new scheduling and quality-of-service feature known as Asynchronous Compute Tunneling that enables compute and graphics workloads to co-exist harmoniously on GPUs.

pixeljetstream
2020-10-26, 14:10:15
Von Seiten Dice Jein. Aber AMD wird stark daran interessiert sein --> Geld könnte fliessen / AMD macht die Hauptarbeit
Geld fließt bei sowas eigentlich nie. Denn salopp gesagt hilft Geld den Entwicklern nicht wirklich die Arbeit zu leisten. Letzteres dafür umso mehr weil dann die Entwickler die eh immer unter Zeitdruck sind auf ihre Hauptaufgaben konzentrieren. Und bevor du als Hersteller ne komplette Stelle woanders finanzierst, machst du das lieber für dich selbst und leihst die Leute aus. Alle Hersteller schicken regelmäßig ihre Leute bei den großen vorbei. Es gibt praktisch kein toptitel der nicht schon vorher den Herstellern vorliegt. Je nach Enge der Zusammenarbeit halt länger/kürzer vor Release.

Edit: Das soll nicht so klingen das alles von extern kommen muss. EA wird IMO auch Interesse haben Erkenntnisse aus alten Titeln für neues zu gewinnen.

basix
2020-10-26, 15:00:26
Geld fließt bei sowas eigentlich nie. Denn salopp gesagt hilft Geld den Entwicklern nicht wirklich die Arbeit zu leisten. Letzteres dafür umso mehr weil dann die Entwickler die eh immer unter Zeitdruck sind auf ihre Hauptaufgaben konzentrieren. Und bevor du als Hersteller ne komplette Stelle woanders finanzierst, machst du das lieber für dich selbst und leihst die Leute aus. Alle Hersteller schicken regelmäßig ihre Leute bei den großen vorbei. Es gibt praktisch kein toptitel der nicht schon vorher den Herstellern vorliegt. Je nach Enge der Zusammenarbeit halt länger/kürzer vor Release.

Edit: Das soll nicht so klingen das alles von extern kommen muss. EA wird IMO auch Interesse haben Erkenntnisse aus alten Titeln für neues zu gewinnen.

OK, durch Mitwirkung von Nvidia/AMD fliesst Geld somit eher indirekt ;)

Und macht auch Sinn, dass die GPU Hersteller etwas selbst implementieren, vor allem bei neuen Features/Architekturen. Denn die kennen ihre HW üblicherweise besser sowie mit deutlich mehr Vorlaufzeit und es gibt ihnen die Möglichkeit, die Implementation anderweitig zu verwenden (abhängig von entsprechenden Verträgen natürlich).

Dass EA, Epic oder wer anderes ein Feature selbst implementiert sehe ich als zweiten Schritt an. Zum Beispiel wird die Herstellerimplementation verfeinert und stärker auf die eigene Engine hin optimiert. Oder wie siehst du das? Hast du da schon selbst Erfahrungen dazu sammeln können?

Leonidas
2020-10-26, 15:06:07
5700XT und 2070S liegen nicht einmal 1% auseinander im FSU.
https://www.guru3d.com/articles_pages/amd_radeon_rx_5700_and_5700_xt_review,25.html


Nada. Die Benchmarks von 2019 sind nicht mehr aktuell für die 5700XT. Die schafft inzwischen unter FS glatte 10% mehr. Natürlich nur, wenn man auch wirklich neu misst - und nicht alte Benches Ewigkeiten mitschleppt:
https://twitter.com/3DCenter_org/status/1319982220983980033


PS: Habe die 3DMarks von allen 4 Quellen mal zusammengefasst und Vergleichswerte gegenübergestellt:
https://www.3dcenter.org/news/umfangreiche-3dmark13-werte-zu-navi-21-xt-aufgetaucht
PS2: War zuerst noch der Wurm drin, weil ich anfänglich von GPU-Werten ausgegangen bin. Sind aber alles Insgesamt-Werte.






Wann ist am Mittwoch eigentlich die Vorstellung? Wieder 18 Uhr?


AMD: Join us October 28, 2020 at 12:00 PM EDT.
-> ergibt für mich 17 Uhr deutscher Zeit

HOT
2020-10-26, 15:12:31
Bei den Benches auf der Hauptseite fällt ganz gut auf mMn, dass bei 4k dann doch die Bandbreite auszugehen scheint beim 3DMark.

Savay
2020-10-26, 15:16:21
Wer kann von uns Laien schon beurteilen, ob das einfach so trivial funktioniert?

Das mag sein...aber an sich stehen die Chancen IMHO erstmal nicht allzu schlecht, dass die späteren GCNs da ggü. den Pascals nicht noch weiter einbrechen als angesichts ihrer Rohleistung sowieso schon.
Zumindest Vega machen konkurrierende Workloads ja nun wohl nicht unbedingt mehr aus als den Pascals.
Ist aber wie gesagt nur ein Gefühl. :wink:

Die wichtigste Frage ist am Ende doch eh ob es bei diesen ollen EOL Kamellen überhaupt noch eine Rolle spielt! :)
Das taugt irgendwann aus Performance Sicht doch höchstens für absurde "Fine Wine" Nerd-Diskussionen in Foren.
Kaufentscheidend wird es wohl nirgends mehr sein.
Freischalten als Checklistenfeature ist da deshalb ab nem gewissen Punkt irgendwie schon mehr oder weniger egal...zumindest wenn man am oberen Ende dann etwas anzubieten hat, das auf jeden fall halbwegs mithalten kann und sich der Aufwand in Grenzen hält.

nairune
2020-10-26, 15:19:56
Leonidas schreibt erst, dass die Werte Overall (und nicht GPU) Punkte sind, zieht dann aber zum Vergleich bei der 3080 GPU-Punkte heran.
Haut irgendwie nicht hin. Wenn man da auch overall näme, läge die 3080 nämlich unter 8000 im TSE.

edit: scheint der Grund ist, dass die meisten keinen TSE-Wert haben und der xanxogaming Wert zu hoch ist.
Was für eine Quelle ist eigentlich capframex? Das sind die Jungs aus dem CB-Forum, die das gleichnamige Tool basteln. Haben die wirklich Quellen? Scheint mir eher als wären das Rechenspiele auf Basis der aktuellen Gerüchtelage.

arcanum
2020-10-26, 15:29:05
das sind mit großer wahrscheinlichkeit immer gpu-punkte, zumindest bei der 3080 (macht bei mir in TSE >8800 seit dem letzten treiber-update). macht gar keinen sinn overall-werte zu nehmen weil diese sehr stark von der verwendeten cpu beeinflusst werden.

Daredevil
2020-10-26, 15:30:30
del

Edit:
Sorry arcanum, sollte hier rein ^^
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12473877#post12473877

arcanum
2020-10-26, 15:33:56
edit: der post wurde gelöscht...

nairune
2020-10-26, 15:34:06
Der Sinn ist, dass die 6800XT angeblich overall Werte sind ;)
Auch wenn CPUs unterschiedlich sind, macht es noch viel weniger Sinn gegen GPU-Punkte zu vergleichen.
Siehe auch Igor, der hat auch überall overall Werte und ihm wurde ja angeblich geflüstert wie die entstanden sind.

basix
2020-10-26, 15:42:26
Bei den Benches auf der Hauptseite fällt ganz gut auf mMn, dass bei 4k dann doch die Bandbreite auszugehen scheint beim 3DMark.

Würde ich nicht sagen. Eher, dass Ampere bei 4K stärker zulegt. Verglichen zu Turing bleiben die Verhältnisse stabil, egal welcher Bench und welche Auflösung.

pixeljetstream
2020-10-26, 15:47:49
OK, durch Mitwirkung von Nvidia/AMD fliesst Geld somit eher indirekt ;)

Und macht auch Sinn, dass die GPU Hersteller etwas selbst implementieren, vor allem bei neuen Features/Architekturen. Denn die kennen ihre HW üblicherweise besser sowie mit deutlich mehr Vorlaufzeit und es gibt ihnen die Möglichkeit, die Implementation anderweitig zu verwenden (abhängig von entsprechenden Verträgen natürlich).

Dass EA, Epic oder wer anderes ein Feature selbst implementiert sehe ich als zweiten Schritt an. Zum Beispiel wird die Herstellerimplementation verfeinert und stärker auf die eigene Engine hin optimiert. Oder wie siehst du das? Hast du da schon selbst Erfahrungen dazu sammeln können?

Kommt sehr auf die Komplexität und Entwickler an. Alles was substantiell in die Engine eingreift macht der Entwickler meist selbst. Ausnahmen gibt es natürlich auch (unreal branch von NV). Hilfe beim Tuning kommt dann von den IHVs (Sei es NDA Tools, Guides etc.). Ich bin im non-Gaming unterwegs und mit Ausnahme von den Herstellern in khronos (epic, unity, id) bekomme ich die Gamingarbeit eher am Rande mit. Das Standardprozedere ist das wir öfter und genauere Analysen machen. Danach Vorschläge was der Entwickler für unsere hw verbessern könnte. Je nachdem wie sehr der Entwickler darauf eingeht, gibt es dann alternativ die Möglichkeit per Treiber mehr zu machen oder selbst einen weiteren Codepfad dem Titel beizusteuern. Wie vorher mich schon jemand zitiert hat kann das Kleinkram sein oder etwas größer ausfallen. Wegen Multiplattform etc. sind die Engines eh schon mehrgleisig unterwegs und es ist meist kein Problem. Daneben natürlich der langweilige Teil bugs auf beiden Seiten ausräumen. Hier machen es die neuen APIs ein bisschen komplizierter weil etwas mehr Zeit vergeht bis klar ist ob der bug in der App oder im Treiber ist.
Große Sachen wie dxr würden nicht gehen wenn es nicht am Ende Multiplattform wäre, da der Wartungsaufwand im Code sonst zu hoch ist. Und Hersteller verpflichten sich ungern zu Wartung anderer Leute Code ;)
Es ist also in erster Linie Beratung mit konkreten Vorschlägen. Manchmal aber halt auch wirklich etwas konkretes einbauen. Das Spektrum ist da sehr breit. Entgegen der Alu Leute machen wir immer klar wenn etwas eher spezifisch für unsere Architektur ist (es ist aber schon praktisch nun das NV, amd, Intel und Apple mit 32 threads im Verbund laufen können). Aber die Entwickler sind ja nicht dumm und sehen die Ergebnisse von allen, es fehlt einfach an Zeit und Ressourcen für Experimente/Auswertung etc. bzw. sie wissen ja um den Service der Hersteller, denen es wichtiger ist hier und da vorne zu liegen ;)

Leonidas
2020-10-26, 15:52:38
Bei den Benches auf der Hauptseite fällt ganz gut auf mMn, dass bei 4k dann doch die Bandbreite auszugehen scheint beim 3DMark.


Sehe ich nicht so. Die Abweichung zwischen FS und TS ist wesentlich größer, die Abweichung zwischen WQHD und 4K kaum vorhanden. Im genauen läuft 4K auf N21XT sogar leicht besser als WQHD (gegenüber der 2080Ti):
FSE +51%
FSU 4K +54%
TS WQHD +20%
TSE 4K +22%
PR 4K: +3%


PS: Alle Werte in diesem Fall Overall - weil die Ausgangslage in Form von N21XL auch Overall ist.

Piefkee
2020-10-26, 16:30:01
https://twitter.com/patrickschur_/status/1320746448607154176?s=20

Letzte ist interessant...
Infinity Cache confirmed :)
128MB

MR2
2020-10-26, 16:31:23
Genau leonidas. Ich hatte bei AMD nachgefragt, 18 Uhr war ein Versehen, wurde auf 17 Uhr geändert.:wink:

Cyberfries
2020-10-26, 16:32:04
Infinity Cache confirmed :)
128MB

PCGH schrieb doch heute vormittag davon, dass MALL ein Energiesparfeature sei?
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Memory-Access-at-Last-Level-MALL-als-verbesserte-Energiesparfunktion-1360527/

edit: Und N21 exklusiv...

Nazar
2020-10-26, 16:35:39
Bei den Benches auf der Hauptseite fällt ganz gut auf mMn, dass bei 4k dann doch die Bandbreite auszugehen scheint beim 3DMark.

Man muss diesen Artikel sehr genau lesen. Wer das nicht macht, stolpert z.B. über die Tatsache, dass hier auch !!!!Gesamtwerte!!! und eben keine GPU Punkte
definiert wurden.
Ich finde sowas gar nicht gut, insbesondere dann, wenn man nicht mal weiß wie das jeweilige System aufgebaut war.
Da lobe ich mir doch die Tests von IgorsLab, wo auf einem identischen System alles nachgestellt wurde.
Dort ist dann auch zu erkennen, dass die 6800XT in 4K besser ist als die 3080 FE.
Die auf der Hauptseite gezeigte Tabelle spiegelt das allerdings überhaupt nicht wider.
Das was die XT bei Igor vorne war, ist sie in dieser Tabelle plötzlich hinten.
Wie gesagt, die Tabelle ist für mich nicht schlüssig, weil man eben nicht sieht, ob es GPU Werte sind und welche Systeme sich dahinter verbergen, ohne diese Details ist das wie Fischen in einer Kläranlage. ;)

nairune
2020-10-26, 17:28:05
PS: Alle Werte in diesem Fall Overall - weil die Ausgangslage in Form von N21XL auch Overall ist.

Was ist deine Datenbasis für TSE? Über 10k Tests auf der 3D-Mark Webseite sagen, dass dein Wert für die 3080 viel zu hoch ist. 7887 im Schnitt.

edit: deine Quellen nutzen sowas wie 10900K @5,3GHz OC. Ich denke nicht, dass AMDs Boardpartner sowas zum Benchen nutzen...

just4FunTA
2020-10-26, 17:37:14
wie groß ist wohl die Wahrscheinlichkeit das man am Mittwoch vorstellt und gleich die Bestellungen freigibt?

Dschounz
2020-10-26, 17:57:06
wie groß ist wohl die Wahrscheinlichkeit das man am Mittwoch vorstellt und gleich die Bestellungen freigibt?

ich denke, das ist eher unwahrscheinlich...vielleicht, wenn wir Glück haben, zeitgleich mit Zen3 am 05.11.

Realistisch ist Mitte November IMHO.

Thunderburne
2020-10-26, 18:01:00
Ich wäre schon happy wen die sagen das die 6900XT(X) auch im Nov. rauskommt!
Möcht schon sehr gerne Cyberpunk zocken können!

basix
2020-10-26, 18:11:35
Was ist deine Datenbasis für TSE? Über 10k Tests auf der 3D-Mark Webseite sagen, dass dein Wert für die 3080 viel zu hoch ist. 7887 im Schnitt.

edit: deine Quellen nutzen sowas wie 10900K @5,3GHz OC. Ich denke nicht, dass AMDs Boardpartner sowas zum Benchen nutzen...

Overall Score ist eh dämlich für einen Vergleich. Bei TSE zu stark durch CPU verzerrt. Einzig FSU scheint bei Overall / GPU Score fast gleich auf zu liegen im Schnitt. 2 Tage warten und wir wissen mehr ;)

bloodflash
2020-10-26, 18:46:41
Ich wäre schon happy wen die sagen das die 6900XT(X) auch im Nov. rauskommt!
Möcht schon sehr gerne Cyberpunk zocken können!


Jetzt mal ganz ernsthaft:
Cyberpunk 2077 werde ich auf meinem Ryzen 2600 (ohneX) mit RX570/8GB und 16GB RAM neben einer 512GB-970evo sauber in Full-HD spielen können, weil das mal locker über deren empfohlenen Systemspecs liegt.


Na klar, nicht mit RT in 4K, aber mal ehrlich:
Das Game kommt für die alten Konsolen raus und wird seit Jahren optimiert. Jetzt haben se, dank nV, mal eben RT angeflanscht. Glaubt irgend jemand, dass das einen Unterschied beim Game machen wird?

ianm
2020-10-26, 18:52:36
Eile habe ich auch keine, das wird gut laufen, auch auf älteren Systemen.

Cyberpunk 2077 System Requirements


Please note that the game is both graphics- and processor-intensive, so make sure these components meet or exceed the minimum requirements. Also note that the minimum is created with Low settings and 1080p gaming in mind and Recommended with High and 1080p.

Minimum requirements:

OS: 64-bit Windows 7 or 64-bit Windows 10. DirectX® 12 is necessary to run the game.
Processor: Intel Core i5-3570K or AMD FX-8310. Finding a CPUs performance hierarchy chart or comparison website and comparing one's CPU with our minimum is suggested.
Graphics: Nvidia GeForce GTX 780 3GB or AMD Radeon RX 470. Finding a graphics card performance hierarchy chart or comparison website and comparing one's video card with our minimum is suggested.
RAM: 8 GB
Disk space: 70 GB HDD (SSD recommended)

Recommended requirements:

OS: 64-bit Windows 10. DirectX 12 is necessary to run the game.
Processor: Intel Core i7-4790 or AMD Ryzen 3 3200G
Graphics: NVIDIA GeForce GTX 1060 6 GB or AMD Radeon R9 Fury
RAM: 12 GB
Disk space: 70 GB SSD


https://support.cdprojektred.com/en/cyberpunk/pc/sp-technical/issue/1556/cyberpunk-2077-system-requirements

NC
2020-10-26, 18:56:08
Glaubt irgend jemand, dass das einen Unterschied beim Game machen wird?
Wann hat eine 500 Euro+ GraKa einen signifikanten Unterschied beim Gameplay gemacht?
Hier geht es um Visuelles!

MasterElwood
2020-10-26, 19:02:10
Genau leonidas. Ich hatte bei AMD nachgefragt, 18 Uhr war ein Versehen, wurde auf 17 Uhr geändert.:wink:

Logisch. Wäre 18 Uhr - ist aber wegen Zeitumstellung 17 Uhr.

bloodflash
2020-10-26, 19:19:51
Wann hat eine 500 Euro+ GraKa einen signifikanten Unterschied beim Gameplay gemacht?
Hier geht es um Visuelles!


Stimmt.
Alles zu dunkel oder zu hell, die alten Techniken sehen besser aus, aber krasse RT-Perfomance (siehe meine Sig). Ausser natürlich Spiegelungen...



Mag für Entwickler relevant sein, auch für Enthusiasten, aber das Game kann man ohne wahrscheinlich besser geniessen.



Mal schauen, ob 2022 Hardware bietet, bei der man nicht mehr darauf achten muss, um seine Investition zu bestätigen.


Bis jetzt ist RT nur was für Pixelgucker und Technovergleicher. Gamer wollen Spielen.


Dafür gibt's DLSS: Da kann man mal grosszügig über Qualitätsverluste hinwegschauen, weil 4K

Gipsel
2020-10-26, 19:21:25
PCGH schrieb doch heute vormittag davon, dass MALL ein Energiesparfeature sei?
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Memory-Access-at-Last-Level-MALL-als-verbesserte-Energiesparfunktion-1360527/

edit: Und N21 exklusiv...Es spart sicher Strom, wenn der Framebuffer komplett im LastLevel-Cache liegt und man den GDDR6 praktisch komplett in den Standby schicken kann, weil der Bildschirm-Refresh aus dem Cache läuft und nicht dem Speicher.:wink:
Und er macht es nur, wenn der Framebuffer kleiner als 128MB ist. Hmm, sieht auf den ersten Blick wirklich nach 128MB Last-Level-Cache aus.

Korvaun
2020-10-26, 19:34:24
Es wäre schon sehr gut wenn die neuen Karten wenigstens zeitgleich mit Cyberpunk2077 erscheinen (19.11.). Das Spiel ist super gehyped, eine Menge Leute rüsten extra dafür auf um das in "voller Pracht" genießen zu können.

dargo
2020-10-26, 19:44:16
Warte erstmal lieber ab wie der D3D12-Renderer bei Release läuft. ;)

Berniyh
2020-10-26, 19:47:31
PCGH schrieb doch heute vormittag davon, dass MALL ein Energiesparfeature sei?
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Memory-Access-at-Last-Level-MALL-als-verbesserte-Energiesparfunktion-1360527/

edit: Und N21 exklusiv...
Wie PCGH schreibt ist es nicht klar, ob das nur vorläufig für Navi 21 exklusiv ist.
Oftmals werden die Features für einzelne Chips separat aktiviert, insofern kann es schon gut möglich sein, dass das noch für Navi22/23 kommt.

bloodflash
2020-10-26, 19:49:34
Es wäre schon sehr gut wenn die neuen Karten wenigstens zeitgleich mit Cyberpunk2077 erscheinen (19.11.). Das Spiel ist super gehyped, eine Menge Leute rüsten extra dafür auf um das in "voller Pracht" genießen zu können.


Volle Pracht heisst:


4K
RT
120Hz VRR
Textur auf Max


Und das wird ein PS4-/Xbox-One-Spiel bieten?
Auf einer noch nicht erhältlichen oder erschienenen GraKa für den PC?


Ehrlich gesagt: Mir fehlt der Glauben.

Wiseman
2020-10-26, 20:09:45
Man muss diesen Artikel sehr genau lesen. Wer das nicht macht, stolpert z.B. über die Tatsache, dass hier auch !!!!Gesamtwerte!!! und eben keine GPU Punkte
definiert wurden.


+1

basix
2020-10-26, 20:45:18
Und er macht es nur, wenn der Framebuffer kleiner als 128MB ist. Hmm, sieht auf den ersten Blick wirklich nach 128MB Last-Level-Cache aus.

Wieso erinnert mich das immer an die IBM Chips?

Centaur = "Centaur incorporates 16 MiB of L4 buffer cache for a total of 128 MiB with all eight channels and chips. " --> RDNA2: 8x 32b = 256b?
z14 = "L3$ increased to 128 MiB/CP"
...


Gibt es bei Global Foundries in 22nm oder 14HP SOI, ca. 0.5...0.6 mm2/MiB --> I/O Chip? Interposer? Die Stacking? TSMC 7nm Derivat und On Die?

Siehe: https://en.wikichip.org/w/index.php?title=Special%3ASearch&search=ibm+edram&go=
Passend dazu: https://fuse.wikichip.org/news/3383/ibm-doubles-its-14nm-edram-density-adds-hundreds-of-megabytes-of-cache/

basix
2020-10-26, 21:57:21
Ich habe noch etwas mit den Performance Werten auf der Hauptseite rumgespielt. Wenn ich die FSU/Time Spy Skalierung von RDNA1 mit Turing und Ampere Quervergleiche und die selben Werte für RDNA2 verwende, ist N21 XT im Schnitt faktisch gleich auf den Niveau einer 3080 FE. Mit Ausnahme Port Royal und RT, wo die 3080 FE schneller ist.

Stretcher
2020-10-26, 23:32:45
Bei diesem Hype der hier schon wieder generiert wird, kann AMD sowieso nicht liefern, was alle erwarten.

Nakai
2020-10-26, 23:46:17
Einfach abwarten was kommt.

N21XTX soll etwa 15% vor einer N21XT liegen (Rohleistung), laut Specs.

Wenn N21XT leicht über einer RTX3080FE liegt und ich linear nach oben skalieren *hust* komme ich etwa bei einer RTX3090 raus.

Mich interessieren keine ~5% Unterschied. Das Gesamtpaket muss stimmen.

Es klingt aber ziemlich cool, wenn man einen AMD-only Gaming-Rig bauen kann.:freak:

Wenn ich AMD wäre, würde ich meine Produkte ähnlich zu NV platzieren...weil es am Einfachsten ist.

basix
2020-10-26, 23:49:49
Wenn ich AMD wäre, würde ich meine Produkte ähnlich zu NV platzieren...weil es am Einfachsten ist.

Wenn es geht einen Ticken performanter, das wäre ideal für AMD ;)

Sobald man langsamer ist, kann man automatisch weniger Geld verlangen. AMD will aber Marktanteile gewinnen (+ allenfalls ein paar Feature Nachteile bei RT/DLSS), somit etwas günstigere Preise als Nvidia. Die Kombi "etwas schneller + etwas günstiger + etwas mehr Speicher" sieht für den unbedarften Kunden sehr attraktiv aus ;)

Linmoum
2020-10-26, 23:50:48
Stimmt. Sie werden sogar noch ein wenig mehr liefern.

Hype ist das seit letzter Woche nicht mehr, nachdem immer mehr Infos unmittelbar über die AiB und damit erster Hand kommen. Aber das war schon länger logisch, auch, wenn die "lol da kommt eh nur max 3070 alles andere ist Wunschdenken"-Fraktion das nicht sehen wollte.

Nakai
2020-10-26, 23:55:21
Erstmal abwarten...aber AMD scheint das erste Mal seit Langem wieder eine Alternative zu sein. Wann hatten wir das das letzten Mal? :freak:

Brillus
2020-10-26, 23:57:33
Erstmal abwarten...aber AMD scheint das erste Mal seit Langem wieder eine Alternative zu sein. Wann hatten wir das das letzten Mal? :freak:

Hawai?

Complicated
2020-10-27, 00:13:25
Das waren zumindest noch Zeiten als man die Codenamen klar auseinander halten konnte ;)

Palpatin
2020-10-27, 00:26:37
Die Kombi "etwas schneller + etwas günstiger + etwas mehr Speicher" sieht für den unbedarften Kunden sehr attraktiv aus ;)
Dürfte bei N21XTX vs 3090 schwierig werden, außer man bringt eine 32 GB Variante. :freak:

horn 12
2020-10-27, 04:13:29
Big Navi Launch ungewiss, zumindest für das Datum...
https://twitter.com/CapFrameX/status/1320792402152620040


Lisa Su weist auf den LaunchEvent hin:
https://twitter.com/LisaSu/status/1320852802067963907

Zum Glück ist bald Mittwoch 17 Uhr!

Korvaun
2020-10-27, 07:28:37
Dürfte bei N21XTX vs 3090 schwierig werden, außer man bringt eine 32 GB Variante. :freak:

Naja, ich glaube nicht das AMD 4stellig verlangt.... und selbst wenn die XTX sehr teure 999.- kosten würde, das ist immer noch MASSIG PREISWERTER als ne 3090. Die 3090 ist eigentlich komplett ausser Konkurrenz aufgrund des Preises, interessanter ist wie die XTX zur 3080 steht, danach richtet sich wohl eher der Preis.

basix
2020-10-27, 07:41:42
Wenn die XTX mit der 3090 mithalten kann, könnte es zwei Versionen geben: Gamer = 16GB; Frontier/Fury Edition für Prosumer = 32GB. Letztere würde ich dann bei >1k$ erwarten, z.B. 1199$. Eine 16GB Version wird mMn definitiv kommen. 32GB ist fraglich. So oder so wäre das P/L in Games bei der XTX besser. Interessant wären aber Studio usw. Benchmarks, wo Ampere sehr stark ist.

OCmylife
2020-10-27, 08:18:10
Wenn die XTX mit der 3090 mithalten kann, könnte es zwei Versionen geben: Gamer = 16GB; Frontier/Fury Edition für Prosumer = 32GB. Letztere würde ich dann bei >1k$ erwarten, z.B. 1199$. Eine 16GB Version wird mMn definitiv kommen. 32GB ist fraglich. So oder so wäre das P/L in Games bei der XTX besser. Interessant wären aber Studio usw. Benchmarks, wo Ampere sehr stark ist.

Ich hoffe ja, dass die XTX noch knapp unter 1000 Euro liegt. Mit 16 GB würde ich mich in 4K auch zufrieden geben. Besser als die 10 bei der Konkurrenz,die ich in Zukunft einfach als Flaschenhals sehe. Ich würde mich auch freuen, wenn es bei der XT und XTX auch kein Paperlaunch wird und man auch als Endkunde ohne Bot oder massig Zeit eine Karte kaufen kann.
Ich lese hier jetzt schon seit einigen Monaten mit und bin jetzt erst Recht gespannt auf die Ankündigung morgen. Danke für die ganzen Infos und Hochrechnungen. Meine 2070 braucht endlich einen Ersatz für 4K60.

nairune
2020-10-27, 08:24:00
Wenn die XTX nur 8 CUs mehr und den gleichen Speicher wie die XT hat... Glaube ich nicht, dass sie so extrem viel teurer wird. Die ist dann mit aufgerissenem Powerlimit vielleicht 10% schneller. Weder AMD noch die Spieler sind so bescheuert und denken das ist ein guter Deal, wenn 50% teurer als eine XT.

M4xw0lf
2020-10-27, 08:28:21
Wenn die XTX nur 8 CUs mehr und den gleichen Speicher wie die XT hat... Glaube ich nicht, dass sie so extrem viel teurer wird. Die ist dann mit aufgerissenem Powerlimit vielleicht 10% schneller. Weder AMD noch die Spieler sind so bescheuert und denken das ist ein guter Deal, wenn 50% teurer als eine XT.
*Laughs in 3080vs3090* :ulol:

nairune
2020-10-27, 08:29:34
Speicher?...

Brillus
2020-10-27, 08:29:45
Wenn die XTX nur 8 CUs mehr und den gleichen Speicher wie die XT hat... Glaube ich nicht, dass sie so extrem viel teurer wird. Die ist dann mit aufgerissenem Powerlimit vielleicht 10% schneller. Weder AMD noch die Spieler sind so bescheuert und denken das ist ein guter Deal, wenn 50% teurer als eine XT.

3090, 10% schneller und 100% teurer.

Brillus
2020-10-27, 08:30:58
Wenn die XTX mit der 3090 mithalten kann, könnte es zwei Versionen geben: Gamer = 16GB; Frontier/Fury Edition für Prosumer = 32GB. Letztere würde ich dann bei >1k$ erwarten, z.B. 1199$. Eine 16GB Version wird mMn definitiv kommen. 32GB ist fraglich. So oder so wäre das P/L in Games bei der XTX besser. Interessant wären aber Studio usw. Benchmarks, wo Ampere sehr stark ist.

So eine Fury könnte ich mir auch vorstellen aber dann eher 1500€. AMDs letzte Prosumer hatte den auch.

ChaosTM
2020-10-27, 08:44:37
Naja, ich glaube nicht das AMD 4stellig verlangt.... und selbst wenn die XTX sehr teure 999.- kosten würde, das ist immer noch MASSIG PREISWERTER als ne 3090. Die 3090 ist eigentlich komplett ausser Konkurrenz aufgrund des Preises, interessanter ist wie die XTX zur 3080 steht, danach richtet sich wohl eher der Preis.


Für eine 32GB Karte, die die 90er um gut 10% schlägt, würde ich schon fast einen Tausender abdrücken. ;)

Ich befürchte aber, dass der 6900er für mehr als 4k dann doch die Bandbreite fehlt. Außer es kommt eine Version mit mehr als 256bit Busbreite..

Zergra
2020-10-27, 08:50:20
Bin mir ziemlich sicher das die XL NV mit dem 3070 am meisten sorgen bereitet, ggf 10-15% schneller, mehr Speicher ähnlicher Preis. Kein Wunder das NV dort was nachschieben möchte.
Bei der 3080/3090 XT / XTX sehen wird das auch +-5 hinauslaufen.

masked__rider
2020-10-27, 08:55:00
Bei diesem Hype der hier schon wieder generiert wird, kann AMD sowieso nicht liefern, was alle erwarten.
Alle erwarten das Gleiche?

dargo
2020-10-27, 08:56:36
Bin mir ziemlich sicher das die XL NV mit dem 3070 am meisten sorgen bereitet, ggf 10-15% schneller, mehr Speicher ähnlicher Preis. Kein Wunder das NV dort was nachschieben möchte.
Bei der 3080/3090 XT / XTX sehen wird das auch +-5 hinauslaufen.
Bingo. ;)

Nvidia würde niemals im Leben sonst einen 84SM GA102 auf 58SM ohne Konkurrenz runterbrechen. Für solche Sachen entwickelt man in der Regel eine eigene SKU. NV hat sich mit dem GA104 einfach verzettelt.

Relic
2020-10-27, 09:31:27
Bingo. ;)

Nvidia würde niemals im Leben sonst einen 84SM GA102 auf 58SM ohne Konkurrenz runterbrechen. Für solche Sachen entwickelt man in der Regel eine eigene SKU. NV hat sich mit dem GA104 einfach verzettelt.

Wenn man merkt, dass der Prozess nichts taugt, stellt man vielleicht die Entwicklung der eigenen GPU (GA103) ein, weil man genug "Abfall" GPUs aus der GA102 Produktion hat.

Adam D.
2020-10-27, 09:35:04
Wenn man merkt, dass der Prozess nichts taugt, stellt man vielleicht die Entwicklung der eigenen GPU (GA103) ein, weil man genug "Abfall" GPUs aus der GA102 Produktion hat.
Da ist bestimmt was dran. Man hätte, denke ich, einen vollen GA104 nachschieben können, der müsste bei entsprechenden Taktraten doch in etwa auf das projizierte N21XL-Niveau kommen.

Ich bin mal heute auf die Reviews und die finalen Preise von der 3070 gespannt. Wenn es bei den 499$ bleibt, wird N21XL IMO 549-599$.

dargo
2020-10-27, 09:41:32
Wenn man merkt, dass der Prozess nichts taugt, stellt man vielleicht die Entwicklung der eigenen GPU (GA103) ein, weil man genug "Abfall" GPUs aus der GA102 Produktion hat.
Und du denkst wirklich diesen GA102 mit 58SM würde es ohne AMD geben?

Adam D.
2020-10-27, 09:46:04
Und du denkst wirklich diesen GA102 mit 58SM würde es ohne AMD geben?
Ziemlich sicher, aber halt nur wenn die Hypothese stimmt, dass NV so viel "Abfall" bei GA102 produziert. Die Karte wäre jedoch ganz bestimmt nicht so schnell erschienen.

dargo
2020-10-27, 09:51:11
:confused:

NV hat schon vor AMD einen Teil von Ampere released obwohl sie nichts liefern können. Warum genau sollte jetzt NV mit dieser 58SM Karte zu lange warten und sich AMD geschlagen geben? Das ist nichts weiter als Reaktion auf die Konkurrenz im Rahmen schneller Option.

Dschounz
2020-10-27, 09:58:28
Bingo. ;)

Nvidia würde niemals im Leben sonst einen 84SM GA102 auf 58SM ohne Konkurrenz runterbrechen. Für solche Sachen entwickelt man in der Regel eine eigene SKU. NV hat sich mit dem GA104 einfach verzettelt.

Ich denke, verzettelt hat sich nV eher mit dem GA102, zu groß und damit zu schlechte Yields beim Samsung-Prozess.
Ob das beim GA104 auch der Fall ist, wird sich in den nächsten Tagen durch Verfügbarkeit bzw. Nichtverfügbarkeit der 3070 zeigen.

Aber back OT:

Die hektischen Reaktionen seitens nV lassen nur den Schluss zu, dass wir morgen was Schönes zu sehen bekommen um 17:00 Uhr :wink:

HOT
2020-10-27, 09:59:59
Wenn ich das so betrachte, war es ein Fehler von NV, den GA103 mit 6 GPC * 10SMs zu canceln, den Chip hätte man gut gebrauchen können.

Adam D.
2020-10-27, 10:16:10
:confused:

NV hat schon vor AMD einen Teil von Ampere released obwohl sie nichts liefern können. Warum genau sollte jetzt NV mit dieser 58SM Karte zu lange warten und sich AMD geschlagen geben? Das ist nichts weiter als Reaktion auf die Konkurrenz im Rahmen schneller Option.
Dein Argument widerspricht meinem doch gar nicht - oder habe ich dich da jetzt falsch verstanden? Eine 58SM-SKU mit GDDR6X ist bestimmt nicht ganz billig - bestimmt teurer als ein ausgebauter GA104. Klar ist das eine Reaktion auf AMD auf die Schnelle. Aber das schließt ja nicht aus, dass das Teil nächster Jahr ohnehin hätte nachgeschoben werden können. Was macht man denn sonst mit den ganzen GA102, die 3080/3090-Ziele nicht erreichen?

dargo
2020-10-27, 10:20:32
Was hat man mit den ganzen Turings gemacht die nicht als TU102 durchgingen? Oder anders gefragt... wie müllig muss der Prozess sein wenn selbst eine starke Beschneidung der SMs + SI für die 3080 immer noch nicht bei GA102 reichen?

Dampf
2020-10-27, 10:28:45
Wäre es nicht wunderschön morgen folgende Worte zu hören:

"We have added specialized units for handling linear algebra workloads, meaning faster AI performance than ever before. The 6800XT is able to output a peak performance of 500 INT8 TOPS! "

Ich hoffe ja immer noch drauf, dass sie noch auf die schnelle AI Kerne hinzufügen...!

Das wäre doch die Überraschung!

M4xw0lf
2020-10-27, 10:38:58
https://twitter.com/kopite7kimi/status/1320995351415828480

Jesus. A new spec of GA102, between 3080 and 3090.
Da darf man wohl davon ausgehen, dass Nvidia einen mindestens gleichwertigen Konkurrenten für die 3080 kommen sieht.

NC
2020-10-27, 11:14:29
Wieviel TOPs wären denn zZ zu erwarten? Hat jemand lust nachzurechnen?

Savay
2020-10-27, 11:19:06
Ich hoffe ja immer noch drauf, dass sie noch auf die schnelle AI Kerne hinzufügen...!


Wofür genau denn nun unbedingt?

RDNA1 kann eh schon ausgehend von der FP32 Rate
2xFP16
4xINT8
8xINT4

Jetzt das ganze ggü. Navi10 mal 2, zuzüglich des höheren Takts und man kommt da schon auf garnichtmal so geringe theoretische Peak Werte.

Wenn man sich mal einiges dazu durchliest erhöhen die TCs bei nV den realen Durchsatz eh max. um den Faktor 2 ggü den normalen Shadereinheiten bin ich mir bislang nicht ganz sicher ob das besonders Flächeneffizent und der Weisheit letzter Schluss ist.
Und wenn ich dann noch anhand realer DNN basierter Upscaler + Denoiser die tatsächlich erzielbare Performance ansehe liegt selbst ne Vega10 tw. schon mal gerne auf TU102 Niveau.

basix
2020-10-27, 12:02:27
Und wenn ich dann noch anhand realer DNN basierter Upscaler + Denoiser die tatsächlich erzielbare Performance ansehe liegt selbst ne Vega10 tw. schon mal gerne auf TU102 Niveau.

Link? Eigene Erfahrung?

Ich denke auch, dass man nicht zwingend Tensor Cores braucht. Das schöne an den Tensor Cores ist, dass man sie parallel laufen lassen kann. Und Peak Throughput ist sicher höher. Bei AMD läuft das über die normalen SIMD-Einheiten. Da es viele Bubbles in der Auslastung der Einheiten gibt, kann man via Async Compute aber sicher viel von der zusätzlichen Auslastung verstecken. AMDs RIS, CAS und FidelityFX kostet zum Beispiel eigentlich nichts. Andere Effekte unter FidelityFX sind ebenfalls sehr günstig und dazu Open Source: https://www.computerbase.de/2020-05/amd-fidelityfx-neue-effekte/ sowie https://gpuopen.com/effects/

mboeller
2020-10-27, 12:17:56
Wäre es nicht wunderschön morgen folgende Worte zu hören:

"We have added specialized units for handling linear algebra workloads, meaning faster AI performance than ever before. The 6800XT is able to output a peak performance of 500 INT8 TOPS! "

Ich hoffe ja immer noch drauf, dass sie noch auf die schnelle AI Kerne hinzufügen...!

Das wäre doch die Überraschung!

WTF ...

2400MHz x 80CU x 64 x 2 = 24,5 TFLops, das wären aber beim N10 dann nur ~100 INT8 TOPS. Also gleich 5x schneller wäre echt WOW

NC
2020-10-27, 12:33:11
2400MHz x 80CU x 64 x 2 = 24,5 TFLops, das wären aber beim N10 dann nur ~100 INT8 TOPS. Also gleich 5x schneller wäre echt WOWwenn sie 3 Register nutzen, wobei eines das einen Teil der Convolutionmatrix hat, könntest du mit
2400MHz x 80CU x 64 x 15 rechnen, glaub ich. 2x 4muls, 2x 3xhorizontal add und dann noch ein add um beide register auf zu summieren.

Brillus
2020-10-27, 12:47:46
https://twitter.com/kopite7kimi/status/1320995351415828480


Da darf man wohl davon ausgehen, dass Nvidia einen mindestens gleichwertigen Konkurrenten für die 3080 kommen sieht.

NV im Panikmodus.

DrumDub
2020-10-27, 13:28:20
NV im Panikmodus. sieht danach aus. :D

Dschounz
2020-10-27, 13:38:37
sieht danach aus. :D

Für "uns", die Nerds ;)

Für den gemeinen Konsumenten wird's als logische Komplettierung des nV-Portfolios aussehen, da diese Leaks kaum oder gar nicht verfolgen.

Ich bin gespannt, ob sich tatsächlich eine Verschiebung der Marktanteile Richtung AMD in den nächsten Quartalen ergibt...außerdem sind die Brot- und Butterkarten noch nicht auf dem Markt, da wird der Umsatz gemacht.

Palpatin
2020-10-27, 13:43:42
Wenn ich das so betrachte, war es ein Fehler von NV, den GA103 mit 6 GPC * 10SMs zu canceln, den Chip hätte man gut gebrauchen können.
Für eine 9gb 3075 @ 600€?

Savay
2020-10-27, 13:46:59
Link? Eigene Erfahrung?


https://docs.google.com/spreadsheets/d/1Yx-3n_8D3OreyVwQLA-RVqiQCAgNdXDkxScpXTur1Gs/edit#gid=0

Nazar
2020-10-27, 14:06:17
Wenn man merkt, dass der Prozess nichts taugt, stellt man vielleicht die Entwicklung der eigenen GPU (GA103) ein, weil man genug "Abfall" GPUs aus der GA102 Produktion hat.

Das wäre doch in jeder Hinsicht dumm.
Wafer kosten viel Geld und Prozesse sind darauf ausgelegt sich zu verbesser. Eine andere Entwicklung zu stoppen, um vom "Gold"-Abfall, der jetzt angeblich auch noch so groß ist, dass er die 3070 besser bedient als die 3080, Chips zu produzieren, wäre an Dummheit und Inkompetenz kaum noch zu überbieten.
Wenn ein Prozess wirklich so schlecht ist und keine Chance auf Besserung gesehen wird, müsste er sofort gestoppt werden!
Wenn das keine Panik ist, dann ist nV wohl derzeit mit den dümmsten Strategen aller Zeiten besetzt.
nVidia würde einfach aus dem Nichts Geld verschenken... glaubt das irgend jemand ernsthaft? :freak:

Iscaran
2020-10-27, 14:16:34
WTF ...

2400MHz x 80CU x 64 x 2 = 24,5 TFLops, das wären aber beim N10 dann nur ~100 INT8 TOPS. Also gleich 5x schneller wäre echt WOW


5700 XT hat doch aber schon mehr als 400 INT 8 ops:
https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
Seite 21

INT8 Texturing GTexels/s 304.8
Vega64 hat zwar fast 400 GT/s aber dafür bekommt Vega ja die FP "nicht auf die Strasse"

stinki
2020-10-27, 14:22:05
Das wäre doch in jeder Hinsicht dumm.
Wafer kosten viel Geld und Prozesse sind darauf ausgelegt sich zu verbesser. Eine andere Entwicklung zu stoppen, um vom "Gold"-Abfall, der jetzt angeblich auch noch so groß ist, dass er die 3070 besser bedient als die 3080, Chips zu produzieren, wäre an Dummheit und Inkompetenz kaum noch zu überbieten.
Wenn ein Prozess wirklich so schlecht ist und keine Chance auf Besserung gesehen wird, müsste er sofort gestoppt werden!
Wenn das keine Panik ist, dann ist nV wohl derzeit mit den dümmsten Strategen aller Zeiten besetzt.
nVidia würde einfach aus dem Nichts Geld verschenken... glaubt das irgend jemand ernsthaft? :freak:
Es soll ja noch ein "neuer" GA103 kommen mit wahrscheinlich 72 Einheiten (6x12). Der deckt dann 3080 und 3070Ti ab.
Der GA102 wird dann nur noch für 3090 und 3080Ti genutzt.
Das sollte dann auch für einen besseren Yield von Samsung 8nm passen.
Dann ist man wieder auf zwei SKUs pro Grafikchip.

Linmoum
2020-10-27, 14:29:00
Nach den deutlich stärkeren Q3-Zahlen als erwartet ohne High-End-GPUs traue ich es Su noch mehr zu, dass sie mit RDNA2 die Zen-Schiene fährt und Marktanteile abgreifen will. N21 XTX mal ausgeklammert.

davidzo
2020-10-27, 14:30:24
Es soll ja noch ein "neuer" GA103 kommen mit wahrscheinlich 72 Einheiten (6x12). Der deckt dann 3080 und 3070Ti ab.
Der GA102 wird dann nur noch für 3090 und 3080Ti genutzt.
Das sollte dann auch für einen besseren Yield von Samsung 8nm passen.
Dann ist man wieder auf zwei SKUs pro Grafikchip.

Ist schon klar dass der noch in Samsung 8nm kommt? Zuerst hieß es ja GA103 wäre gecancelt, dann heißt es er kommt später und neuerdings heißt es nvidia würde Ampere noch einmal bei TSMC auflegen. Es würde reichen wenn man lediglich GA103 und ggf. einen Mobile + Low End chip noch bei TSMC auflegt und in Q1-2 nachreicht.

HOT
2020-10-27, 14:36:07
Da wurd nix bei TSMC aufgelet, die sind alle 8N.
Und der 103er war offenbar mal mit 6 GPCs * 10SMs gedacht und die neue Variante ist ein neuer Chip mit 6 GPCs * 12SMs.

Nazar
2020-10-27, 14:45:29
Nach den deutlich stärkeren Q3-Zahlen als erwartet ohne High-End-GPUs traue ich es Su noch mehr zu, dass sie mit RDNA2 die Zen-Schiene fährt und Marktanteile abgreifen will. N21 XTX mal ausgeklammert.

Das hoffe ich doch aus mehreren Gründen.
Morgen ist Zahltag! :biggrin:

Nakai
2020-10-27, 15:34:40
5700 XT hat doch aber schon mehr als 400 INT 8 ops:
https://www.amd.com/system/files/documents/rdna-whitepaper.pdf
Seite 21

INT8 Texturing GTexels/s 304.8
Vega64 hat zwar fast 400 GT/s aber dafür bekommt Vega ja die FP "nicht auf die Strasse"

Es geht hierbei um INT8 DotProducts, welche Notwendig für DL/AI sind.

Das ist vollkommen was anderes. INT8 in den TMUs ist für bestimmte Texturformate notwendig/nutzbar. Damit kann man nichts "ausführen".

Ebenso: INT8 ist auch ein Graus bei DL. Man will für normale Usecases nicht unter FP16/Bfloat16 gehen. Das macht das Vorgehen sehr aufwendig.

Reinher von der Präzision braucht ein Neuronales Netzwerk wirklich keine großen Datentypen. FP32 ist fast schon Overkill. FP16/BFloat16 hat eine gute Balance zwischen Performance und Präzision. Bei INT8 muss man das Neuronale Netzwerk immer überarbeiten, da man nur einen Wertebereich von 256 hat. Ergo muss man immer schauen, dass man diesen nicht ausreizt bzw. falls man diesen ausreizt muss man die unterliegende Struktur anpassen bzw. anders trainieren. Ich würde (reinher aus Usability-Gründen) immer auf INT8 verzichten, bis die Toolchains und Prozesse damit gut umgehen können.

basix
2020-10-27, 16:08:45
Sind die meisten Texturformate nicht INT16/FP16?

X-Bow
2020-10-27, 16:18:33
Ist schon klar dass der noch in Samsung 8nm kommt? Zuerst hieß es ja GA103 wäre gecancelt, dann heißt es er kommt später und neuerdings heißt es nvidia würde Ampere noch einmal bei TSMC auflegen. Es würde reichen wenn man lediglich GA103 und ggf. einen Mobile + Low End chip noch bei TSMC auflegt und in Q1-2 nachreicht.

Samsung 8nm ist kein schlechter Prozess, auch wenn GA102 das vermuten lässt. Das GA102 nicht berauschend abliefert liegt nicht an 8nm sondern an GA102. Das wollen viele nur nicht wahr haben weil man dann eingestehen müsste das bei nV auch nur normale Menschen arbeiten wie bei allen anderen Firmen auch welche mal gute und mal schlechte Produkte auf den Markt gebracht haben. :rolleyes:

Auch seh ich das nV Q1 2021 bei TSMC eher als Wunschdenken an. Anfang des Jahres wurden sich doch schon um die freiwerdende TSMC Kapa gerissen und nun soll plötzlich für Q1 2021 genügend Kapa frei sein um GA102@8nm Auszubügeln?:confused:
Nach den Q3 Zahlen von AMD hätten die sicherlich nicht weggesehen wenn TSMC plötzlich wieder 7nm Kapa zur Verfügung hat.

Relic
2020-10-27, 16:21:13
Das wäre doch in jeder Hinsicht dumm.
Wafer kosten viel Geld und Prozesse sind darauf ausgelegt sich zu verbesser. Eine andere Entwicklung zu stoppen, um vom "Gold"-Abfall, der jetzt angeblich auch noch so groß ist, dass er die 3070 besser bedient als die 3080, Chips zu produzieren, wäre an Dummheit und Inkompetenz kaum noch zu überbieten.
Wenn ein Prozess wirklich so schlecht ist und keine Chance auf Besserung gesehen wird, müsste er sofort gestoppt werden!
Wenn das keine Panik ist, dann ist nV wohl derzeit mit den dümmsten Strategen aller Zeiten besetzt.
nVidia würde einfach aus dem Nichts Geld verschenken... glaubt das irgend jemand ernsthaft? :freak:

Wenn man merkt, dass ein Prozess schlecht ist bringt man nicht noch Chips, die man nicht unbedingt braucht. Jeder Tapeout kostete ne Menge Geld. Das ist ne ganz einfache Rechnung ob du mit den teureren Chips auf mittelfristiger Sicht die Fixkosten, die durch einen kleineren (günstigeren) Chip entstehen wieder wettmachen kannst. Und die Rechnung wird schlechter für den kleineren Chip, wenn man recht viele große Chips hat die man beschneiden muss, dass sie laufen.
Warum sollte er sofort gestoppt werden? Nvidia verdient doch Geld damit. Was sollten sie als alternative machen? Weiterhin Pascal verkaufen? TSMC ist voll, woher wollen sie Wafer mit einem besseren Prozess den kurzfristig her bekommen.

masked__rider
2020-10-27, 18:03:58
Die Ruhe vor dem Sturm :freak:

weisserteufel
2020-10-27, 18:08:41
Die haben sogar Cyberpunk für die AMD Grafikkarten verschoben. Coole Aktion.

:freak:

basix
2020-10-27, 18:30:24
Sind die meisten Texturformate nicht INT16/FP16?

Noch zu diesem Thema ein Auszug aus dem RDNA1 Whitepaper:
The texture mapping unit has also doubled performance for 64-bit bi-linear filtering (using 16-bit FP for each channel of RGBA).
Navi 10:
INT8 Texturing [GTexels/s]: 304.8
FP16 Texturing [GTexels/s]: 304.8

Die 380 GigaIntersections/s der XBSX entsprechen wohl ziemlich genau den 380 GTexel/s der TMUs. Werden hier FP16 Operationen verwendet fürs Raytracing? Und könnte man die FP16 Rechenleistung der TMUs auch für ML/DNN Applikationen abzweigen? Ein 80 CU N21 Chip hätte bei verglichen mit Navi 10 ebenfalls verdoppelter Anzahl TMUs ganze 700-750 [GTexel/s || GIntersection/s || GFLOPS(?)]

Nakai
2020-10-27, 18:51:21
Noch zu diesem Thema ein Auszug aus dem RDNA1 Whitepaper:

Navi 10:


Die 380 GigaIntersections/s der XBSX entsprechen wohl ziemlich genau den 380 GTexel/s der TMUs. Werden hier FP16 Operationen verwendet fürs Raytracing? Und könnte man die FP16 Rechenleistung der TMUs auch für ML/DNN Applikationen abzweigen? Ein 80 CU N21 Chip hätte bei verglichen mit Navi 10 ebenfalls verdoppelter Anzahl TMUs ganze 700-750 [GTexel/s || GIntersection/s || GFLOPS(?)]

Wenn man eine GPU mit einem klassischen Prozessor vergleicht.

TMUs ~ Load-Units
ROPs ~ Store-Units

Es ist eher unwahrscheinlich, dass dies erstmal passieren wird. Die TMUs laden die Texturen aus dem Speicher und filtern diese zeitgleich. Dazu braucht man diese ganzen INt8/FP16-Einheiten in den TMUs. Dann werden die gefilterten Pixel dem Shaderprozessor bereitgestellt. Beim Schreiben der Pixel geht es wieder durch die ROPs, wo diese eventuell geglättet werden.
Was machen nun TMUs? Bilinear Filterung zum Beispiel.

https://de.wikipedia.org/wiki/Bilineare_Filterung

Cool, das ist auch eine Matrix-Berechnung im Grunde. Könnte es verwendet werden? Möglich. Derzeit? Eher weniger. Aber im Grunde könnte man bereits für andere Anwendungsbereiche die on-the-fly Berechnungen der TMUs für etwas anderes Nutzen. Das geht aber dann schon eher in Richtung PIM (Processing in Memory).

Neuronale Netzwerke werden hauptsächlich durch Matrix-Multiplikationen und Dot-Produkte berechnet. Frühers hat man da einfach SGEMM verwenden, heute sind das dann spezielle Befehlssätze auf dedizierten Einheiten.

horn 12
2020-10-27, 18:52:10
Nach den deutlich stärkeren Q3-Zahlen als erwartet ohne High-End-GPUs traue ich es Su noch mehr zu, dass sie mit RDNA2 die Zen-Schiene fährt und Marktanteile abgreifen will. N21 XTX mal ausgeklammert.


Wie sehr schätzt du dann ein, dass AMD den Hammer rausholt
XL 449 Dollar
XT 579 Dollar

XTX dann 799 bis 849

SKYNET
2020-10-27, 19:02:49
Nach den deutlich stärkeren Q3-Zahlen als erwartet ohne High-End-GPUs traue ich es Su noch mehr zu, dass sie mit RDNA2 die Zen-Schiene fährt und Marktanteile abgreifen will. N21 XTX mal ausgeklammert.

ich gehe davon aus, das AMD von heute in einem jahr mehr wert ist als intel...
und in 2 jahren knacken sie auch NV...

Lisa ist das beste was AMD jemals passieren konnte, die frau ist eisenhart und hochsympathisch dazu, hoffe die bleibt noch viele jahre!

prinz_valium_2
2020-10-27, 19:03:00
Wie sehr schätzt du dann ein, dass AMD den Hammer rausholt
XL 449 Dollar
XT 579 Dollar

XTX dann 799 bis 849

XL $479 12GB
XT $599 16GB
XTX $799 16GB


XL günstiger als $479 ist viel zu gut.
Wird schließlich mehr Speicher und mehr Leistung als die 3070 haben.

Alles drunter wäre natürlich der Hammer

Lawmachine79
2020-10-27, 19:11:58
ich gehe davon aus, das AMD von heute in einem jahr mehr wert ist als intel...
und in 2 jahren knacken sie auch NV...

Lisa ist das beste was AMD jemals passieren konnte, die frau ist eisenhart und hochsympathisch dazu, hoffe die bleibt noch viele jahre!
Intel mag sein, Intel hat viele wichtiger Entwicklungen auf dem CPU-Markt verpennt; AMD hat diese Entwicklungen aber auf den GPU-Markt verpennt und sollten sie Performancerückstand gegenüber NV reduziert haben, haben sie ihn beim Featureset vergrößert.

Linmoum
2020-10-27, 19:14:17
Was auf dem GPU-Markt ist wird man morgen und die kommenden Wochen sehen. AMD wird diese Gen mehr zu lachen haben, als Nvidia. Und dann kommt womöglich MCM.

dargo
2020-10-27, 19:18:14
Intel mag sein, Intel hat viele wichtiger Entwicklungen auf dem CPU-Markt verpennt; AMD hat diese Entwicklungen aber auf den GPU-Markt verpennt und sollten sie Performancerückstand gegenüber NV reduziert haben, haben sie ihn beim Featureset vergrößert.
Es ist immer wieder amüsant bei dir von Features bei Nvidia zu lesen und dann gurkst du noch mit einem Pascal rum ohne diese Features. :freak: Die Features hättest du schon vor zwei Jahren haben können. Waren/sind die eventuell doch nicht so wichtig?

Grendizer
2020-10-27, 19:23:11
Es ist immer wieder amüsant bei dir von Features bei Nvidia zu lesen und dann gurkst du noch mit einem Pascal rum ohne diese Features. :freak: Die Features hättest du schon vor zwei Jahren haben können. Waren/sind die eventuell doch nicht so wichtig?

Sie waren bei Turing für die gebotene Performance zu teuer.

dargo
2020-10-27, 19:29:10
Die sind bei Ampere nur unwesentlich günstiger.

Adam D.
2020-10-27, 19:32:32
XL $479 12GB
XT $599 16GB
XTX $799 16GB


XL günstiger als $479 ist viel zu gut.
Wird schließlich mehr Speicher und mehr Leistung als die 3070 haben.

Alles drunter wäre natürlich der Hammer
Ihr werdet morgen alle bitter enttäuscht werden.

Sunrise
2020-10-27, 19:33:53
Ihr werdet morgen alle bitter enttäuscht werden.
“disruptive”

Ich wette dagegen...

Allerdings gehe ich von $499, $649-$699 und $799-$849 aus.

dargo
2020-10-27, 19:37:12
Ich wette dagegen...

Ich wette mit. :tongue:

basix
2020-10-27, 19:41:45
Wie sehr schätzt du dann ein, dass AMD den Hammer rausholt
XL 449 Dollar
XT 579 Dollar

XTX dann 799 bis 849

AMD ist nicht die Wohlfahrt ;)

XL 549-599$
XT 679-699$
XTX 849-899$

Alle mit jeweils 16 GByte

ChaosTM
2020-10-27, 19:44:26
XL 500-550$
XT 650-700$
XTX 800-1000(32GB) $

Unicous
2020-10-27, 19:45:08
AMD schafft es so gut wie nie ihre Produkte ordentlich einzupreisen. Das wird aller Voraussicht nach auch diesmal nicht geschehen. Ryzen 5000 zeigt, wenn AMD es sich leisten kann werden auch die Preise entsprechend angesetzt.

Wer also von einem Preisbrecher träumt sollte vielleicht mal einen Schluck klares Wasser zu sich nehmen.;)

basix
2020-10-27, 19:46:18
Wenn man eine GPU mit einem klassischen Prozessor vergleicht.

TMUs ~ Load-Units
ROPs ~ Store-Units

Es ist eher unwahrscheinlich, dass dies erstmal passieren wird. Die TMUs laden die Texturen aus dem Speicher und filtern diese zeitgleich. Dazu braucht man diese ganzen INt8/FP16-Einheiten in den TMUs. Dann werden die gefilterten Pixel dem Shaderprozessor bereitgestellt. Beim Schreiben der Pixel geht es wieder durch die ROPs, wo diese eventuell geglättet werden.
Was machen nun TMUs? Bilinear Filterung zum Beispiel.

https://de.wikipedia.org/wiki/Bilineare_Filterung

Cool, das ist auch eine Matrix-Berechnung im Grunde. Könnte es verwendet werden? Möglich. Derzeit? Eher weniger. Aber im Grunde könnte man bereits für andere Anwendungsbereiche die on-the-fly Berechnungen der TMUs für etwas anderes Nutzen. Das geht aber dann schon eher in Richtung PIM (Processing in Memory).

Neuronale Netzwerke werden hauptsächlich durch Matrix-Multiplikationen und Dot-Produkte berechnet. Frühers hat man da einfach SGEMM verwenden, heute sind das dann spezielle Befehlssätze auf dedizierten Einheiten.

Danke für die Erklärung :up:

Bei PIM wäre AMD zumindest schon lange dabei ;) https://www.computerbase.de/2014-07/amd-mit-stacked-memory-und-pim-bei-zukunfts-apus/

Iscaran
2020-10-27, 19:48:17
Infos über INT/FP


Danke für die Ausführungen ! Aber ein Vorteil der AMD-RDNA Arch ist doch, daß man die INT8/FP16 Texture Ops und FP32 parallel in jeder CU ausführt.

Ein weiteres Detail was viele unterschlagen ist - die nVidia Archs sind in JEDER einheit skaler aufgebaut und der ganze Chip ist dann "super"skalar.

Bei RDNA (aber auch davor) sind die CUs vektor UND haben eine kleine skalar-Einheit integriert.

https://www.techspot.com/article/1874-amd-navi-vs-nvidia-turing-
architecture/

"The CUs in Navi have been significantly revised from GCN as part of AMD's improvement process. Each CU contains two sets of:

32 SPs (IEE754 FP32 and INT32 vector ALUs)
1 SFU
1 INT32 scalar ALU
1 scheduling and dispatch unit
"

Ich habe das bislang immer so verstanden dass die AMD chips also parallel BEIDES ausspucken können. INT32 und FP32 (ALU) aber eben AUCH INT32 skalar operationen.

Etwas dass bei nVidia in der Art nicht möglich ist wegen dem rein skalaren Aufbau. Deswegen, soweit mein Verständnis, versucht man bei Ampere ja einen Teil der bei Turing und älteren Chips "Verschwendeten" INT32s in FP32 "umzuwandeln".

Etwas, daß es so bei AMD nicht braucht - weil der Logik/Chipaufbau von klein auf schon ganz anders und parallelisiert ist.

HOT
2020-10-27, 19:49:58
AMD schafft es so gut wie nie ihre Produkte ordentlich einzupreisen. Das wird aller Voraussicht nach auch diesmal nicht geschehen. Ryzen 5000 zeigt, wenn AMD es sich leisten kann werden auch die Preise entsprechend angesetzt.

Wer also von einem Preisbrecher träumt sollte vielleicht mal einen Schluck klares Wasser zu sich nehmen.;)
Die Preise sind doch annährend so wie beim Ryzen 3000 Launch? Die paar $ mehr machen den Bock doch nicht fett...
Wahrscheinlich könnte AMD für den 5900 und vor allem für den 5950 noch erheblich mehr nehmen.
Wenn die ihre Produkte einpreisen, dann eher zu billig, wenn man das mit Intel und NV vergleicht.

Ich gehe auch von 650-700€ für die 6800XT aus und 1000€ für die 6900XT (vielleicht LCE). Dazwischen wäre dann später in 21 noch Platz für Custom 80-CU-Karten für Kartenhersteller AKA 6900 non-XT.

Linmoum
2020-10-27, 19:50:07
Bei den CPUs hat man (mittlerweile) Mindshare, auch das spielt für Zen3 mit darein. Das fehlt bei den GPUs noch komplett.

Die Frage ist, ob Su auch erst einmal hier mit der kommenden Gen Marktanteile abgreifen will. Q3 aktuell zeigt, dass das dank der CPUs auch möglich ist, wenn man will, ohne am Hungertuch zu nagen. Überspitzt formuliert, aber der Gedanke sollte klar sein.

Davon ab ist Preisbrecher immer eine Frage der Definition. Für mich wäre das z.B. schon eine XL für <=$549, die +-15% vor der 3070 bei doppeltem Speicher liegt. Und das halte ich preislich nicht für abwegig.

kabe
2020-10-27, 19:54:40
Davon ab ist Preisbrecher immer eine Frage der Definition. Für mich wäre das z.B. schon eine XL für <=$549, die +-15% vor der 3070 bei doppeltem Speicher liegt. Und das halte ich preislich nicht für abwegig.

:up:

$549 für die XL wäre schon sehr aggressiv plaziert und würde der 3070 die Luft zum Atmen nehmen.

mboeller
2020-10-27, 20:04:45
Ihr werdet morgen alle bitter enttäuscht werden.

muss nicht sein. Selbst wenn momentan höhere Preise in den Folien drin stehen heißt das noch lange nicht, dass das auch die Preise sind, die AMD morgen verkünden wird. Stichwort: RX5700 (XT)

prinz_valium_2
2020-10-27, 20:05:08
Bei den CPUs hat man (mittlerweile) Mindshare, auch das spielt für Zen3 mit darein. Das fehlt bei den GPUs noch komplett.

Die Frage ist, ob Su auch erst einmal hier mit der kommenden Gen Marktanteile abgreifen will. Q3 aktuell zeigt, dass das dank der CPUs auch möglich ist, wenn man will, ohne am Hungertuch zu nagen. Überspitzt formuliert, aber der Gedanke sollte klar sein.

Davon ab ist Preisbrecher immer eine Frage der Definition. Für mich wäre das z.B. schon eine XL für <=$549, die +-15% vor der 3070 bei doppeltem Speicher liegt. Und das halte ich preislich nicht für abwegig.

Ganz genau.
Amd hat sich bei CPUs seit 4 Jahren bewiesen. Bei GPUs haben sie es nicht mal 1 Jahr in letzter Zeit und davor auch immer nur eine Gen und nie Konstant.

Komplett andere Verhältnisse.

Für mich ist stärker als 3070 für mehr Geld nicht desruptive.
Deswegen $479. So hat man auch das Marketing auf der Seite. "Wir sind besser UND günstiger"
$499 ergibt also wenig Sinn imho, außer man hat 0 Spielraum.
Bis hoch auf $549 ist noch Platz für OC Karten.

basix
2020-10-27, 20:06:44
muss nicht sein. Selbst wenn momentan höhere Preise in den Folien drin stehen heißt das noch lange nicht, dass das auch die Preise sind, die AMD morgen verkünden wird. Stichwort: RX5700 (XT)

Naja, der Navi 10 Move war eher aus der Not geboren und man hat es mit "Jebaiting" den Fans positiver verkaufen wollen als es war. Man hat das Szenario zur Preisreduktion sicher durchgespielt gehabt aber ohne Super-Lineup mit den entsprechenden Preispunkten wäre das nicht passiert.

Für mich ist stärker als 3070 für mehr Geld nicht desruptive.
Deswegen $479. So hat man auch das Marketing auf der Seite. "Wir sind besser UND günstiger"
$499 ergibt also wenig Sinn imho, außer man hat 0 Spielraum.
Bis hoch auf $549 ist noch Platz für OC Karten.

Besser und günstiger sehen wir evtl. verglichen zur 3080 ;) Da sehe ich eher noch eine vierte SKU N21 XE mit 12 GByte und 56-64 CUs für 499$ um die 3070 zu packen. Die Lücke zwischen N21 XL und N22 XTX könnte das zulassen.

Cyberfries
2020-10-27, 20:11:15
$549 für die XL wäre schon sehr aggressiv plaziert und würde der 3070 die Luft zum Atmen nehmen.

Nicht nur der 3070. Auch Ga102-150.
Bei allen Preisüberlegungen dürfen auch die beiden neuen nVidia-Karten nicht vergessen werden.

Es nützt nichts, eine 6900xt bei 999€ zu platzieren,
wenn eine ähnlich schnelle Ga102-250 dann billiger platziert werden kann.
Gleichsam nützt es nichts, eine 6800xl bei 549€ zu platzieren,
wenn eine langsamere Ga102-150 darunter platziert werden muss und die Preisspirale abwärts dreht.
(Beispiele, tatsächliche Leistung natürlich noch unbekannt)

Adam D.
2020-10-27, 20:13:33
Ganz genau.
Amd hat sich bei CPUs seit 4 Jahren bewiesen. Bei GPUs haben sie es nicht mal 1 Jahr in letzter Zeit und davor auch immer nur eine Gen und nie Konstant.

Komplett andere Verhältnisse.

Für mich ist stärker als 3070 für mehr Geld nicht desruptive.
Deswegen $479. So hat man auch das Marketing auf der Seite. "Wir sind besser UND günstiger"
$499 ergibt also wenig Sinn imho, außer man hat 0 Spielraum.
Bis hoch auf $549 ist noch Platz für OC Karten.
Also sorry, aber das ist doch eine bekloppte These. Wenn man besser ist, muss man auch günstiger sein? Es ist doch naiv. AMD ist doch nicht blind. Die sehen genau, wie die 5 verfügbaren Ampere-Karten zu absurden Preisen verkauft werden. Disruptive heißt 2020 kaum mehr als liefern zu können. Und ihr träumt von 10% mehr Leistung, doppelt (!) so viel Speicher und geringerem Preis :ulol:

Ravenhearth
2020-10-27, 20:15:17
“disruptive”

Ich wette dagegen...

Allerdings gehe ich von $499, $649-$699 und $799-$849 aus.
Die Aussage war ja noch von vor der Ampere-Vorstellung. Eine 6800XT für $699 wäre da wirklich disruptive gewesen. Aber Nvidia ist ihnen wohl zuvor gekommen. Selbst die von dir genannten Preise wären zwar nett, aber schwerlich disruptive.

Flinx
2020-10-27, 20:18:38
Im Geizhals...eine 3080 für 1199 Euro...
eine 3090 für 1749 Euro...eine 3090 für 2749 Euro..wie gut eine 3070ti lieferbar ist ...wer weiss das?
.wer liefert, kann verkaufen..Gerüchte kann ich nicht kaufen...
und für Amd sind Wafer sind nun mal begrenzt...also eher 550-580 für eine 6800XL...699 für die 6800XT...

prinz_valium_2
2020-10-27, 20:23:49
Also sorry, aber das ist doch eine bekloppte These. Wenn man besser ist, muss man auch günstiger sein? Es ist doch naiv. AMD ist doch nicht blind. Die sehen genau, wie die 5 verfügbaren Ampere-Karten zu absurden Preisen verkauft werden. Disruptive heißt 2020 kaum mehr als liefern zu können. Und ihr träumt von 10% mehr Leistung, doppelt (!) so viel Speicher und geringerem Preis :ulol:

Wie gesagt. Kann AMD ja machen wie sie wollen
Aber ich kaufe keine 6800XL für 599 und die Mehrheit aller anderen potentiellen Käufer auch nicht. Bei OEM kommt man mit sowas erst recht nicht rein. Das dauert noch länger.

Außerdem gibt es nicht den doppelten Speicher. Ich habe von 12GB für die 6800XL gesprochen.

Lawmachine79
2020-10-27, 20:23:49
Es ist immer wieder amüsant bei dir von Features bei Nvidia zu lesen und dann gurkst du noch mit einem Pascal rum ohne diese Features. :freak: Die Features hättest du schon vor zwei Jahren haben können. Waren/sind die eventuell doch nicht so wichtig?
Weil Raytracing auf einer 2080TI zu langsam ist und der Performancesprung von der 2080TI zu einer 1080Ti zu gering war. Turing war richtig schlecht, nur der Top Dog schlug den alten Top Dog, schon die 2080 RTX war zu Beginn gleich schnell wie die 1080TI. DLSS war anfangs bei Turing nicht wirklich brauchbar. Als es brauchbar wurde, war Ampere schon nicht mehr weit. Bei der 2080TI waren es quasi reine Checklistenfeatures, deren praktischer Nutzen im Spielealltag nicht spürbar (DLSS) oder nicht realisierbar (RT) war.

Und was das "Rumgurken" angeht: die Karte scheint recht potent zu sein. Erst morgen wird AMD sie schlagen können (davon gehe ich dann doch mal aus), nach 3,5 Jahren.

HOT
2020-10-27, 20:27:15
Bei den CPUs hat man (mittlerweile) Mindshare, auch das spielt für Zen3 mit darein. Das fehlt bei den GPUs noch komplett.

Die Frage ist, ob Su auch erst einmal hier mit der kommenden Gen Marktanteile abgreifen will. Q3 aktuell zeigt, dass das dank der CPUs auch möglich ist, wenn man will, ohne am Hungertuch zu nagen. Überspitzt formuliert, aber der Gedanke sollte klar sein.

Davon ab ist Preisbrecher immer eine Frage der Definition. Für mich wäre das z.B. schon eine XL für <=$549, die +-15% vor der 3070 bei doppeltem Speicher liegt. Und das halte ich preislich nicht für abwegig.
Bei den CPUs bringt man mittlerweile auch Umsatz und Gewinn und der kommt von OEMs/ODMs, sowohl im Desktop als auch im Mobile. Hier liegen AMDs große Wachstumsmärkte und hier kommt auch das Geld her. AMD musste hier erst mal KnowHow aufbauen, um den Herstellern entsprechenden Support überhaupt liefern zu können - mit jedem halben Jahr mehr, das Intel hinterherhinkt, wird AMD etablierter in diesen Märkten.
Noch mehr Geld kommt über den Datacenter-Bereich (wobei hier semi-Custom integriert ist und daher die Umsatzexplosion in dem Bereich nicht überbewertet werden darf), aber hier kann AMD sicherlich extrem viel mehr Gewinn einstreichen, wenn man sich hier etabliert. Im Moment muss man die CPUs noch verschleudern in dem Bereich, aber ich würde sagen, spätestens mit Genoa ist man auch hier auf dem Olymp und man wird auch deutlich andere Preise nehmen als heute. Zude diesen Kalibern, also Milan und dann Genoa, ist weder Ice Lake SP noch Saphire Rapids konkurrenzfähig. Ice Lake SP ist "nur" ein Sunny Cove mit Fertigungsproblemen und Saphiere Rapids tritt gegen 5nm an.
Grafik ist sozusagen für AMD nur ein kleines Licht in der Gesamtbilanz, aber ein sehr wichtiges, nicht nur für die eigene GPU-Abteilung und die Konsolen (für APUs weniger, hier reicht offensichtlich auch Vega erst mal), sondern auch als Lizenzmodell für die Zukunft. Daher denke ich, dass AMD hier eher auf Masse mit wenig Marge gehen wird, um Marktanteile zu generieren und wichtiger für Spielehersteller in allen Bereichen zu werden. Im GPU-Bereich könnte nichts besseres passieren, als dass man in Konsole + PC-Gaming + mobile-Gaming nicht mehr an AMD vorbei kommt und das wird auch die Strategie sein langfristig. AMD bietet extrem viel aus einer Hand für Server/HPC/AI/Render-Märkte und kann massiv von Synergien im Unternehmen profitieren, das ist auch der wahre Grund, warum Intel überhaupt Grafik machen, denn würden sie das Thema weiter verschlafen, werden sie von AMD zwangsläufig im Datacenter-Bereich abgehängt, denn hier wird GPU noch extrem wichtig werden, viel mehr als heute. NV hat das ja vorgemacht, NV hat aber keine etablierte CPU-Technik - das ist auch der wahre Grund für den ARM-Aufkauf. Die Strategie aller 3 Tech-Hardware-Hersteller: Full Spectrum Dominance - sehr amerikanisch ;).

horn 12
2020-10-27, 20:31:33
Das würde das Fass ausschlagen:

XL 449
XT 549
XTX 699

Nvidia wäre chancenlos, auch wenn der Refresh mit mehr Shadern 10% schneller würde...

Rincewind
2020-10-27, 20:35:20
AMD ist nicht die Wohlfahrt ;)

XL 549-599$
XT 679-699$
XTX 849-899$

Alle mit jeweils 16 GByte

Oh, ich schaue mal in meine Glaskugel.

Ich gebe in Euro an, da es ja 1:1 zu $ ist:

XL 579 €
XT 749 €
XTX 999 €

Rincewind
2020-10-27, 20:37:08
ups...

Langlay
2020-10-27, 20:44:33
Und was das "Rumgurken" angeht: die Karte scheint recht potent zu sein. Erst morgen wird AMD sie schlagen können (davon gehe ich dann doch mal aus), nach 3,5 Jahren.

Naja die VII und die 1080ti würde ich ungefähr gleichschnell einordnen und die VII kam Anfang 2019 raus.

OgrEGT
2020-10-27, 20:54:59
Das würde das Fass ausschlagen:

XL 449
XT 549
XTX 699

Nvidia wäre chancenlos, auch wenn der Refresh mit mehr Shadern 10% schneller würde...

So etwas ist nur möglich wenn es auch die Verfügbarkeit hergibt da so ein Angebot eine sehr hohe Nachfrage hervorrufen würde...