Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Navi 1X (7nm, RDNA1, 2019) & Navi 2X (7nm, RDNA2, 2020)
stinki
2020-10-22, 16:39:17
Sowas würde ich auf keinen Fall versprechen. Da kann man nur enttäuscht werden.
Preislich wird sich AMD so legen, dass es ähnlich wie NV ist. Weil einen Preiskrieg will keiner und angesichts knapper Wafer lohnt das sowieso nicht.
Ich denke auch AMD wird seine Karten preislich passend zur jeweiligen Navi21 Xy Performance um die Nvidia Karten herum legen.
Wenn XTX schneller als 3080 ist, dann wird sie auch mehr Kosten (Halo Produkt), aber $1500 wie 3090 werden sie bestimmt nicht aufrufen.
Die XT wird zwischen 3070 und 3080 vom Preis her liegen, ich persönlich erwarte eher etwas in Richtung 3080.
Und die XL erwarte ich preislich etwa auf 3070 Niveau, aber eher leicht drüber als drunter.
patrickschur
2020-10-22, 16:53:21
Warum ich mich auf die 3070 bezogen habe? Ganz einfach, weil der VideoCardz Artikel über die 3070 war und nicht über die 3080.
nordic_pegasus
2020-10-22, 16:57:49
wenn die 6900XT wirklich erstmal AMD exklusiv ist, wie steht es dann mit dem Vertrieb? werden die verfügbaren Karten dann auf "alle" Retailer verteilt oder nur ein paar Premium-Partner oder sogar nur exklusiv über AMD.com? Letzteres würde ja AMD die Macht und Verantwortung geben, den Launch besser zu managen als Nvidia mit den Founders Editionen.
Linmoum
2020-10-22, 17:05:46
Ich interpretiere AMD-exklusiv einfach als Referenz-only, aber halt trotzdem über E-Tailer normal bestellbar.
Denniss
2020-10-22, 17:07:48
Igor hat das vBIOS überhaupt erst von Schur bekommen, was er dann da gezeigt hat. Insofern weiß ich, wer da glaubwürdiger ist.Und Igor sowie Helm vom More Power Toll hatten schon drei andere VBios so what?
patrickschur
2020-10-22, 17:11:54
Und Igor sowie Helm vom More Power Toll hatten schon drei andere VBios so what?
Wenn er dort bereits ein vBIOS gehabt hätte, bräuchte er meins ja auch nicht mehr. Bitte vorher deinen Kopf einschalten. ;)
...
Vermutlich sind Dinge ganz offensichtlich wenn sie einem bekannt sind. Die Unwissenden denken dann dass ihre Aussagen logisch durchdacht sind.
Es ist nur lustig wie diese Vermutung, aufgrund der sich selbst zugestandenen Kompetenz, manchmal bissig dargebracht werden.
Redneck
2020-10-22, 17:33:33
Natürlich letzteres. Das eine ist spieleabhängig und kommt gefühlt bei 1,5% aller Spiele bisher zum Einsatz. Mehr Speicher hilft immer, gerade in hohen Auflösungen oder wenn man z.B. gerne modded.
sehe ich ähnlich.
DLSS wird zuweilen als Gamechanger dargestellt, nur wenn diese Pille mit solchen Nebenwirkungen wie zu geringem Speicher einhergeht, würde ich die Pille nicht schlucken wollen.
Ausreichend Speicher und DLSS wäre ein no brainer gewesen, aber da bewegen wir uns bei Team Grün wieder in anderen Preisgefilden, daher würde ich auch die Mehrspeicher Variante wählen, dann eben ohne DLSS.
Grendizer
2020-10-22, 17:56:00
Ich habe noch eine 1080 aber schon länger wegen Bildbearbeitung einen 4K Monitor. Ich wollte mich eigentlich auf die 3080 10 Gb stürzen. Jetzt bin ich doch ganz froh, das die schlechte Verfügbarkeit dafür gesorgt hat, das das Geld immer noch auf dem Konto liegt und für eine AMD Karte verfügbar wäre.
Etwas ähnliches wie DLSS wäre halt nett für die Zukunft und wie schon jemand anderes sagte, in Cyperpunk sollte sie in 4K mit RT 60 fps bringen :biggrin:
Birdman
2020-10-22, 18:39:55
Natürlich letzteres. Das eine ist spieleabhängig und kommt gefühlt bei 1,5% aller Spiele bisher zum Einsatz. Mehr Speicher hilft immer, gerade in hohen Auflösungen oder wenn man z.B. gerne modded.
DLSS bringt aktuell wohl in einer grösseren Anzahl an Spielen was, als es das Mehr an Speicher tun würde.
Selbst mit Modding und Co. bringt man 10GB doch quasi nirgends (jaja, HZD) in die Bredouille und wenn dann nur bei Einstellungen (8k+) wo man lediglich 1-stellige FPS erreicht. Mit so einem Pyrrhussieg kann man sich aber nix kaufen...
Wie dies in der Zukunft aussieht kann aktuell wohl noch keiner sagen.
Falls sich DLSS nicht durchsetzt, dann gewinnt klar der Speicher, ansonsten aber könnte sich DLSS als sinnvoller erweisen. (geringerer Speicherbedarf + besser BildQualität + mehr FPS in einem)
Blediator16
2020-10-22, 18:59:59
DLSS wird sich in der Form nicht durchsetzen - versprochen. Eher wird sich etwas Hersteller agnostisches durchsetzen, wie immer.
Cyberfries
2020-10-22, 19:07:01
Matthew Smith von Techpowerup
https://twitter.com/T4CFantasy/status/1319302423702364161
ASUS ROG RX 6800 XT GAMING OC may be clocked at
1527 / 2160 / 2410
Base / game / boost
Ref
1487 / 2015 / 2250
Etwas niedriger im Takt als die zuletzt genannten Höhenflüge, aber voll i.O.
Sind bei 72 CUs immerhin 18,57 TFlops und 19,91 TFlops.
edit: Was ist eigentlich davon zu halten:?
Even in August, 10000+pts FSU is easy for NAVI21.
kopite7kimi
https://twitter.com/kopite7kimi/status/1319227144992677889
DLSS wird sich in der Form nicht durchsetzen - versprochen.
Und die nächste DLSS-Diskussion für die nächsten paar Seiten.
Irgendwie müssen wir ja noch 1000 Seiten bis Mittwoch füllen.
nairune
2020-10-22, 19:12:54
Wenn 2 GHz Referenztakt sind und eine solche Karte am 8. Oktober gezeigt wurde... dann geht laut Patrick +15-20% OC-Takt ab Werk und steckt die 3080 locker weg? Das klingt irgendwie noch nicht ganz richtig.
dargo
2020-10-22, 19:15:25
Ich bin echt gespannt ob die Referenz noch in 275W rein passt, oder gar in 250W.
Dural
2020-10-22, 19:21:44
Wo bleiben eigentlich die gegen wetten? Das mit dem takt war für so wie so klar.
Gross sprüche klopfen aber doch nichts dahinter.
Patrick schreibt auf Twitter, dass der 3dk-Wert irgendwo zwischen 10000 und 20000 Punkten liegen soll :rolleyes:
Sucht es euch aus. Ich weiß jetzt nicht, wie die 30% zustande kamen - also ob sich da jemand verrechnet hat, oder irgendwie irgendwo abgeschrieben wurden. Wenn da was dran sein sollte, dann sind es weit mehr als 11k.
Zwecks dem VBios noch ne Frage: Könnte es nicht sein, dass es sich je AIB lediglich um ne Referenz-Karte handelt und nur verkauft wird als OC-Version? Dazu passt auch der Link von Cyberfries "ASUS ROG 6800XT Gaming OC". Keine Strix oder TUF, sondern nur ne Ref.-Karte.
Unicous
2020-10-22, 19:27:55
Wetten ohne Wetteinsatz?:confused: Wie wäre es wenn Dural seinen Account hier im 3DC und alle anderen Foren löscht wenn er falsch liegt? :uponder:
dargo
2020-10-22, 19:28:49
Da wette ich dann mit. :D
Linmoum
2020-10-22, 19:29:37
Nicht nur du. ;D
Langlay
2020-10-22, 19:29:57
Wo bleiben eigentlich die gegen wetten? Das mit dem takt war für so wie so klar.
Gross sprüche klopfen aber doch nichts dahinter.
Naja Ampere schafft zwar 2+ GHz, allerdings brauchste dann im Winter auch keine Heizung mehr.
Dural
2020-10-22, 19:35:17
Noch fragen?
https://www.computerbase.de/forum/threads/geforce-rtx-3080-und-3070-nvidia-kontert-navi-21-vorerst-nicht-mit-mehr-speicher.1976377/post-24776047
Linmoum
2020-10-22, 19:36:58
Welche Fragen sollte man haben? Nichts Neues.
Wo bleiben eigentlich die gegen wetten? Das mit dem takt war für so wie so klar.
Gross sprüche klopfen aber doch nichts dahinter.
Wenn schon das Referenz-VBIOS für 3080-Niveau reicht, wo liegen dann die Partner-Kärtchen?
Cyberfries
2020-10-22, 19:49:36
Das mit dem takt war für so wie so klar.
Deckt sich doch mit _rogames Aussagen?
Patrick Schur hat damals gesagt, dass die 2,4GHz Gameclock unter OC erreicht wurden.
Gerade eben hat er das auch auf Twitter nochmals klargestellt, mitsamt weiteren Häppchen.
Wahrscheinlich Blödsinn, ich poste es trotzdem mal:
Oh Gedi....
https://s1.ax1x.com/2020/10/03/01ua11.png
Unicous
2020-10-22, 19:50:33
Wollt schon sagen, wie oft will gedi den Müll noch posten?:confused:
Deckt sich doch mit _rogames Aussagen?
Patrick Schur hat damals gesagt, dass die 2,4GHz Gameclock unter OC erreicht wurden.
Gerade eben hat er das auch auf Twitter nochmals klargestellt, mitsamt weiteren Häppchen.
Oh Gedi....
Oh Mann, sorry - alter Mann und so :redface:
Wetten ohne Wetteinsatz?:confused: Wie wäre es wenn Dural seinen Account hier im 3DC und alle anderen Foren löscht wenn er falsch liegt? :uponder:
Finde ich etwas hart. Wie wäre es mit einem Benutzerbild? Wer wettet und verliert, jeweils ein Jahr AMD oder Nvidia? ;D
Dural
2020-10-22, 20:11:48
Egal wie der wetteinsatz ist, ich bin dabei.
Birdman
2020-10-22, 20:35:07
hmm, ja wie denn nu? werden die 2.8Ghz Boostclock die Gedi versprochen hat nun evtl. doch nicht erreicht?
[MK2]Mythos
2020-10-22, 20:37:45
hmm, ja wie denn nu? werden die 2.8Ghz Boostclock die Gedi versprochen hat nun evtl. doch nicht erreicht?
Nein, es werden 3,0Ghz.
patrickschur
2020-10-22, 20:40:00
ASUS ROG RX 6800 XT GAMING OC may be clocked at
1527 / 2160 / 2410
Wenn die Zahlen stimmen, liegen wir doch bei schon bei fast 2200 MHz Game Clock und bis zur 2400 MHz Marke sind es dann nur noch ~9%. Also was klingt daran unrealistisch? Wenn ich dann noch an die RX 5700 XT erinnern darf, dort haben einigen Karten auch bis zu ihrem Boost Takt geboostest. Mit OC war sogar teilweise noch mehr drin.
hmm, ja wie denn nu? werden die 2.8Ghz Boostclock die Gedi versprochen hat nun evtl. doch nicht erreicht?
Es waren 2.6G. Da fehlt nicht viel, imo. Gescheit OCed mit ner vernünftigen Kühlung - mit dem MPT locker machbar.
2.5G sind so schon drin, wenn man weiß wie Navi tickt.
Berniyh
2020-10-22, 20:55:59
hmm, ja wie denn nu? werden die 2.8Ghz Boostclock die Gedi versprochen hat nun evtl. doch nicht erreicht?
Tatsächlich wird Navi 2x wie der Name schon sagt 2.x GHz erreichen.
3 GHz gibt es leider erst mit Navi 3x, sorry.
Man mutmaßt aber, dass – gemäß komplexer Quantenboostdynamik – sich Navi 21 mit einer geringen Wahrscheinlichkeit bei Taktraten oberhalb von 3 GHz bewegt.
Das kann allerdings nicht nachgewiesen werden, da alleine das Überprüfen der Taktfrequenz den Zustand bereits zerstört.
Rolsch
2020-10-22, 21:03:38
Man mutmaßt aber, dass – gemäß komplexer Quantenboostdynamik – sich Navi 21 mit einer geringen Wahrscheinlichkeit bei Taktraten oberhalb von 3 GHz bewegt.
Das kann allerdings nicht nachgewiesen werden, da alleine das Überprüfen der Taktfrequenz den Zustand bereits zerstört.
Die Katze lebt. :biggrin:
Wenn die Zahlen stimmen, liegen wir doch bei schon bei fast 2200 MHz Game Clock und bis zur 2400 MHz Marke sind es dann nur noch ~9%. Also was klingt daran unrealistisch? Wenn ich dann noch an die RX 5700 XT erinnern darf, dort haben einigen Karten auch bis zu ihrem Boost Takt geboostest. Mit OC war sogar teilweise noch mehr drin.
Referenz-Design - gehe ich mal frech von aus. Der tatsächliche Takt dürfte sich im Schnitt bei 2.2G einpendeln.
Der Release dürfte eigentlich doch dann auch nimmer all zu lang auf sich warten lassen? Kommt RDNA2 im Ref.-Design vielleicht doch zusammen mit Zen 3 raus und Customs 4-6 Wochen später?
BigBangBacket
2020-10-22, 21:10:16
Die Katze lebt. :biggrin:
Schrödingers Gedi.... bevor man die Verpackung nicht aufgemacht hat weiss man nunmal nicht ob nicht doch HBMe verbaut wurde.
Iscaran
2020-10-22, 21:14:20
Matthew Smith von Techpowerup
https://twitter.com/T4CFantasy/status/1319302423702364161
Etwas niedriger im Takt als die zuletzt genannten Höhenflüge, aber voll i.O.
Sind bei 72 CUs immerhin 18,57 TFlops und 19,91 TFlops.
Sollten die Werte so stimmen tippe ich auf folgende 3DC-Index-Werte
313 % für die ASUS OC Version
292 % für die Referenz
Zum Vergleich
3080 = 325 %
3090 = 364 %
Navi 21 mit 80 CU und 2.25 GHz Game Clock würde ich bei 363% verorten :-)
Plasmo
2020-10-22, 21:18:10
...
edit: Was ist eigentlich davon zu halten:?
Zitat:
Even in August, 10000+pts FSU is easy for NAVI21.
kopite7kimi
https://twitter.com/kopite7kimi/status/1319227144992677889
Im August gabs nur den gedrosselten Treiber. Der ungedrosselte wurde laut P.S. erst im September von AMD verteilt.
Birdman
2020-10-22, 21:20:15
Ah sorry Gedi, ich hätte es besser wissen sollen, Red-Dargo war ja der wo die ganze Zeit von 2.8Ghz geredet hat.
Normalerweise sollten mindestens 2,8Ghz erreichbar sein...
Screemer
2020-10-22, 21:23:51
reißen wir post-fetzen ein wenig aus dem kontext. :up: mehr davon!
Linmoum
2020-10-22, 21:26:29
Ah sorry Gedi, ich hätte es besser wissen sollen, Red-Dargo war ja der wo die ganze Zeit von 2.8Ghz geredet hat.Hat das einen Grund, warum du den Rest nicht zitierst?
[MK2]Mythos
2020-10-22, 21:26:32
Ah sorry Gedi, ich hätte es besser wissen sollen, Red-Dargo war ja der wo die ganze Zeit von 2.8Ghz geredet hat.
Übernimmst du jetzt Durals Schicht, oder was ist bei dir los?
Linmoum
2020-10-22, 21:40:19
https://pbs.twimg.com/media/Ek9FIGhWMAEXCRA?format=jpg&name=large
https://twitter.com/13a68154676249c/status/1319349230121648129
Kommen wir N21 jetzt langsam näher? :D
Nazar
2020-10-22, 21:43:36
Du solltest diese Bilder/Tabellen nochmals anschauen/lesen und korrekt interpretieren. Machst dich hier ansonsten nur lächerlich.
Lesen und verstehn scheint nicht deine Stärke zu sein? :wink:
Tatsächlich wird Navi 2x wie der Name schon sagt 2.x GHz erreichen.
3 GHz gibt es leider erst mit Navi 3x, sorry.
Man mutmaßt aber, dass – gemäß komplexer Quantenboostdynamik – sich Navi 21 mit einer geringen Wahrscheinlichkeit bei Taktraten oberhalb von 3 GHz bewegt.
Das kann allerdings nicht nachgewiesen werden, da alleine das Überprüfen der Taktfrequenz den Zustand bereits zerstört.
Mist, dann ist meine Strix 5700XT schon RDNA2. N22 bringt dann allerdings keinen 50% p/w Vorteil. AMD wird verklagt :mad:
Gemäß deiner Aussage verstehe ich nun auch, warum die Leds des Waküblocks nimmer funktionieren: Ab 2.3G (richtige 2.23G) scheint irgendetwas mit Lichtgeschwindikeit durchs PCB zu huschen. Eigentlich dachte ich die wären defekt - nee, die haben sich aus dem Rechner gebeamt. Im Umkehrschluss bedeuten dann ~2.6G, dass sich das komplette Innenleben irgendwo hinbeamt. Also ich kaufe mir keinen N21. Zu gefährlich und zu teuer.
Ob AMD davon wusste und ob das bereits patentiert wurde?
Vielen Dank für den Hinweis :)
crux2005
2020-10-22, 21:46:58
Hoffentlich entpuppt sich Pikatchu nicht als NV Agent der nur einen Hypetrain starten will.
mironicus
2020-10-22, 21:47:45
https://pbs.twimg.com/media/Ek9FIGhWMAEXCRA?format=jpg&name=large
https://twitter.com/13a68154676249c/status/1319349230121648129
Kommen wir N21 jetzt langsam näher? :D
Warum sind die GDDR6-Speicherplätze leer? Eine Grafikkarte mit GPU und HBM2 auf einer Platine die auch GDDR6-Unterstützung ermöglicht?
EDIT: Ist der Speicher auf der Rückseite?
Cyberfries
2020-10-22, 21:51:02
Also was klingt daran unrealistisch?
Passt schon, alles gut. Wir freuen uns über alles was du teilst.
Ob 40mhz hin oder her ... das sind in der Größenordnung ohnehin nicht mal 2%.
Sollten die Werte so stimmen tippe ich auf folgende 3DC-Index-Werte
Rechnest du mit 1,9GHz bei der 5700xt? Das ist Boost, nicht Game Clock.
Im August gabs nur den gedrosselten Treiber.
Willst du damit andeuten, dass N21 mit einem gedrosselten Treiber 10000pt erreicht hätte?
Kommen wir N21 jetzt langsam näher? :D
Welcher Damm ist denn diese Woche gebrochen?
Das geht mir alles viel zu schnell, wochenlang auf Sparflamme und plötzlich gehts Schlag auf Schlag.
Berniyh
2020-10-22, 21:53:57
Willst du damit andeuten, dass N21 mit einem gedrosselten Treiber 10000pt erreicht hätte?
Ja, der zitierte Twittereintrag ist so zu verstehen.
Ob das stimmt ist natürlich eine andere Frage.
Linmoum
2020-10-22, 21:56:14
Welcher Damm ist denn diese Woche gebrochen?
Das geht mir alles viel zu schnell, wochenlang auf Sparflamme und plötzlich gehts Schlag auf Schlag.Wir hatten das hier vor kurzem irgendwo schonmal: Wenn immer mehr nach außen dringt, dann weißt du, dass die AiB ihre Informationen haben und es nicht mehr (sehr) weit entfernt bis zu einem Release ist.
patrickschur
2020-10-22, 21:57:12
@mironicus Hier das gleiche noch mal von mir :P https://pbs.twimg.com/media/Ek9MvJGWMAEy_dD?format=jpg&name=medium
@Cyberfries Danke. Ich weiß nicht mit welchen Takt er gerechnet hat, aber es gibt auch Karten mit 2 GHz Boost.
Die 10.000 Punkte wurden mit dem ungedrosselten Beta Treiber erreicht.
Edit: Achso ihr bezieht euch auf den anderen Tweet. Sollte das stimmen, kann man sogar von noch mehr Punkten rechnen. :freak:
Linmoum
2020-10-22, 21:58:43
@patrickschur
Bei dir sieht man aber weniger von allem. :D Kannst ja mal grob messen und uns sagen, ob >=500mm² kalt oder warm sind. ;D
patrickschur
2020-10-22, 22:03:33
Es ist kein Die auf dem Original zu sehen. ;D
dargo
2020-10-22, 22:10:43
https://pbs.twimg.com/media/Ek9FIGhWMAEXCRA?format=jpg&name=large
https://twitter.com/13a68154676249c/status/1319349230121648129
Kommen wir N21 jetzt langsam näher? :D
Ich finde den HBM2e nicht. :upara:
Mythos;12469837']Übernimmst du jetzt Durals Schicht, oder was ist bei dir los?
Ich liebe dieses Forum. ;D
Es ist kein Die auf dem Original zu sehen. ;D
Ist doch ein Test-Board, oder? Bisschen viele Löcher um die GPU rum. Außer man versorgt 6900 - 6800Xe alle mit dem gleichen Board. Und die Xe soll glaube ich nur 2 Lüfter haben.
Ansonsten fette Spannungsversorgung :freak:
Cyberfries
2020-10-22, 22:21:29
Hier das gleiche noch mal von mir :P https://pbs.twimg.com/media/Ek9MvJGWMAEy_dD?format=jpg&name=medium
Scheint dreimal die gleiche Karte zu sein, den schrägen VRMs und dem schwarzen Klecks rechts oben nach.
Links zu Coreteks (https://pbs.twimg.com/media/Ek0FC2VXEAA-64N?format=jpg&name=large) und EB18 (https://pbs.twimg.com/media/Ek9FIGhWMAEXCRA?format=jpg&name=large) nochmal hier, dann ist alles beisammen.
Warum ist dein Bild schärfer?
Coreteks zeigt ein bisschen mehr um den Chip, wo bei den anderen Beiden ein schwarzes/graues Quadrat liegt.
Die große Frage ist wirklich, was sich da in der Mitte versteckt.
Wahrscheinlich willst du keinen Heatspreader mit dem Namen des AIBs zeigen, verständlich und sinnvoll.
Ob Coreteks die Bildmitte skaliert hat - sprich: ist das Die in Originalgröße eingepasst?
Nicht antworten! - ich will heute Nacht noch schlafen können.
Linmoum
2020-10-22, 22:23:35
Firestrike Ultra
Big Navi: 11500
RTX 3080: 10600
https://twitter.com/i/web/status/1319372044035907614
Edit: Laut ExecutableFix (von ihm kamen die Cezanne/Lucienne Leaks vor ein paar Tagen) ist das wohl die XT.
https://twitter.com/ExecuFix/status/1319373361789755392
Troyan
2020-10-22, 22:29:30
Das ist nur 1,9x schneller als die 5700XT. Entspricht den Borderlands und Gears5 Nummern von AMD.
Die 3080 ist im FSU 1,74x schneller als die 5700XT.
Unicous
2020-10-22, 22:29:46
Pack schon mal die Klamotten, Dural.
XTX soll ja AMD-exklusiv sein.
[MK2]Mythos
2020-10-22, 22:30:11
https://twitter.com/i/web/status/1319372044035907614
Edit: Laut ExecutableFix (von ihm kamen die Cezanne/Lucienne Leaks vor ein paar Tagen) ist das wohl die XT.
https://twitter.com/ExecuFix/status/1319373361789755392
:eek:
Langsam wirds unheimlich!
Unicous
2020-10-22, 22:32:27
Troyan ist bei Bargaining angekommen:
Five stages of grief (https://en.wikipedia.org/wiki/Five_stages_of_grief)
Mythos;12469928']:eek:
Langsam wirds unheimlich!
Jup... Die Daten der XTX wird AMD unter Verschluss halten. Uff.
Iscaran
2020-10-22, 22:34:29
Rechnest du mit 1,9GHz bei der 5700xt? Das ist Boost, nicht Game Clock.
Nein ich rechne mit dem Mittelwert der Werte GFlops/3DC-Index aller RDNA1-Chips. Ich verwende allerdings die jeweils in Wikipedia zu findenden Boost-Clocks für alle Chips um die nominalen Flops zu berechnen und mit dem 3DC-Index in Relation zu setzen (also ja 1.905 GHz für 5700 XT).
Natürlich sind das grobe Schätzwerte.
Rechne ich aber mit dem 5700 XT Game clock von 1755 MHz schiebt es die Werte noch weiter nach oben :-).
Da ich aber einheitlich die Boost-Clock Werte als Basis gewählt habe für ALLE Chips nVidia wie AMD, war mir der Ansatz diese als Referenz für Schätzungen zu nehmen erstmal lieber.
11.5k - hm enttäuschend. Damit liegt man exakt zwischen einer 3080 und 3090. Mit OC kommt man vielleicht gerade so an einer 3090 vorbei.
Screemer
2020-10-22, 22:39:17
11.5k - hm enttäuschend. Damit liegt man exakt zwischen einer 3080 und 3090. Mit OC kommt man vielleicht gerade so an einer 3090 vorbei.
xt != xtx ;)
xt != xtx ;)
Schon klar - das war ein Scherz ;)
[MK2]Mythos
2020-10-22, 22:42:40
Jetzt müssen die Karten nur noch lieferbar sein, dann kann nichts mehr schief gehen. Es sei denn, Dural greift zur ultima ratio und verhindert den Launch mit einer Kompanie von ":rolleyes:".
dargo
2020-10-22, 22:50:32
Mythos;12469928']:eek:
Langsam wirds unheimlich!
Warum? :D
Linmoum
2020-10-22, 22:54:44
ExecutableFix am 17.10:
You know, the one they showed on stage might've been the XL.
XTX > XT > XL
Based on what I've seen (and gut feeling), but don't quote me on this
😅https://twitter.com/ExecuFix/status/1317575449325744131
Vor drei Stunden:
They (probably) cherrypicked games and used a Zen 3 CPU at the Zen 3 event to show off RDNA2
Let's just say you might just be able to qoute me on this
https://twitter.com/ExecuFix/status/1319336091154001921
Wenn das tatsächlich nur die XL war biggest Troll ever.
[MK2]Mythos
2020-10-22, 22:57:50
Also die XT hochgehalten und mit der XL gebencht. Haha, ich glaube wir werden echt was zu lachen haben am 28.10. So oder so.
Birdman
2020-10-22, 22:58:06
Lesen und verstehn scheint nicht deine Stärke zu sein? :wink:
Hui, dass Du Angaben auf dem Screen trotz meinem Hinweis noch nicht gerafft hast....Respect!
Wenn AMD den Boost wirklich auf 2.57G festsetzt, dann kann dies imo nur bedeuten, dass man einer 6900 gefährlich nahe kommt. Hm, unter Wasser mit richtigen 2.5G hat man in etwa 20% mehr Takt als die Referenz. Wenn der Takt gut skaliert ....
Die 6900 wird ein Monster
ExecutableFix am 17.10:
https://twitter.com/ExecuFix/status/1317575449325744131
Vor drei Stunden:
https://twitter.com/ExecuFix/status/1319336091154001921
Wenn das tatsächlich nur die XL war biggest Troll ever.
Ich habe nix anderes behauptet und alles hat gelacht ;D
Lauter Anfänger hier :freak:
nairune
2020-10-22, 23:01:09
Bei aller Euphorie... FS Ultra ist jetzt nicht so ein toller Vergleichsbenchmark. Durchschnittlich liegt da die 5700 XT 10% vor der 2070 Super.
dargo
2020-10-22, 23:02:42
ExecutableFix am 17.10:
https://twitter.com/ExecuFix/status/1317575449325744131
Vor drei Stunden:
https://twitter.com/ExecuFix/status/1319336091154001921
Wenn das tatsächlich nur die XL war biggest Troll ever.
Man muss den Humor von Lisa Su einfach lieben. ;D
Neurosphere
2020-10-22, 23:03:57
https://www.igorslab.de/community/threads/das-k%C3%B6nnen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verr%C3%A4t-die-details.3363/page-3#post-81399
Bin arbeiten :)
Ich habe diverse Benchmarks aller beteiligter Karten gesehen, habe aber die NV-Karten zur Plausibilität noch einmal gegengetestet. Nur war die CPU auf dem Testsystem offensichtlich so grottenlahm, dass ich so etwas nicht veröffentlichen werde. Ein bissl Anstand sollte man sich schon noch gönnen. Da stecken sicher auch Fehler drin. Das darf Videocardz gern tun, ich mache es nicht.
Aber die Tendenz geht schon eher in Richtung Morgenröte über dem dunkelgrünen Wald. Ok, bis auf die Strahlen der aufgehenden Sonne, die dringen nicht noch so recht durchs dichte Unterholz....
Was den doppelten Speicher betrifft, man sollte gutes Geld keinem schlechtem hinterherwerfen. Sagte der Controller und ging bis Neujahr auf Tauchstation
Ach komm gedi, du warst bei weitem nicht der einzige. Genug Leute, auch hier, haben nach der Präsentation das PC World Interview mit Herkelmans Andeutungen gelesen.
Linmoum
2020-10-22, 23:04:41
Bei aller Euphorie... FS Ultra ist jetzt nicht so ein toller Vergleichsbenchmark. Durchschnittlich liegt da die 5700 XT 10% vor der 2070 Super.5700XT und 2070S liegen nicht einmal 1% auseinander im FSU.
https://www.guru3d.com/articles_pages/amd_radeon_rx_5700_and_5700_xt_review,25.html
Bei aller Euphorie... FS Ultra ist jetzt nicht so ein toller Vergleichsbenchmark. Durchschnittlich liegt da die 5700 XT 10% vor der 2070 Super.
Es gibt doch 3 Benchmarks - von der XL :freak:
nairune
2020-10-22, 23:06:24
5700XT und 2070S liegen nicht einmal 1% auseinander im FSU.
https://www.guru3d.com/articles_pages/amd_radeon_rx_5700_and_5700_xt_review,25.html
Ich habe mir die average Werte von jeweils 12.000 Karten angesehen (links noch auf graphics score stellen)...
https://www.3dmark.com/search#advanced?test=fs%20R&cpuId=&gpuId=1285&gpuCount=0&deviceType=ALL&memoryChannels=0&country=&scoreType=graphicsScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=
https://www.3dmark.com/search#advanced?test=fs%20R&cpuId=&gpuId=1279&gpuCount=0&deviceType=ALL&memoryChannels=0&country=&scoreType=graphicsScore&hofMode=false&showInvalidResults=false&freeParams=&minGpuCoreClock=&maxGpuCoreClock=&minGpuMemClock=&maxGpuMemClock=&minCpuClock=&maxCpuClock=
edit: zumindest bei TimeSpy gingen die Punkte mächtig in die Höhe mit einem Treiber Ende letzten Jahres. Würde erklären, warum die ganzen launch reviews zu niedrige Punkte bei Navi haben.
dargo
2020-10-22, 23:06:38
https://www.igorslab.de/community/threads/das-k%C3%B6nnen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verr%C3%A4t-die-details.3363/page-3#post-81399
Hatte ich eigentlich schon erwähnt, dass ich den Humor von Igor auch mag? ;D
"Schnell wie Hanne, aber lahmes oder noch nicht funktionierendes RT?"
Lahme CPU des Testsystems? War wohl noch n 10900K😂
"Schnell wie Hanne, aber lahmes oder noch nicht funktionierendes RT?"
Lahme CPU des Testsystems? War wohl noch n 10900K
interpretiere ich eher als noch nicht funktionierendes RT, oder dass es noch keine RT-Benches gab. Dazu passt auch der letzte Satz, dass mit dem Dez.-Treiber RT funktioniert.
Armaq
2020-10-22, 23:14:30
ExecutableFix am 17.10:
https://twitter.com/ExecuFix/status/1317575449325744131
Vor drei Stunden:
https://twitter.com/ExecuFix/status/1319336091154001921
Wenn das tatsächlich nur die XL war biggest Troll ever.
Das wäre zu brutal. Welches godchild haben sie denn da ausgegraben?
Auf jeden Fall bekommt 2020 zwar insgesamt kein Prädikat, aber aus Sicht eines Enthusiasten ist 2020 ein bombastisches Jahr. Es gibt viel zu diskutieren, viel zu sehen und hoffentlich zu Weihnachten für jeden auch ne grüne oder rote Packung der eine will.
Grendizer
2020-10-22, 23:14:54
Also super Performance bei "normalen" Rendering , aber RT läuft schlecht, könnte ich vermutlich mit leben.
Blediator16
2020-10-22, 23:16:48
Ich wette gegen schlechte RT Leistung.
Wie, willste dich auch abmelden?
dargo
2020-10-22, 23:19:11
Ich wette gegen schlechte RT Leistung.
Vorsicht! Im 3DC gilt schon -5% vs. Konkurrenz als schlecht.
Grendizer
2020-10-22, 23:19:17
Ich wette gegen schlechte RT Leistung.
Das ist bei der Aussage doch relativ eindeutig:
Aber die Tendenz geht schon eher in Richtung Morgenröte über dem dunkelgrünen Wald. Ok, bis auf die Strahlen der aufgehenden Sonne, die dringen nicht noch so recht durchs dichte Unterholz....
patrickschur
2020-10-22, 23:19:33
Warum ist dein Bild schärfer? Coreteks zeigt ein bisschen mehr um den Chip, wo bei den anderen Beiden ein schwarzes/graues Quadrat liegt.
Die große Frage ist wirklich, was sich da in der Mitte versteckt.
Wahrscheinlich willst du keinen Heatspreader mit dem Namen des AIBs zeigen, verständlich und sinnvoll.
Ob Coreteks die Bildmitte skaliert hat - sprich: ist das Die in Originalgröße eingepasst?
Nicht antworten! - ich will heute Nacht noch schlafen können.
Ich werde es vor dir verstecken. :D
Mein Bild ist schärfer, weil ich das Original habe. :biggrin: Coreteks zeigt gar nichts um den Die. Den GDDR6 hat er selber eingefügt und der Die enspricht nicht der Realität. Hat er auch in seinem Video gesagt.
Das was sich in der Mitte versteckt, ist eine kleine Platine mit Kontakten. Auf die Kontakte kommt wiederum die Trägerplatine mit dem Die. Das ganze ist übrigens ein EV Board.
Kaffeekenan
2020-10-22, 23:27:30
Das ist bei der Aussage doch relativ eindeutig:
Aber die Tendenz geht schon eher in Richtung Morgenröte über dem dunkelgrünen Wald. Ok, bis auf die Strahlen der aufgehenden Sonne, die dringen nicht noch so recht durchs dichte Unterholz....
Also Radeon (Morgenröte) über (=schneller) als Nvidia (dunkelgrüner Wald) außer bei Raytracing. Oder?? :)
Armaq
2020-10-22, 23:28:01
Das ist bei der Aussage doch relativ eindeutig:
Aber die Tendenz geht schon eher in Richtung Morgenröte über dem dunkelgrünen Wald. Ok, bis auf die Strahlen der aufgehenden Sonne, die dringen nicht noch so recht durchs dichte Unterholz....
Das ist ja auch nicht verwunderlich. So ganz in der Wurstsuppe ist nvidia nun auch nicht daher geschwommen.
Complicated
2020-10-22, 23:31:12
Jetzt wird es aber wirklich Zeit für den Launch. Gedichtinterpretationen vom Märchenonkel im Spekulationsthread. Ich werde mich wohl erst wieder in einer Woche hier im Forum mit Daten auseinandersetzen....
weisserteufel
2020-10-22, 23:31:21
Er schreibt ja "nicht noch" und meint wohl "noch nicht".
Ist ja auch richtig. Gibt es eigentlich aktuell ein DXR Spiel oder sind die alle Nvidia RTX? Gear of War soll doch erst einen Patch für DXR bekommen, oder?
BTW Mein Hypetrain ist schon komplett entgleist und wenn Lisa uns alle wirklich mit der XL trollt, dann breche ich am Mittwoch komplett weg.
RitterRost
2020-10-22, 23:32:09
@patrickschur
Warum ist da Kapton Tape auf den Speicher Pads? Man müsste den Speicher doch vor dem Bestücken der Platine aufbacken, oder?
Slipknot79
2020-10-22, 23:37:40
Vorsicht! Im 3DC gilt schon -5% vs. Konkurrenz als schlecht.
Es wird nicht -5% sein, sondern vielmehr Div/0.
Einfach weil out of the box genau gar kein Spiel mit RT auf BN laufen wird, weil NV irgendwas in die Codes dropen hat lassen, dass erst mal die Spiele gepachted werden müssen. :mad:
Nach den Patches, falls es überhaupt welche geben wird, am ehesten noch für CP2077, erwarte ich mir eher Turing Leistung.
Screemer
2020-10-23, 01:00:02
Ich wette gegen schlechte RT Leistung.
ich setzte auf turing niveau.
mal davon ab, dass ich davon ausgehe keines der spiele mit rt kommt ohne irgendwelche blobs von nvidia aus. ob wir überhaupt benches von dxr-software sehen werden halte ich bei release für unwarscheinlich.
einzige möglichkeit wäre, dass amd richtig geld und devs in die hand genommen hat und bei den entwicklern geparkt hat. bei sachen wie control oder metro, denen nvidia die kohle schon in den hals gesteckt hat, wage ich aber selbst das zu bezweifeln.
crux2005
2020-10-23, 01:12:02
ich setzte auf turing niveau.
Ist Ampere so viel effektiver mit RTX als Turing? Was ich so sehe (CB.de Tests) verliert die 2080 Ti ~ gleich viel Leistung wie 3080 mit RTX (ohne DLSS). Nur die 2080 und 2070/S verlieren mehr Leistung.
mal davon ab, dass ich davon ausgehe keines der spiele mit rt kommt ohne irgendwelche blobs von nvidia aus. ob wir überhaupt benches von dxr-software sehen werden halte ich bei release für unwarscheinlich.
Glaube ich nicht. DXR ist teil von DX12U. Die Spiele müssen mit AMD oder GeForce HW Laufen. Wie gut ist natürlich was anderes. Bzw. wenn auf NV RTX uArch optimiert wurde.
einzige möglichkeit wäre, dass amd richtig geld und devs in die hand genommen hat und bei den entwicklern geparkt hat. bei sachen wie control oder metro, denen nvidia die kohle schon in den hals gesteckt hat, wage ich aber selbst das zu bezweifeln.
Sicher das NV Geld bezahlt hat für RTX Unterstützung? Eher wollten die Studios DXR bieten und NV hat Grafikkarten und Manpower gegeben.
Screemer
2020-10-23, 01:16:34
Schon Mal aufs Releasedatum von control, bf v und Metro geschaut. Da war dxr und dx12u noch ein gute Stück weg.
Wege Turing sollte ich noch Mal spezifizieren. Konkret denke ich da mehr an tu104/6 als an 102.
Fragman
2020-10-23, 01:21:16
ob wir überhaupt benches von dxr-software sehen werden halte ich bei release für unwarscheinlich.
Das wäre das 1. was ich benchen würde, weil nicht sicher ist, wo AMD da landet. Rasterizer Performance ist doch egal, seien wir ehrlich. 3080 Niveau oder leicht drüber oder leicht drunter, uninteressant bei dem schon erreichten Leistungslevel. Bei den zu erwartenden Preisen können die aber nicht nur Turingperformance abliefern. Außer man folgt dem Argument, das man in 2 Jahren wieder neu kauft. Wobei auch da der Wiederverkaufswert deutlich geringer wäre und bisher Langlebigkeit auch immer eins der top Argumente war.
Screemer
2020-10-23, 01:23:19
Benchen kannst halt nur Software sie kompatibel ist. Von auf dxr umgebogenem Port Royal abgesehen, würde ich da jetzt nicht zu viel erwarten. Ganz ehrlich interessiert mich vor allem rasterizer Performance und ein evtl. ris-nachfolger.
RT Performance lässt sich imho heute noch nicht wirklich zeichnen. Die ersten Crossplatform releases die auch auf den neuen Konsolen RT nutzen sind für mich bei Erscheinen der Gradmesser.
Vielleicht zaubert AMD aber mit den Partnern da ein paar Demos aus dem Hut und bencht gegen nv hw.
crux2005
2020-10-23, 01:28:50
Schon Mal aufs Releasedatum von control, bf v und Metro geschaut. Da war dxr und dx12u noch ein gute Stück weg.
Im schlimmsten Fall werden die älteren Spiele gepatched. Fraglich ist ob die Masse die DXR Leistung überhaupt interessiert. Wenn ja, dann nur in neuen Spielen die Winter 2020 kommen: WD: Legion und Cyberpunk. (beides "NV Titel")
Wege Turing sollte ich noch Mal spezifizieren. Konkret denke ich da mehr an tu104/6 als an 102.
OK. Erwarte da wegen den neuen Konsolen mehr von RDNA2.
horn 12
2020-10-23, 03:46:33
Mann oh Mann
Dies wird ein Fest bei AMD am kommenden Mittwoch:
XL 15% über der 3070
XT 5% über 3080
XTX 10% über einer 3090
So würde ich es mir bei AMD vorstellen:
449 Dollar
549 Dollar bis 599 Dollar
799 bis 899 Dollar (Prestige Produkt)
dildo4u
2020-10-23, 05:22:22
Schon Mal aufs Releasedatum von control, bf v und Metro geschaut. Da war dxr und dx12u noch ein gute Stück weg.
Wege Turing sollte ich noch Mal spezifizieren. Konkret denke ich da mehr an tu104/6 als an 102.
DXR 1.0 ist alt darauf basiert das RT in BF5.
DX12U hat DXR1.1 gebracht.
Ich vermute das alles was auf Pascal geht auch auf AMD keine Probleme macht.
maximus_hertus
2020-10-23, 07:29:22
Mann oh Mann
Dies wird ein Fest bei AMD am kommenden Mittwoch:
XL 15% über der 3070
XT 5% über 3080
XTX 10% über einer 3090
So würde ich es mir bei AMD vorstellen:
449 Dollar
549 Dollar bis 599 Dollar
799 bis 899 Dollar (Prestige Produkt)
Nur 10% über der 3090 und dann überteuerte fast 1000 USD / Euro? Ohne DLSS und mit nur mäßigem RT?
Viel Erfolg ;)
Was hat AMD euch angetan, dass es jedes mal einen so krassen Hypetrain gibt? Am Mittwoch wird es so viele lange Gesichter geben. Gebt AMD doch eine realistische Chance. Warum haßt ihr AMD und versucht alles, damit es am Mittwoch auf jeden Fall zu einer Enttäuschung kommt?
Lieber weniger erwarten bzw. realistisch bleiben und falls es doch besser läuft, kann man sich freuen. So kann es nur eine Enttäuschung werden....
Berniyh
2020-10-23, 07:38:36
Es gibt doch 3 Benchmarks - von der XL :freak:
Ich würde das nicht als Fakt nehmen. Zumal er explizit erwähnt, dass ihm das sein Bauchgefühl gesagt hat.
Rasterizer Performance ist doch egal, seien wir ehrlich.
Die findest also alles außer Raytracing egal? Da ist aber jemand Nvidia voll auf den Leim gegangen. :freak:
Nur 10% über der 3090 und dann überteuerte fast 1000 USD / Euro? Ohne DLSS und mit nur mäßigem RT?
Viel Erfolg ;)
Was hat AMD euch angetan, dass es jedes mal einen so krassen Hypetrain gibt? Am Mittwoch wird es so viele lange Gesichter geben. Gebt AMD doch eine realistische Chance. Warum haßt ihr AMD und versucht alles, damit es am Mittwoch auf jeden Fall zu einer Enttäuschung kommt?
Lieber weniger erwarten bzw. realistisch bleiben und falls es doch besser läuft, kann man sich freuen. So kann es nur eine Enttäuschung werden....
Euch/Ihr? Ist horn 12 von adeligem Geschlecht?
Cyberfries
2020-10-23, 07:48:01
Was hat AMD euch angetan, dass es jedes mal einen so krassen Hypetrain gibt?
Ich stimme dir zu. Ist nur verdammt schwierig bei der aktuellen Gerüchteflut.
https://twitter.com/KittyYYuko/status/1319463239860715520
That's not the case because the
12800
16700
8000
are based on an ES CARD with BETA driver.
Yuko Yoshida äußert sich mit Benchmark-Werten eines 6800xt(?)-ES.
Die von Avery bereitgestellten 3080-Vergleichswerte deuten ein Kopf-an-Kopf-Rennen an,
mit Vorsprung in FSU und Rückstand in TS/TSE. ( FSU/TS/TSE, FSE 24200 )
edit: RT-Leistung eher schlecht. Anzweifelnde Grafik von harukaze5719 (https://twitter.com/harukaze5719/status/1319497797389873152) zur Leistung.
Ich werde es vor dir verstecken. :D
Besten Dank!
Nazar
2020-10-23, 08:31:04
Hui, dass Du Angaben auf dem Screen trotz meinem Hinweis noch nicht gerafft hast....Respect!
"Geschickte" Werbung.
Wenn du es nicht verstehst, dann frage doch einfach nach!
Ich glaube aber schon, dass du es verstanden hast, nun aber zu feige bist zuzugeben, dass du dich gewaltig verrannt hast!
Sei es drum. Ich werde dein Postings ab jetzt ignorieren, da deine "Diskussionskultur" für die dunkelste Zone des Körpers gemacht ist. :wink:
@Thema
Das war niemals die XL mit mehr als 10.000 Punkten.
Sagte Patrick Schur nicht, dass die >10.000 Punkte in FSU mit einer XT erreicht wurde?
Da vertraue ich mal dem Insider.
Linmoum
2020-10-23, 08:32:48
Sagt doch auch niemand, dass die mutmaßlichen 11500 von einer XL sind.
dargo
2020-10-23, 08:35:21
@Thema
Das war niemals die XL mit mehr als 10.000 Punkten.
Sagte Patrick Schur nicht, dass die >10.000 Punkte in FSU mit einer XT erreicht wurde?
Da vertraue ich mal dem Insider.
Bitte nochmal richtig im Kontext lesen. ;)
nairune
2020-10-23, 08:39:02
Wobei 10.000 für die XL auch drin sein könnten. Ich mein wenn die XT 11500-12800 packt... bei AMD sind die Abstände doch eher so 10-15% zwischen den SKUs desselben Chips.
Vielleicht zaubert AMD aber mit den Partnern da ein paar Demos aus dem Hut und bencht gegen nv hw.
AMD sollte doch gute Kontakte mit Ubisoft haben. Watch Dogs: Legion kommt mit Ray Tracing und erscheint am 29.10. Vielleicht wäre hier ein Benchmarkvergleich möglich.
Nazar
2020-10-23, 08:48:01
"Schnell wie Hanne, aber lahmes oder noch nicht funktionierendes RT?"
Lahme CPU des Testsystems? War wohl noch n 10900K😂
Gibt es denn derzeit überhaupt Spiele die nicht exklusiv auf nV RT getrimmt sind?
Ist der RT Benchmark vom 3Dmark DX12RT basierend, bzw. neutral?
Mit welchen RT Benchmarks kann man überhaupt derzeit einen Vergleich erstellen?
Asaraki
2020-10-23, 08:49:40
Gibt es denn derzeit überhaupt Spiele die nicht exklusiv auf nV RT getrimmt sind?
Ist der RT Benchmark vom 3Dmark DX12RT basierend, bzw. neutral?
Mit welchen RT Benchmarks kann man überhaupt derzeit einen Vergleich erstellen?
Der RT Bench von 3DMark basiert natürlich auf DX12 und hat nix mit "RTX" zu tun, das passt also.
Redneck
2020-10-23, 08:52:39
https://www.igorslab.de/community/threads/das-k%C3%B6nnen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verr%C3%A4t-die-details.3363/page-3#post-81399
uiuiui.. die erste passage ist eindeutig.
womit ich nicht wirklich etwas anfangen kann ist dies :
"Was den doppelten Speicher betrifft, man sollte gutes Geld keinem schlechtem hinterherwerfen. Sagte der Controller und ging bis Neujahr auf Tauchstation"
Soll sich das auf die gestrichenen 3070/3080 mit 16/20GB beziehen, die evtl. erst nächstes Jahr kommen ??
dargo
2020-10-23, 08:56:42
Ganz einfach... RTX 3080 20GB sowie RTX 3070 16GB gecancelt.
Linmoum
2020-10-23, 08:59:10
Laut Yuko FSE für die XT (ES) 24200.
https://mobile.twitter.com/KittyYYuko/status/1319503725715542017
Eine 3080 liegt bei knapp unter 21000.
Nazar
2020-10-23, 08:59:17
Bitte nochmal richtig im Kontext lesen. ;)
Um ehrlich zu sein, stehe ich da gerade vor einer Wand von Bäumen.... :confused:
Aber ich werde versuchen diesen ominösen Kontext zu finden. ;)
Der RT Bench von 3DMark basiert natürlich auf DX12 und hat nix mit "RTX" zu tun, das passt also.
Danke. :)
dargo
2020-10-23, 09:00:34
Mit dem Enginering-Sample kann man doch eh nicht viel anfangen. Mit hoher Wahrscheinlichkeit keine finalen Taktraten sowie Beta-Treiber.
Cyberfries
2020-10-23, 09:04:50
Wenn du es nicht verstehst, dann frage doch einfach nach!
Bin zwar nicht beteiligt, mich würde es aber trotzdem interessieren.
Du vergleichst da doch 1080p mit 4k? Oder stört dich, dass AMDs kommende Karten fehlen?
Sagte der Controller und ging bis Neujahr auf Tauchstation"
Doppelter Speicher bei Ampere gestrichen, weil aufgrund schlechter Verkaufsaussichten (Verfügbarkeit?)
die Karten mit doppeltem Speicher in diesem Jahr nicht mehr finanziell sinnvoll wären.
Yes, but the scores that guy posted were overall scores, not graphic scores
ExecutableFix (https://twitter.com/ExecuFix/status/1319527052178051072) behauptet die Werte wären overall, nicht graphics, wodurch die nVidia-Vergleichswerte sinken.
Anmerken sollte man aber, dass AMD im Firestrike bereits bei N1x überdurchschnittlich stark ist.
edit.
Laut Yuko TSE für die XT (ES) 24200.
Nicht TSE, FSE, siehe etwas weiter oben.
Grendizer
2020-10-23, 09:09:47
Bei 16/20 Gb kann man halt nur 1 Chip statt 2 verkaufen. Keine Ahnung, was nVidia an dem zusätzlichen Speicher verdienen würde, aber vermutlich weniger, als wenn sie 2 Karten mit 2 Chips verkaufen.
edit: Wenn 16/20 Gb nur als Herstellerdesign geplant sind, dann verdient nVidia da vieleicht auch gar nichts zusätzlich.
robbitop
2020-10-23, 09:19:15
Ich tippe darauf, dass der Cache zusätzlich zu der L1 Verbesserung ist.
RDNA2 ist auch in der XSX und PS5 verbaut. Dort ist nichts von einer so geringen Bandbreite pro TFLOP zu sehen.
Die kleineren Modelle (N22 und 23) mit deutlich weniger TFLOPs haben (proklamiert) deutlich unterproportionale Bandbreitensenkung. Auch die teildeaktivierten N21 scheinen laut aktuellen Gerüchten 16 GBPS GDDR6 zu haben und zwar im 256 bit Vollausbau.
Das spricht dafür, dass ein zusätzlicher Cache - zumindest in signifikanter Form - nur in N21 verbaut ist. Auch sieht es für mich so aus, als dass bei den Salvagemodellen nicht nur CUs deaktiviert werden sondern auch Teile des Caches. Ansonsten könnte man auch günstigere GDDR6 Module nehmen oder auch Kanäle ausknipsen.
Berniyh
2020-10-23, 09:25:26
Laut Yuko FSE für die XT (ES) 24200.
https://mobile.twitter.com/KittyYYuko/status/1319503725715542017
Eine 3080 liegt bei knapp unter 21000.
Die wesentlichere Info dabei ist meiner Meinung nach, dass er der XT 80CU zuordnet.
Die letzten Leaks behaupteten ja, dass die 80 CU exklusiv für AMD wären.
Das könnte ich ehrlich gesagt nicht so ganz nachvollziehen. Der Prozess bei TSMC hat angeblich extrem gute Yields und geringe Defektdichten, es sollte also genügend gute Dies geben.
Die dann künstlich zu beschneiden um ein Halo Produkt mit geringen Stückzahlen zu bringen erscheint mir einfach nicht sinnvoll.
Berniyh
2020-10-23, 09:27:13
Bei 16/20 Gb kann man halt nur 1 Chip statt 2 verkaufen. Keine Ahnung, was nVidia an dem zusätzlichen Speicher verdienen würde, aber vermutlich weniger, als wenn sie 2 Karten mit 2 Chips verkaufen.
edit: Wenn 16/20 Gb nur als Herstellerdesign geplant sind, dann verdient nVidia da vieleicht auch gar nichts zusätzlich.
Derzeit verkaufen sie doch so gut wie gar keine Karten? Da wäre es sinnvoller für die Karten mehr mitzunehmen (d.h. mit mehr Speicher zu verkaufen und so aufzuwerten).
dargo
2020-10-23, 09:28:43
Die wesentlichere Info dabei ist meiner Meinung nach, dass er der XT 80CU zuordnet.
:confused:
Er spricht doch ganz klar von ES-XT = 80 CUs.
Berniyh
2020-10-23, 09:28:54
Das spricht dafür, dass ein zusätzlicher Cache - zumindest in signifikanter Form - nur in N21 verbaut ist. Auch sieht es für mich so aus, als dass bei den Salvagemodellen nicht nur CUs deaktiviert werden sondern auch Teile des Caches. Ansonsten könnte man auch günstigere GDDR6 Module nehmen oder auch Kanäle ausknipsen.
Ne, wenn dann wird man den Cache bei allen Modellen einführen.
Allerdings evtl. in kleinerem Umfang.
Macht man ja bei den CPUs auch so.
Berniyh
2020-10-23, 09:29:19
:confused:
Er spricht doch ganz klar von ES-XT = 80 CUs.
Ja und die letzten Leaks sagten: XT = 72 CUs ;)
dargo
2020-10-23, 09:31:45
Ja und die letzten Leaks sagten: XT = 72 CUs ;)
Und weiter? Ich weiß nicht worauf du hinaus willst.
Berniyh
2020-10-23, 09:35:27
Und weiter? Ich weiß nicht worauf du hinaus willst.
Er aber sagt: XT = 80 CU
Was gibt es da nicht zu verstehen?:confused:
dargo
2020-10-23, 09:36:45
:facepalm:
Er sagt ES-XT = 80 CUs.
Wie soll man sonst ein Enginering-Sample testen? Mit deaktivierten CUs? Das wäre mal ein sehr aussagekrätige Test. :usweet:
Edit:
Ich weiß immer noch nicht was hier manche versuchen von einem 80CUs Enginering Sample abzuleiten. :confused: Wenn das Ding mit ~400Mhz weniger gelaufen ist schafft eine finale XT mit 72 CUs locker die gleiche Performance. Mal ganz davon ab, dass wir gar nicht den Stand der Betatreiber bei dieser ES Karte kennen.
Es geht voran...
https://www.youtube.com/watch?v=cohJQu9oYKQ
Geschichte wird gemacht...
Freue mich auf BN und seine 16Gb :)
(da NV ja wohl vorerst bei 6/8/10(24) bleibt :()
Selbst N22 mit 12Gb ist da noch interessanter als ne 3070 8Gb...
M.f.G. JVC
Berniyh
2020-10-23, 09:59:45
:facepalm:
Er sagt ES-XT = 80 CUs.
Wie soll man sonst ein Enginering-Sample testen? Mit deaktivierten CUs? Das wäre mal ein sehr aussagekrätige Test. :usweet:
Edit:
Ich weiß immer noch nicht was hier manche versuchen von einem 80CUs Enginering Sample abzuleiten. :confused: Wenn das Ding mit ~400Mhz weniger gelaufen ist schafft eine finale XT mit 72 CUs locker die gleiche Performance. Mal ganz davon ab, dass wir gar nicht den Stand der Betatreiber bei dieser ES Karte kennen.
Die ganzen Leaks kommen doch von AIBs. Die – wenn man den letzten Infos Glauben schenken mag – keine XTX bekommen.
Wenn also die finale XT mit 72 CUs kommt, warum sollte AMD denen dann ein ES mit 80 CU geben?
Das macht nämlich keinen Sinn …
Iscaran
2020-10-23, 10:02:59
:facepalm:
Er sagt ES-XT = 80 CUs.
Wie soll man sonst ein Enginering-Sample testen? Mit deaktivierten CUs? Das wäre mal ein sehr aussagekrätige Test. :usweet:
Momentan ist das eh noch schwer zu sagen.
Das einzige was sich abzeichnet ist, daß es wohl 3 Ausbaustufen des N21 gibt.
XL, XT und XTX. Und es wurde auch schon mehrfach erwähnt dass es 80/72/64 CUs sind.
Die kleinstee mit 64 CUs kann dann eigentlich nurals 3070 Konter aufgestellt sein
die 72 mit entsprechend Takt würde einer 3080 begegnen
Und in einer XTX mit 80 CUs und hohem Takt kann man 3090 Potential sehen.
Vielmehr als das ist aktuell kaum bekannt.
Einzig die Taktraten find ich noch etwas seltsam und verwirren, wer hier was schreibt.
Eine 64 CU salvage Lösung mit 2.4 GHz Game Clock wäre nur minimal langsamer als die 72 CU mit 2.3 GHz clock usw.
Irgendwas passt da nicht ins Bild - es sei denn AMD mach die 64 CU-Lösung im Sweet spot um die 50% P/W zu treffen (die man ja angekündigt) hat.
Das könnte man dann als Indiz verwerten, daß die größeren Ausbaustufen an diese 50% P/w nicht rankommen.
Wenn ich ein wenig Zeit finde, kann ich ja mal ein bisschen mit den diskutierten TBP in Relation zur erwarteten Performance spielen - vielleicht ergibt sich da ein Ansatz wie man die 3 Stufen nun weiter Einordnen kann.
Eigentlich sind ja 3 TGPs kommuniziert worden
289W => *1.25 = 360 W TBP
255W => *1.25 = 320 W TBP
203W => *1.25 = 250 W TBP
Vielleicht könnte man ja basierend auf N10 eine Art Hochrechnung aufstellen wieviel W pro CU verloren geht und wie die W/ Takt Kurve aussieht und daraus dann auf N21 mit 64/72/80 CUs und den Taktraten die zu den 360/320/250 W führen würden?
dargo
2020-10-23, 10:06:03
Einzig die Taktraten find ich noch etwas seltsam und verwirren, wer hier was schreibt.
Eine 64 CU salvage Lösung mit 2.4 GHz Game Clock wäre nur minimal langsamer als die 72 CU mit 2.3 GHz clock usw.
Wie kommst du jetzt darauf, dass eine N21XL mit 64CUs einen Gameclock von 2,4GHz haben wird? Das könnte durchaus auf die eine oder andere AIB-Karte mit starken OC (höheres Powerlimit im Performance-Bios) zutreffen. Die Regel wird das aber sicherlich nicht sein.
Irgendwas passt da nicht ins Bild - es sei denn AMD mach die 64 CU-Lösung im Sweet spot um die 50% P/W zu treffen (die man ja angekündigt) hat.
Das könnte man dann als Indiz verwerten, daß die größeren Ausbaustufen an diese 50% P/w nicht rankommen.
Ihr mit euren +50% Perf/W. :tongue: Das war nichts weiter als ein gesetztes Ziel für RDNA2. Gesetzte Ziele werden nicht selten übertroffen. ;)
Dural
2020-10-23, 10:14:10
Es gibt auch keine XTX, das ist einfach wieder ein Hirngespinst von einem AMD Troll.
Ihr mit euren +50% Perf/W. :tongue: Das war nichts weiter als ein gesetztes Ziel für RDNA2. Gesetzte Ziele werden nicht selten übertroffen. ;)
Naja, was hat NV in der Gen so ~ geschafft... +10% ?
M.f.G. JVC
dargo
2020-10-23, 10:15:59
Naja, was hat NV in der Gen so ~ geschafft... +10% ?
Rechne es dir doch aus, gibt genug Benchmarks inkl. Verbrauch.
Edit:
+12% bei 3090FE vs. 2080TI FE in 4k.
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/6/#abschnitt_energieeffizienz_in_fps_pro_watt
patrickschur
2020-10-23, 10:17:29
Es gibt auch keine XTX, das ist einfach wieder ein Hirngespinst von einem AMD Troll.
Doch die XTX gibt es.
Kriegsgeier
2020-10-23, 10:18:48
Picachu hat sich gemeldet - also muss es eine XTX geben
[MK2]Mythos
2020-10-23, 10:19:15
Es gibt auch keine XTX, das ist einfach wieder ein Hirngespinst von einem AMD Troll.
Quote für später... :)
Rechne es dir doch aus, gibt genug Benchmarks inkl. Verbrauch.
Edit: +12% bei 3090FE vs. 2080TI FE.
Keine Lust, da NV mit den mini Speichermengen bei mir keine Chane hat.
(abgesehen von der 3090 die wieder fast zu viel hat und mir zu teuer ist)
Hab bei Igor was von +7% gelesen... wen ich mich nicht irre... egal ^^
Edit: +12% Verbesserung sind auch zu wenig für eine neue Gen...
M.f.G. JVC
dargo
2020-10-23, 10:19:56
Mythos;12470311']Quote für später... :)
Und wieder ohne Wetteinsatz von Dural. (no)
Redneck
2020-10-23, 10:25:49
Es gibt auch keine XTX, das ist einfach wieder ein Hirngespinst von einem AMD Troll.
aktueller stand der Gerüchte seit mehreren Seiten ist : XTX = AMD Exklusiv mit 80 CU und lt. Igor mit niedriger Verfügbarkeit (wobei ich mich Frage woher er das weiss, wenn er doch "nur" Quellen bei AIBs hat und nicht zu AMD selber). Wird also das Halo Produkt sein um auf dem Papier die 3090 zu entthronen.
AMD könnte noch ne volle 6900 non-XT nachschieben, wenn genug volle Chips verfügbar sind. Und bezüglich Igors Aussage zu RT, der wird einfach meinen, dass der RT-Teil des Treibers einfach noch inaktiv ist. Das brauchen die GPU-Hersteller ja auch gar nicht, um die Karten fertigzustellen, das wird sich AMD auf jeden Fall für die Präsentation vorbehalten. Inwieweit der beta-Treiber, den die Boardpartner haben, die wirkliche Performance wiedergibt ist eh noch zweifelhaft. Offenbar verfolgt AMD hier eine nicht ganz so restriktive Philosophie, die NV verfolgt hat (und damit auf die Nase fiel), aber man ist offenbar ja doch bemüht, die Leistung bis zum 28. unterm Deckel zu halten.
Den GA102 150 würd ich mal als Panikreaktion deuten. Nachdem man die 20GB-Karten gecancelt hat, weil man sich mit der Doppelbestückung nur Nachteile einhandelt hat, vor allem bei Verfügbarkeit und Kosten, bis zum Super Refresh vermutlich, versucht man direkt mit dem 102er ein Konkurrenzprodukt zur XL aufzubauen.
https://www.techpowerup.com/273695/amd-radeon-big-navi-pcb-allegedly-pictured
Täusch ich mich da oder ist das Teil gigantisch?
Zergra
2020-10-23, 10:30:43
aktueller stand der Gerüchte seit mehreren Seiten ist : XTX = AMD Exklusiv mit 80 CU und lt. Igor mit niedriger Verfügbarkeit . Wird also das Halo Produkt sein um auf dem Papier die 3090 zu entthronen.
Sehe die XTX eher genau zwischen der 3080 und der 3090.
Die XT dann 5% unter der 3080 und die XL dann dementsprechend 5-10% über der 3070.
Die 3090 wird die schnellste Karte bleiben, das sieht man alleine an dem Preis den NV dafür aufruft, die Wissen garantiert viel mehr über die RX 6000 als jeder andere hier.
Der Preisunterschied zwischen der 3080 und der 3090 zeigt das gut genug.
Redneck
2020-10-23, 10:39:02
Die 3090 wird die schnellste Karte bleiben, das sieht man alleine an dem Preis den NV dafür aufruft, die Wissen garantiert viel mehr über die RX 6000 als jeder andere hier.
Der Preisunterschied zwischen der 3080 und der 3090 zeigt das gut genug.
Nicht das schon wieder... nein.. es ist davon auszugehen, das NV eben nichts wußte.. wenn schon AMDs AIBs so gut wie nichts wußten, wie sollte dann NV mehr wissen.. diesen Trick mußt Du uns einmal verraten.
Kann ja auch keiner Wissen außer AMD selber, wenn der Treiber noch so kastriert ist.
Sehe die XTX eher genau zwischen der 3080 und der 3090.
Die XT dann 5% unter der 3080 und die XL dann dementsprechend 5-10% über der 3070.
Die 3090 wird die schnellste Karte bleiben, das sieht man alleine an dem Preis den NV dafür aufruft, die Wissen garantiert viel mehr über die RX 6000 als jeder andere hier.
Der Preisunterschied zwischen der 3080 und der 3090 zeigt das gut genug.
Sicher nicht, bez. erst seit relativ kurzer Zeit. Ohne RT sehe ich die XTX als die schnellste Karte. Die XT zwischen 3080 und 3090 und die XL bei 3080 - 10%. Je ohne RT. Könnte sein, dass RT erst am 28. gezeigt wird. Mögliche Gründe: Treiber muss zwecks Performance noch angepasst werden, Performance lediglich niedriges Turing-Niveau, oder der endgültige Dolchstoß für Jensen. Sucht es euch aus.
Redneck
2020-10-23, 10:44:36
Kann ja auch keiner Wissen außer AMD selber, wenn der Treiber noch so kastriert ist.
exakt...
NV hat selber spekuliert und damit gerechnet das RDNA2 stark wird (ausgehend von RDNA1) und das maximale aus Ampere rausgequetscht.
dargo
2020-10-23, 10:45:45
https://www.techpowerup.com/273695/amd-radeon-big-navi-pcb-allegedly-pictured
Täusch ich mich da oder ist das Teil gigantisch?
Was willst du da aus dem Bild jetzt genau entnehmen? :ulol:
Die 3090 wird die schnellste Karte bleiben, das sieht man alleine an dem Preis den NV dafür aufruft, die Wissen garantiert viel mehr über die RX 6000 als jeder andere hier.
Die wissen gar nichts. :rolleyes: Der einzige Anhaltspunkt für NV war die XBSX und, dass der schnellste RDNA2 80 CUs haben wird.
Savay
2020-10-23, 10:48:50
Das ist halt wie mit Zensurbalken über entblößtem Gemächt!
Weiß ja jeder, dass wenn der dann bis zum Knie geht...ach lassen wir das.
Complicated
2020-10-23, 10:49:32
Auch die teildeaktivierten N21 scheinen laut aktuellen Gerüchten 16 GBPS GDDR6 zu haben und zwar im 256 bit Vollausbau.
Das halte ich für nicht zutreffend. 3 SKUs und keine davon als Salvage, sollte im SI ein Fehler im Wafer sein. Da selbst 256 Bit SIs eine relativ große Fläche auf dem Chip haben, sehe ich keinen Grund für AMD diese Dies direkt aus dem Consumer-Markt raus zu nehmen, da es keine Zweitverwertung im Profisegment geben wird. Dafür ist ja jetzt CDNA zuständig. Diese Chips würden direkt in den Müll gehen, was wirtschaftlich Blödsinnig ist.
Im Umkehrschluß müsste AMD eine Yield über 90% haben, die das zulässt und das bei dem großen Chip. Sollte sich das bewahrheiten wäre es ein Signal für enorme Verfügbarkeit, da kaum defekte SIs ein solches Salvage sinnvoll machen.
Berniyh
2020-10-23, 10:51:53
Doch die XTX gibt es.
Nicht auf Dural reagieren, er will hier nur trollen.
Dargo
na dass das Package evtl. schon ziemlich groß ist.
Das halte ich für nicht zutreffend. 3 SKUs und keine davon als Salvage, sollte im SI ein Fehler im Wafer sein. Da selbst 256 Bit SIs eine relativ große Fläche auf dem Chip haben, sehe ich keinen Grund für AMD diese Dies direkt aus dem Consumer-Markt raus zu nehmen, da es keine Zweitverwertung im Profisegment geben wird. Dafür ist ja jetzt CDNA zuständig. Diese Chips würden direkt in den Müll gehen, was wirtschaftlich Blödsinnig ist.
Im Umkehrschluß müsste AMD eine Yield über 90% haben, die das zulässt und das bei dem großen Chip. Sollte sich das bewahrheiten wäre es ein Signal für enorme Verfügbarkeit, da kaum defekte SIs ein solches Salvage sinnvoll machen.
Dafür wirds eh noch ne LE geben, wie bei Tahiti damals. Das wird aber im Lineup keine Rolle spielen, Chips, auf die das zutrfft, wird man erst mal sammeln und später verwerten. Das sind eh nicht viele, dafür lohnt sich das nicht die vom Start weg ins Lineup einzubauen. Ich würd sehr stark darauf wetten, dass erst mal alle N21 16GB haben. Man erinnere sich: die 5600 kam auch erst weeiiit nach dem N10-Lauch.
dargo
2020-10-23, 10:55:40
@Hot
Wen interessiert die Größe vom Package? :freak: Ist das Package jetzt bei N10 groß für dich oder klein?
https://tpucdn.com/gpu-specs/images/c/3437-pcb-front.jpg
Wenn man die größe der Speichermodule betrachtet und ins Verhältnis setzt - guck dir das Bild doch an :freak:
dargo
2020-10-23, 11:00:24
Hast du was mit deinen Augen? Da wurde doch eine wesentlich größere Fläche unkenntlich gemacht als nur alleine das Package. :freak: Man sieht das auch schon an den Abständen zu den Speicherchips. Ich erwarte bei N21 nicht unbedingt ein größeres Package als bei N10. Da der Die wesentlich größer ist kannst du den Spacer schmaler auslegen.
Complicated
2020-10-23, 11:01:07
@Hot
Man sammelt gute Chips und schlechte versucht man ganz am Anfang los zu werden, da die Yields ja besser werden und man dann eher ein Modell auslaufen lassen kann, wenn es sich nicht rechnet voll funktionsfähige Chips in diesem Preissegment zu verheizen. AMD wird sich noch genau an das Debakel bei der HD 5830 erinnern, wo sie so etwas versucht haben und schlußendlich auch auf den defekten Chips sitzen geblieben sind.
robbitop
2020-10-23, 11:15:48
Ne, wenn dann wird man den Cache bei allen Modellen einführen.
Allerdings evtl. in kleinerem Umfang.
Macht man ja bei den CPUs auch so.
Wir werden sehen. CPUs lassen IMO keine Rückschlüsse auf GPUs zu und dieser Cache, so denn er denn real ist, wäre ein Novum. Entsprechend hätte man keinen Anhaltspunkt aus der Vergangenheit.
Kann mir gut vorstellen, dass diese Konstellation halt nur bei dem größten Chip sinnvoll gewesen sein kann und für die kleineren eher nicht. (potenzielle Randbedingungen wie Volumen und somit Gesamtwaferbedarf, Energieeffizienz, Gesamtkosten etc pp gibt es ja genug und die Konstellation aus diesen kann bei kleineren Modellen - auch aus strategischer Sicht - völug anders sein)
why_me
2020-10-23, 11:16:39
@Hot
Wen interessiert die Größe vom Package? :freak: Ist das Package jetzt bei N10 groß für dich oder klein?
https://tpucdn.com/gpu-specs/images/c/3437-pcb-front.jpg
Was mir da auffällt sind die relativ wenig Datenleitungen zu den RAM Chips bei der N21 Karte im Vergleich zu N10.
Bei dem Bild von Patrik scheinen unten nur die linke Seite der Chips angebunden sein -> Clamshell und keine 16Gbit Chips!?
robbitop
2020-10-23, 11:18:06
Das halte ich für nicht zutreffend. 3 SKUs und keine davon als Salvage, sollte im SI ein Fehler im Wafer sein. Da selbst 256 Bit SIs eine relativ große Fläche auf dem Chip haben, sehe ich keinen Grund für AMD diese Dies direkt aus dem Consumer-Markt raus zu nehmen, da es keine Zweitverwertung im Profisegment geben wird. Dafür ist ja jetzt CDNA zuständig. Diese Chips würden direkt in den Müll gehen, was wirtschaftlich Blödsinnig ist.
Im Umkehrschluß müsste AMD eine Yield über 90% haben, die das zulässt und das bei dem großen Chip. Sollte sich das bewahrheiten wäre es ein Signal für enorme Verfügbarkeit, da kaum defekte SIs ein solches Salvage sinnvoll machen.
Ist schon richtig. Ist aber eine Strategie, die AMD schon länger bei XT und non XT fährt IIRC.
Dschounz
2020-10-23, 11:18:24
aktueller stand der Gerüchte seit mehreren Seiten ist : XTX = AMD Exklusiv mit 80 CU und lt. Igor mit niedriger Verfügbarkeit (wobei ich mich Frage woher er das weiss, wenn er doch "nur" Quellen bei AIBs hat und nicht zu AMD selber). Wird also das Halo Produkt sein um auf dem Papier die 3090 zu entthronen.
Naja, die XTX-Karte muss ja nun auch von irgendwem hergestellt werden (vermutlich Sapphire)....und da haben wir dann die Quelle unseres Dichters Igor von Lab ;D
Loeschzwerg
2020-10-23, 11:36:27
die XTX-Karte muss ja nun auch von irgendwem hergestellt werden (vermutlich Sapphire)...
Also PCPartner als Auftragsfertiger.
dargo
2020-10-23, 11:40:32
Was mir da auffällt sind die relativ wenig Datenleitungen zu den RAM Chips bei der N21 Karte im Vergleich zu N10.
Ist mir auch schon aufgefallen, kann mir aber jetzt nichts darunter vorstellen.
Complicated
2020-10-23, 11:47:07
Ist schon richtig. Ist aber eine Strategie, die AMD schon länger bei XT und non XT fährt IIRC.
Hmm ich weiss nicht genau worauf du dich beziehst. Navi10 gab es als 4 SKUs (250mm²) 2x mit 256-bit SI und 2x (1x davon OEM exklusiv) mit 192-Bit.
3 256-Bit SKUs und dann noch weitere 2x 192-Bit aus dem selben GROSSEN Chip scheint mir wenig sinnvoll.
Dann auch noch die ganzen Infos zu N31 mit den selben Hardwaredaten - irgendwie ergibt das erst Sinn wenn dieser N31 mit HBM nochmals andere Performance erreichen kann in Kombination mit den Architekturänderungen oder dann direkt auf 5nm kommt weil bekannt ist dass Nvidias mit Druck an einem 7nm Ampere arbeitet. Also N31 sehe ich als Konter/Druck für GA102@7nm
Cyberfries
2020-10-23, 11:52:52
Dann auch noch die ganzen Infos zu N31 mit den selben Hardwaredaten
Wieso? N31 dann mit 80CUs als 7700er und obendrauf 140CU als 7900er
Aber das ist ein RDNA3-Thema, gehört nicht hierher
Dural
2020-10-23, 12:01:49
Manchmal frage ich mich echt :rolleyes:
Intern werden bei AMD die voll aktiven Chips immer XTX genannt, ändert aber trotzdem nichts daran dass das Produkt als XT auf den Markt kommt.
Alles andere wäre auch ziemlich dämlich, da man danach falls nötig nichts mehr Nachschieben kann.
Noebbie
2020-10-23, 12:05:51
Alles andere wäre auch ziemlich dämlich, da man danach falls nötig nichts mehr Nachschieben kann.
Bis zur vollen 7000 sind ja noch 100 Zahlen frei! :wink:
@Hot
Man sammelt gute Chips und schlechte versucht man ganz am Anfang los zu werden, da die Yields ja besser werden und man dann eher ein Modell auslaufen lassen kann, wenn es sich nicht rechnet voll funktionsfähige Chips in diesem Preissegment zu verheizen. AMD wird sich noch genau an das Debakel bei der HD 5830 erinnern, wo sie so etwas versucht haben und schlußendlich auch auf den defekten Chips sitzen geblieben sind.
Was widerspricht allen bisherigen Launches bei AMD und das ist einfach falsch.
Tahiti-Generation -> alle Derivate und Chips der Generation volle Speicherinterfaces, die Speicherbeschnittene Variante (7800XT von Tahiti) kam mehr als 1 Jahr später, man hat also gesammelt
Hawaii -> Alle Chips volle Speicherinterfaces
Tonga -> Beschniedung des Speicherinterfaces hatte keine Chip-Yield-Gründe
Polaris-Generation -> Alle Chips volle Speicherinterfaces
Navi-Generation -> Alle Chips volle Speicherinterfaces zum Start, 5600 kam erst mehr als 1/2 Jahr später, man hat also gesammelt.
Auch bei der 5000er-Generation kam der Speicherbeschnittene Chip erheblich später, dein ausgedachter Grund ist BS.
Und es gibt keinen GA102 in 7nm, auch das ist purer BS, weil das von Anfang an hätte so geplant sein müssen. Das hatten wir schon ein paar Mal.
Speicherbeschnittene Chips zum Start weg könnte ich mir einzig und allen as OEM-Varianten vorstellen, die sowieso nicht in den Retailmarkt gelangen.
Berniyh
2020-10-23, 12:20:08
Manchmal frage ich mich echt :rolleyes:
Intern werden bei AMD die voll aktiven Chips immer XTX genannt, ändert aber trotzdem nichts daran dass das Produkt als XT auf den Markt kommt.
Wir reden hier auch vom Chip Navi 21 XTX und nicht von einer Karte mit dem Namen.
Und dieser Chip schlägt halt offensichtlich nicht bei den AIBs auf.
dargo
Natürlich ist mehr als das Package abgedeckt, aber auch hier dürfte bei 16-18GT/s Speicher die Speicherchips näher am Package liegen aus dem gleichen Grund wie bei den Amperes. Auch die neue Anordnung dürfte dem ja geschuldet sein. Es scheint aber nach genauerem Hinsehen nicht so irre viel größer als bei N10 zu sein, nur ein bisschen, was auch plausibel ist.
Elite_Warrior
2020-10-23, 12:47:49
Ich sehe durch die Anordnung, dass man dadurch mehr Freiraum für VRMs auf der linken Seite hat. Die Datenpfade werden wohl zur Hälfte eine Schicht tiefer liegen, was das Board zusätzlich kompakter macht. Die PCIe Pfade sind auch nur zur Hälfte sichtbar gegenüber N10. Vlt. Sollte man Engineering Boards nicht überintepretieren :D
Sunrise
2020-10-23, 13:02:15
Ich tippe darauf, dass der Cache zusätzlich zu der L1 Verbesserung ist.
RDNA2 ist auch in der XSX und PS5 verbaut. Dort ist nichts von einer so geringen Bandbreite pro TFLOP zu sehen.
Die kleineren Modelle (N22 und 23) mit deutlich weniger TFLOPs haben (proklamiert) deutlich unterproportionale Bandbreitensenkung. Auch die teildeaktivierten N21 scheinen laut aktuellen Gerüchten 16 GBPS GDDR6 zu haben und zwar im 256 bit Vollausbau.
Das spricht dafür, dass ein zusätzlicher Cache - zumindest in signifikanter Form - nur in N21 verbaut ist. Auch sieht es für mich so aus, als dass bei den Salvagemodellen nicht nur CUs deaktiviert werden sondern auch Teile des Caches. Ansonsten könnte man auch günstigere GDDR6 Module nehmen oder auch Kanäle ausknipsen.
Das ist sogar sehr wahrscheinlich, denn wenn diese “Modifikation” einen 80 CU-Chip mit erhöhter IPC und Taktfrequenzen so füttern kann, dass die externe Kommunikation weitmöglichst minimiert wird, reduziert sich natürlich der Bedarf bei teildeaktivierten Chips ebenso.
Bei den Konsolen wurde ja auch am Cache (Zen 2) modifiziert. Der “Cache” (wenn er denn existiert und das wirklich nur Cache ist), hätte ja das Ziel, vor allem bei N21 zusätzlich Energieeffizienz (Datenlokalität) und Bandbreite (reduzierte Routing-Komplexität) hinzu zu gewinnen. AMD nannte das “Reduce complexity and switching power”.
Die gestiegene IPC (Perf per Clock) und die erhöhten Taktfrequenzen bringen ja nichts, wenn man dann voll vor das Bandbreitenlimit fährt. Dann kann man es gleich sein lassen. Es muss schon enorme Aufwände gegeben haben, wenn so ein mittelklasse SI ausreichend ist.
Insgesamt, wenn das alles so stimmt, wäre dann HBM außer bei CDNA auch gänzlich vom Tisch.
Fragman
2020-10-23, 13:10:59
Sorry, ihr schreibt zu schnell hier, deshalb ein quote von vor 3 Seiten. :D
ein evtl. ris-nachfolger.
Von RIS wirds keinen Nachfolger geben, das Thema ist eigentlich durch da alle wichtigen techs drin sind (pt, bdpt, vcm und im Ansatz sogar manifold, das sicher weiter ausgebaut wird, Pixar hat da keine Kompromisse gemacht). Da gehts dann "nur" noch um Konvergenz. Wobei RIS da ohne Denoiser eigentlich nicht wirklich brauchbar ist (schon bei Diffuse nicht und schon gar nicht bei Caustics), aber ohne Denoiser rendert in den Bereichen ja keiner wirklich, in Realtime eh nicht.
Die findest also alles außer Raytracing egal?
Ich schrieb Leistungslevel und ja, auf dem hohen Niveau muss man sich um die Rasterizerperformance nicht mehr kümmern, wiel die passt bzw passen wird.
Das man sich bei der 3090 beim Marketing schon um 8K bemüht, zeigt das ja deutlich und AMD wird nicht weit davon landen. Priorität hat für mich daher eher was bei RT rum kommt.
dargo
2020-10-23, 13:14:10
Ich schrieb Leistungslevel und ja, auf dem hohen Niveau muss man sich um die Rasterizerperformance nicht mehr kümmern, wiel die passt bzw passen wird.
Das man sich bei der 3090 beim Marketing schon um 8K bemüht, zeigt das ja deutlich und AMD wird nicht weit davon landen. Priorität hat für mich daher eher was bei RT rum kommt.
Das ist schön für dich. Für mich hat der Rasterizer die höchste Priorität und RT-Performance ist nur ein kleiner Bonus. "Nice to Have" solange keine Games da sind die als Mindestvoraussetzung RT in Hardware haben. Letzteres wird noch paar Jährchen dauern.
Complicated
2020-10-23, 13:19:29
Was widerspricht allen bisherigen Launches bei AMD und das ist einfach falsch.
Tahiti-Generation -> alle Derivate und Chips der Generation volle Speicherinterfaces, die Speicherbeschnittene Variante (7800XT von Tahiti) kam mehr als 1 Jahr später, man hat also gesammelt
Hawaii -> Alle Chips volle Speicherinterfaces
Tonga -> Beschniedung des Speicherinterfaces hatte keine Chip-Yield-Gründe
Polaris-Generation -> Alle Chips volle Speicherinterfaces
Navi-Generation -> Alle Chips volle Speicherinterfaces zum Start, 5600 kam erst mehr als 1/2 Jahr später, man hat also gesammelt.
Du hast Recht was die Release-Zeitpunkte der Salvage Varianten angeht. Ich hatte da einen Denkfehler der aus dem CPU-Bereich stammt (Chiplets) und hab nicht vorher nochmals die Daten recherchiert. Danke für die Berichtigung :)
@Hot
Auch bei der 5000er-Generation kam der Speicherbeschnittene Chip erheblich später, dein ausgedachter Grund ist BS.
Ab und an solltest du in Betracht ziehen, dass sich einfach jemand irrt, wie ich in diesem Fall.
"Wenn du im Recht bist, kannst du dir leisten, die Ruhe zu bewahren, und wenn du im Unrecht bist, kannst du dir nicht leisten, sie zu verlieren.
- Mahatma Gandhi"
Du kannst ja immer noch blöd werden wenn ich deine Quellen mißachte. So vorab ist es recht unnötig in einem Forum.
Tahiti hat die 7870 Boost Edition mit kleinerem SI. 4 SKUs Vollausbau (352 mm²) 1x Salvage SI (+Dual-GPU) ->28nm
Hawaii 2x SKUs Vollausbau (430mm²)
Tonga lass ich mal aussen vor, da es als Apple temporärer exklusiv anderen Anforderungen folgte.
Polaris und Navi sind beide nicht groß mit ca. 250 mm².
Also am ehesten würde mich der Vergleich hier mit Hawaii überzeugen mit AMDs jetziger Situation.
Allerdings deutet für mich das dann darauf hin, dass AMD dann einen sehr starken Yield auf dem eingefahrenen 7nm hat um mit solch einem großen Chip mehr SKUs als Hawaii zu stellen. Auch Hawaii kam ja in einem sehr gut abgehangenen 28nm Prozess.
Fragman
2020-10-23, 13:38:23
Für mich hat der Rasterizer die höchste Priorität
Und genau das wirst Du bekommen, das ist gar kein Streitpunkt. ;)
dargo
2020-10-23, 13:44:25
Achso... du wolltest nur streiten? :tongue:
nairune
2020-10-23, 13:46:16
Igor schreibt zu seinen zugespielten Werten, dass es gestern einen neuen Treiber gab, der 10% Performance brachte. Daher ist die 3080 jetzt sogar im TimeSpy knapp geschlagen.
Wahnsinn, sieht mir leider aus als müsste AMD die Karten ganz schön teuer machen :D
prinz_valium_2
2020-10-23, 13:47:52
Wow wäre meine erste AMD GPU seit es wirklich AMD GPUs sind und nicht mehr ATI
Du hast Recht was die Release-Zeitpunkte der Salvage Varianten angeht. Ich hatte da einen Denkfehler der aus dem CPU-Bereich stammt (Chiplets) und hab nicht vorher nochmals die Daten recherchiert. Danke für die Berichtigung :)
@Hot
Ab und an solltest du in Betracht ziehen, dass sich einfach jemand irrt, wie ich in diesem Fall.
"Wenn du im Recht bist, kannst du dir leisten, die Ruhe zu bewahren, und wenn du im Unrecht bist, kannst du dir nicht leisten, sie zu verlieren.
- Mahatma Gandhi"
Du kannst ja immer noch blöd werden wenn ich deine Quellen mißachte. So vorab ist es recht unnötig in einem Forum.
Tahiti hat die 7870 Boost Edition mit kleinerem SI. 4 SKUs Vollausbau (352 mm²) 1x Salvage SI (+Dual-GPU) ->28nm
Hawaii 2x SKUs Vollausbau (430mm²)
Tonga lass ich mal aussen vor, da es als Apple temporärer exklusiv anderen Anforderungen folgte.
Polaris und Navi sind beide nicht groß mit ca. 250 mm².
Also am ehesten würde mich der Vergleich hier mit Hawaii überzeugen mit AMDs jetziger Situation.
Allerdings deutet für mich das dann darauf hin, dass AMD dann einen sehr starken Yield auf dem eingefahrenen 7nm hat um mit solch einem großen Chip mehr SKUs als Hawaii zu stellen. Auch Hawaii kam ja in einem sehr gut abgehangenen 28nm Prozess.
Klar, die hieß natürlich 7870 XT ;). 7870 war Pitcairn.
https://www.techpowerup.com/gpu-specs/radeon-hd-7870-xt.c1860
Hawaii ist bis in den 250€-Markt abgerutscht. Wenn sich das irgendwo gelohnt hätte, dann dort. Ist aber nicht passiert, der Yield war offenbar so gut.
Und Ich bleibe dabei: Es lohnt sich für den Start nicht. Die werden alle volle Speicherinterfaces bieten, auch wenn es 3 Varianten sind. Die die das nicht packen sammelt man wie gehabt und packt die dann als spezielle Edition in den Markt (6700 XTX oder 6800LE oder sowas) und wird die sicherlich auch im OEM-Markt verwursten. Das werden eh echt wenig sein - das fällt ja mit den Chips zusammen, bei denen weniger als 64CUs nur funktionieren.
Die 16GB sind einfach ein Verkaufstreiber und man wird die Bandbreite auch benötigen. Ich gehe ja eh davon aus, dass die XL nur 14GT und nur die XT 16GT-RAM hat. Die größeren 6900er dürften sogar erst nächstes Jahr mit 18GT RAM erscheinen mMn. Man wird die 6900XT als "one more Thing" vorstellen, mehr aber auch nicht mMn.
Nazar
2020-10-23, 13:57:14
Ich schrieb Leistungslevel und ja, auf dem hohen Niveau muss man sich um die Rasterizerperformance nicht mehr kümmern, wiel die passt bzw passen wird.
Das man sich bei der 3090 beim Marketing schon um 8K bemüht, zeigt das ja deutlich und AMD wird nicht weit davon landen. Priorität hat für mich daher eher was bei RT rum kommt.
Welches RT Spiel kommt denn vollkommen ohne RZ aus?
Fakt ist doch, dass RT extrem viel Performance kostet! Wäre es dann nicht sehr gut -insbesondere so lange RT ohne RZ nicht auf einem brauchbaren Level existieren kann- das RZ weiter zu optimieren, um von der dort freigeschaufelten Performance partizipieren zu können?
Bis RT Games vollkommen ohne RZ auskommen und RT hohe FPS, bei sehr hoher BQ, auch für Shooter Games liefern kann, werden noch sehr viele Jahre ins Land gehen.
RT mag die !!ferne!! Zukunft gehören, doch mit Sicherheit nicht die Gegenwart oder die !!nahe!! Zukunft!
Es wäre aus meiner Sicht fast schon sträflich, sich während dieser Zeit nicht auch weiterhin um das Optimieren vom RZ zu kümmern.
Die angesprochene 8k Performance ist ja wohl eher ein Marketing Gag.
Aktuell kann da wirklich nur ein 3090 mit viel VRAM (omg... mehr als 10 GB VRAM ;)) und auch nur mithilfe von DLSS Punkte sammeln und das obwohl sie gerade mal 12% schneller als eine 3080 ist.
Man stelle sich mal eine 3080 mit 20GB (ausreichend viel VRAM) vor.
8K Gaming ist zwar näher dran als reines RT Gaming aber immer noch zu weit weg und ganz besonders dann, wenn man nicht weiterhin RZ optimiert. ;)
dargo
2020-10-23, 13:57:47
Igor schreibt zu seinen zugespielten Werten, dass es gestern einen neuen Treiber gab, der 10% Performance brachte. Daher ist die 3080 jetzt sogar im TimeSpy knapp geschlagen.
Wahnsinn, sieht mir leider aus als müsste AMD die Karten ganz schön teuer machen :D
Hör auf. :freak: ;D
Linmoum
2020-10-23, 14:00:54
Ich schrieb Leistungslevel und ja, auf dem hohen Niveau muss man sich um die Rasterizerperformance nicht mehr kümmern, wiel die passt bzw passen wird.Spielst du in HD oder was? Ansonsten völlige Quatsch-Aussage.
Genauso der Verweis auf die 3090. Die 2080Ti hat Nvidia auch für UHD vermarktet, trotzdem war sie davon entfernt, durchgängige >=60fps mit entsprechenden Settings liefern zu können. In die Region kommt man erst jetzt langsam ab der 3080. Und selbst da ist bei den fps natürlich noch extrem viel Luft nach oben.
dildo4u
2020-10-23, 14:01:21
Igor schreibt zu seinen zugespielten Werten, dass es gestern einen neuen Treiber gab, der 10% Performance brachte. Daher ist die 3080 jetzt sogar im TimeSpy knapp geschlagen.
Wahnsinn, sieht mir leider aus als müsste AMD die Karten ganz schön teuer machen :D
Noch mal lesen die 10% sind mit drinn.
Dazu muss man auch noch ergänzen, dass AMD gestern noch einen weiteren Performance-Treiber verteilt haben soll, der dann die letzten 10% Steigerung brachte, die im obigen Ergebnis bereits inkludiert sind
nairune
2020-10-23, 14:04:29
Noch mal lesen die 10% sind mit drinn.
Den Hinweis gebe ich zurück, siehe zweiten Satz "[jetzt] im TimeSpy knapp geschlagen".
Bei den Benches vorher reichte es nur in Firestrike Ultra.
Palpatin
2020-10-23, 14:05:09
Igor schreibt zu seinen zugespielten Werten, dass es gestern einen neuen Treiber gab, der 10% Performance brachte. Daher ist die 3080 jetzt sogar im TimeSpy knapp geschlagen.
Wahnsinn, sieht mir leider aus als müsste AMD die Karten ganz schön teuer machen :D
Bei so einer Leistung und 16gb müssen sie eigentlich mindestens 800 eher 900 für 6800xt verlangen um den Bestell-Ansturm halbwegs einzubremsen. Die 6900xt dann Richtung 1500€.
Nazar
2020-10-23, 14:08:15
Bei so einer Leistung und 16gb müssen sie eigentlich mindestens 800 eher 900 für 6800xt verlangen um den Bestell-Ansturm halbwegs einzubremsen. Die 6900xt dann Richtung 1500€.
Ich hasse dich :D
Redneck
2020-10-23, 14:09:45
Bei so einer Leistung und 16gb müssen sie eigentlich mindestens 800 eher 900 für 6800xt verlangen um den Bestell-Ansturm halbwegs einzubremsen. Die 6900xt dann Richtung 1500€.
bitte nicht...
ich sage nur : Konsolen
BigBangBacket
2020-10-23, 14:12:07
Bei so einer Leistung und 16gb müssen sie eigentlich mindestens 800 eher 900 für 6800xt verlangen um den Bestell-Ansturm halbwegs einzubremsen. Die 6900xt dann Richtung 1500€.
Niemand kauft eine AMD Karte momentan für 1500.
Selbst ich der die 3090 schon im Warenkorb hatte, würde AMD für max 1200 eine Chance geben. Dann aber bitte gleich mit AiO.
Da muss AMD erstmal 1-2 Generationen oben mitmischen und in allen Bereichen (RT DLSS usw. ) konkurrenzfähig sein.
Ich glaube BN wird verdammt stark. Aber NOCH können sie nicht NV Preise nehmen.
Bei so einer Leistung und 16gb müssen sie eigentlich mindestens 800 eher 900 für 6800xt verlangen um den Bestell-Ansturm halbwegs einzubremsen. Die 6900xt dann Richtung 1500€.
Wir sind hier aber zum Glück nicht bei Nvidia. Würde mich wundern, wenn wir mehr als tausend Euro für die XTX sehen. Revolution Leute, Revolution! :biggrin:
dildo4u
2020-10-23, 14:15:38
bitte nicht...
ich sage nur : Konsolen
Es wird mit Sicherheit Karten für 300€ geben die auf PS5 Level sind auf Konsolen Level kommst du beim Preis nie da du mit der einzelnen GPU schlecht Gameing Abos wie PlayStation plus oder Gamepass verkaufen kannst.
Auf der Konsole kannst du die Leute direkt zum Digital Shop leiten um dort zusätzlich Kohle zu machen.
dargo
2020-10-23, 14:16:15
Niemand kauft eine AMD Karte momentan für 1500.
Selbst ich der die 3090 schon im Warenkorb hatte, würde AMD für max 1200 eine Chance geben. Dann aber bitte gleich mit AiO.
Da muss AMD erstmal 1-2 Generationen oben mitmischen und in allen Bereichen (RT DLSS usw. ) konkurrenzfähig sein.
Ich glaube BN wird verdammt stark. Aber NOCH können sie nicht NV Preise nehmen.
Och... da wäre ich mir bei der vorerst exklusiven RX 6900XT nicht so sicher. :whistle: Ich erwarte jetzt nicht unbedingt 1.500€ (das ist eh völlig krank). Aber vielleicht knacken wir (zum ersten Mal?) die 1.000€. :D
Redneck
2020-10-23, 14:17:24
Niemand kauft eine AMD Karte momentan für 1500.
Selbst ich der die 3090 schon im Warenkorb hatte, würde AMD für max 1200 eine Chance geben. Dann aber bitte gleich mit AiO.
Da muss AMD erstmal 1-2 Generationen oben mitmischen und in allen Bereichen (RT DLSS usw. ) konkurrenzfähig sein.
Ich glaube BN wird verdammt stark. Aber NOCH können sie nicht NV Preise nehmen.
und wenn sich am 28.10. herausstellt, das RT und DLSS vorhanden und gut ist ? Oder müssen sie sich deiner Meinung nach erst wieder ein hochpreis Image erarbeiten ? Denke Du gehörst zu Sorte Fashion Victim ;D (ist lieb gemeint).
DLSS ist Software.. kann nachgereicht werden. Facebook hats vor ein paar Tagen gezeigt. RT ist offen und wird man sehen müssen.
BigBangBacket
2020-10-23, 14:19:11
Och... da wäre ich mir bei der vorerst exklusiven RX 6900XTX nicht so sicher. :whistle: Ich erwarte jetzt nicht unbedingt 1.500€ (das ist eh völlig krank). Aber vielleicht knacken wir (zum ersten Mal?) die 1.000€. :D
Und ich bin gerne bereit AMD das für die Leistung zu geben. Damit sie wieder die GPU Sparte im Griff bekommen. 🙂
Selbst bei Zen3 ist die Preiserhöhung ja absolut akzeptabel. Ich bin offiziell positiv angetan von AMD 2020
Läuft doch prima. Ich denke AMD wird "liefern" ^^
Ich muss mich aber an meine 7970 3Gb(glaube die war es) erinnern...
Schwer zu bekommen und der Preis ging sehr lange nur nach oben...
(hab zum glück sofort zum Release eine ergattert)
M.f.G. JVC
Aus "Nostalgie" :devil:
https://www.gamestar.de/artikel/8-jahre-alte-amd-gpu-doom-eternal-doppelt-so-schnell-nvidia,3356069.html
"8 Jahre alte AMD-Grafikkarte in Doom Eternal doppelt so schnell wie Nvidia-Pendants"
"Dazu muss gesagt werden, dass AMD seine GPUs deutlich länger unterstützt - Stichwort »AMD Fine Wine Technology«."
[MK2]Mythos
2020-10-23, 14:42:20
Wer eröffnet denn endlich einen "Wie gut/schlecht steht es um nvidia?" Thread bei den allgemeinen IT News? Der Intel-Faden wurde anfangs auch nur belächelt... ;D
dildo4u
2020-10-23, 14:46:37
Mythos;12470613']Wer eröffnet denn endlich einen "Wie gut/schlecht steht es um nvidia?" Thread bei den allgemeinen IT News? Der Intel-Faden wurde anfangs auch nur belächelt... ;D
Ich frag mich wie man so kursichtig sein kann AMD will immer noch High-End CPUs verkaufen wenn Nvidia nicht genug GPUs liefern kann brechen auch beim AMD die Zahlen ein.
ChaosTM
2020-10-23, 14:48:58
Nvidia hat bis jetzt noch keinen "Intel"* hingelegt. ;)
* selbst Demontage innerhalb von 5 Jahren
Linmoum
2020-10-23, 14:49:00
Genau. Nvidia kann nicht liefern und bei AMD brechen die Zahlen ein. Was für eine bestechende Logik.
dargo
2020-10-23, 14:49:42
;D ;D ;D
dildo4u
2020-10-23, 14:52:57
Genau. Nvidia kann nicht liefern und bei AMD brechen die Zahlen ein. Was für eine bestechende Logik.
Du weißt ganz genau was ich meine.
Wenn du das beste vom Besten willst wirst du im November vermutlich eine Zen 3 CPU mit RTX 3090 kaufen.
Es gibt offensichtlich Leute dem der Preis egal ist vorallem in den ersten paar Monaten nach dem Launch.
N0Thing
2020-10-23, 14:54:35
Ja und das sind bekanntlich so viele, dass AMDs CPU-Verkäufe merklich einbrechen werden.
Fragman
2020-10-23, 14:55:03
Spielst du in HD oder was?
1440p.
Bei 4k ist schon wegen den Monitorpreisen bei mir Schluss, zumindest wenn man was vernünftiges haben will. Alles andere bedeutet zuviele Kompromisse, die ich bei den "normaleren" Preisregionen schon nicht mehr bereit bin einzugehen.
Bei den extremen Rasterizeranfoderungen (4K, max Details und 80-120fps, die dann sofort ins Spiel kommen, laufen wir in technische Limits, die aber in Zukunft dank neuer Tech einfach verschoben werden. Da sind aktuelle genutzte Engines nicht modern genug. Was sich dank der Konsolen aber auch ändern wird. Für diese "Übergangsphase" brauch ich aber nicht extra einen Riesenchip, dessen Produktion sich nicht rentieren würde, weil sowas keiner bezahlen will.
Auch wenn man argumentieren könnte, für ein paar Verrückte, die bereit sind 2,5k Euro für einen Monitor auszugeben, wären 4k für so eine GPU auch ok. :biggrin:
@Fragman
Deshalb spiele ich auf nem 65" Q-LED Fernseher
(der kostete 2017 im Abverkauf nur 1699.- ;) )
Der hat aber leider nur 60Hz.
Jetzt bekommt man ja schon 43" 120Hz 4K +VRR für ~600...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12465365&postcount=5
M.f.G. JVC
[LOG]Skar
2020-10-23, 15:08:43
"Aber die Tendenz geht schon eher in Richtung Morgenröte über dem dunkelgrünen Wald. Ok, bis auf die Strahlen der aufgehenden Sonne, die dringen nicht noch so recht durchs dichte Unterholz...."
Igor made my day :) (https://www.igorslab.de/community/threads/das-k%C3%B6nnen-amds-radeon-rx-6800xt-boardpartner-karten-mit-werks-oc-vielleicht-ein-kleiner-blick-in-bios-verr%C3%A4t-die-details.3363/post-81399)
Also Rot höher als Grün außer bei Raytracing ;D
Nope, RT ist einfach unbekannt. Der Treiber kanns offenbar noch nicht.
WedgeAntilles
2020-10-23, 15:22:00
Nope, RT ist einfach unbekannt. Der Treiber kanns offenbar noch nicht.
Da sagt Igor was anderes.
https://www.igorslab.de/3dmark-in-ultra-hd-benchmarks-der-rx-6800xt-ohne-und-mit-raytracing-aufgetaucht/
Wobei man natürlich erstmal "richtige" Spiele abwarten muss.
Im 3D-Mark ist die RT Leistung der Bignavi Karte aber BESSER als ich erwartet hatte.
Ja, sie ist schlechter als die 3080, aber der Rückstand ist jetzt nicht so überwältigend. Man ist ja sogar vor der 2080TI. Mein Bauchgefühl hätte Bignavi da eher etwas drunter gesehen.
N0Thing
2020-10-23, 15:23:16
Nope, RT ist einfach unbekannt. Der Treiber kanns offenbar noch nicht.
Woran ist das offenbar geworden?
BoMbY
2020-10-23, 15:24:31
Den Hinweis gebe ich zurück, siehe zweiten Satz "[jetzt] im TimeSpy knapp geschlagen".
Bei den Benches vorher reichte es nur in Firestrike Ultra.
Man sollte dabei nicht vergessen dass TimeSpy nur für NVidia optimiert wurde, und bei echten DX12-Anwendungen noch deutlich mehr drin ist.
BoMbY
2020-10-23, 15:25:20
Woran ist das offenbar geworden?
Vermutlich daran das der DX12-Treiber bereits seit ca. einem Jahr einen DXR-Pfad enthält.
dargo
2020-10-23, 15:30:39
Man sollte dabei nicht vergessen dass TimeSpy nur für NVidia optimiert wurde, und bei echten DX12-Anwendungen noch deutlich mehr drin ist.
Nicht nur das... RX 6800XT ist nicht die schnellste BigNavi. Zudem haben synthetische Benchmarks oft Lasten die den Games einfach nicht entsprechen. Games sollten auf vorhandene Hardware optimiert werden, bei synthetischen Benchmarks brauchst du darauf kaum Rücksicht nehmen.
WedgeAntilles
2020-10-23, 15:36:02
Gilt aber auch andersrum - bei Firestrike ist wohl die 5700XT schneller als die 2080.
Solche Benchmarks kann man daher nicht 100% übertragen - sie geben aber natürlich eine Tendenz an.
Und die sieht für BigNavi gut aus.
Mal sehen wieviele Game-Benchmarks wir am Mittwoch sehen. Bin auch gespannt, ob wir da RT Benchmarks sehen werden.
Wann bekommen wir eigentlich große Benchmarks von neutraler Seite?
Stand bestimmt schon irgendwo, aber vielleicht weiß es ja jemand auswändig.
Hakim
2020-10-23, 15:44:03
Wenn RT etwa 2080ti Niveau hat ist es doch ordentlich fürs Einsteigen, hatte erwartet das man sich selbst gegen Turing schwer tut.
Woran ist das offenbar geworden?
Hatte diese neue Info noch nicht. Sieht doch sehr gut aus.
basix
2020-10-23, 16:02:25
Ich hoffe zwar, dass punkto RT Leistung noch etwas geht. Ist immerhin die erste GPU von AMD mit Raytracing Unterstützung.
Korvaun
2020-10-23, 16:03:20
Selbst wenn der XTX Chip die 3090 schlägt (ohne RT/DLSS) wird da kein Preis über 999.-€ bei rumkommen. Mehr ist für 16GB / mäßiges RT / keine gute Alternative zu DLSS2 nicht drin. Aber selbst dann würde AMD da immer noch extrem Kohle machen, Chip ist gleich den kleineren und RAM auch Standardware (vielleicht etwas schneller als bei XT/XL).
Complicated
2020-10-23, 16:18:46
Nvidia hat bis jetzt noch keinen "Intel"* hingelegt. ;)
* selbst Demontage innerhalb von 5 Jahren
Es wird sich zeigen was passiert, wenn AMD sein Chiplet-Design auf GPUs übertragen kann. Das kann dann ganz schnell zum Albtraum werden und Nvidias Kerngeschäft Gaming-GPU und Server-GPU wäre in dem Tempo reduziert, wie es Intel mit dem HEDT-Markt ging, nach dem Launch der TR-4 Plattform.
Die Latenz beim erobern von x64-Server-CPU-Martkanteilen und dem OEM-Geschäft haben Nvidias stärksten Märkte nicht.
BlacKi
2020-10-23, 16:30:00
Bei aller Euphorie... FS Ultra ist jetzt nicht so ein toller Vergleichsbenchmark. Durchschnittlich liegt da die 5700 XT 10% vor der 2070 Super.
und 11600 sind auch nur 77% schneller als die 5700xt. das wäre dann im schnitt auf andere spiele umgerechnet 15% langsamer als eine 3080.
just saying.
BTW: ist firextrike extreme 4k einfanch der extreme modus mit 4k auflösung? inwiefern unterscheidet sich der zum ultra? und wo liegt da eine 5700xt?
Brillus
2020-10-23, 16:32:23
aktueller stand der Gerüchte seit mehreren Seiten ist : XTX = AMD Exklusiv mit 80 CU und lt. Igor mit niedriger Verfügbarkeit (wobei ich mich Frage woher er das weiss, wenn er doch "nur" Quellen bei AIBs hat und nicht zu AMD selber). Wird also das Halo Produkt sein um auf dem Papier die 3090 zu entthronen.
Yeah Papiertiger vs. Papiertiger und am Ende bleibt nur Konfetti.
Käsetoast
2020-10-23, 16:35:23
Also die bisherigen Leaks hinsichtlich RT finde ich sogar überraschend gut - hätte ich nicht mit gerechnet. Turing und damit auch Ampere haben halt auch eine Ausrichtung, die gewissen Computing Sektoren schmeicheln soll. Deswegen die dedizierten RT und Tensor Cores, die dem Gamer nur begrenzt etwas nützen...
AMD fährt halt den Ansatz mit RDNA2 primär den Gamer im Auge zu haben (für den Rest ist CDNA da) und das heißt primär eben starke Rasterizing Leistung. Halte ich für den Gamer auch für die bessere Ausrichtung, da die RT Features bislang eher kleine Gimmicks sind und viele auch gerne mal hohe Auflösung mit hohen Details / fps fahren möchten. Wenn es AMD nun tatsächlich schafft, die Krone in der Rasterizing Performance zu erreichen und gleichzeitig eine RT Leistung >Turing hinzulegen (wonach es derzeit ja aussieht), dann ist das in meinen Augen eine enorme Leistung. Ich hatte da mit einer nur sehr mäßigen RT Leistung gerechnet und bin da ob der ersten Leaks sehr angetan. Hoffentlich bleibt es dabei, dass man Turing RT Leistung leicht übertrifft, denn jetzt die beste Rasterizing Leistung zu bieten mit RT Performance leicht über NVIDIAs Vorgängergeneration (für die man in ausreichender Menge auch > 1000 € für die 2080 Ti zahlen musste) wäre schon ein ganz schöner Paukenschlag und das dann auch noch mit deutlichem Speicherupgrade gegenüber NVIDIA. Man stelle sich vor der schnellste Vollausbau wird für 999 $ gebracht - die 3090 hätte nur noch RT Leistung und Randfeatures wie DLSS die dafür sprechen, die aber einen 50% Aufpreis nicht wirklich rechtfertigen in meinen Augen...
Die kommende Woche wird extrem spannend! :smile:
Wenn ich mir vergangenen Herbst nicht schon Zen2 mit 5700 angeschafft hätte, würde ich jetzt rotieren ob AMD da ein CPU+GPU+Mainboard Bundle zu einem vergünstigtem Preis raushaut... ;D
Linmoum
2020-10-23, 16:37:45
und 11600 sind auch nur 77% schneller als die 5700xt. das wäre dann im schnitt auf andere spiele umgerechnet 15% langsamer als eine 3080.
just saying.Eine 5700XT Referenz liegt bei rund 6000 Pkt. im FSU. Wie sind 11600 da nur 77%?
Davon ab sind die 10% vor der 2070S Quatsch, da man auch Referenz vs. Referenz vergleichen sollte. Was schlecht der Fall ist, wenn man einfach den avg. aus der Datenbank nimmt. Sowohl guru3d, als auch hwluxx haben für die 5700XT und 2070S als Referenz bzw. FE rund 6000 Pkt. Der Unterschied liegt nicht einmal bei 1%.
Ansonsten zeigen deine 15%, dass hier langsam Felle davonschwimmen. ;D
Achja: Diese 11600 sind übrigens ohne den von Igor genannten Treiber, der laut ihm noch mal +10% gebracht hat.
Selbst wenn der XTX Chip die 3090 schlägt (ohne RT/DLSS) wird da kein Preis über 999.-€ bei rumkommen. Mehr ist für 16GB / mäßiges RT / keine gute Alternative zu DLSS2 nicht drin. Aber selbst dann würde AMD da immer noch extrem Kohle machen, Chip ist gleich den kleineren und RAM auch Standardware (vielleicht etwas schneller als bei XT/XL).
Da muss noch etwas anderes dahinter stecken. Die 10% an CUs + AiO + ein wenig mehr Takt sollten keine 300€ ausmachen. Und meine kolportierten 20% mehr im Vergleich zur XT schon gleich 2x nicht :redface:
BlacKi
2020-10-23, 17:02:50
Eine 5700XT Referenz liegt bei rund 6000 Pkt. im FSU. Wie sind 11600 da nur 77%?
Davon ab sind die 10% vor der 2070S Quatsch, da man auch Referenz vs. Referenz vergleichen sollte. Was schlecht der Fall ist, wenn man einfach den avg. aus der Datenbank nimmt. Sowohl guru3d, als auch hwluxx haben für die 5700XT und 2070S als Referenz bzw. FE rund 6000 Pkt. Der Unterschied liegt nicht einmal bei 1%.
Ansonsten zeigen deine 15%, dass hier langsam Felle davonschwimmen. ;D
Achja: Diese 11600 sind übrigens ohne den von Igor genannten Treiber, der laut ihm noch mal +10% gebracht hat.
ließt du nicht die hauptseite? wenn du auf youtube schaust, findest du 5700xt mit 1800-1830mhz und 6676 GS punkten.
Rincewind
2020-10-23, 17:04:30
...
Achja: Diese 11600 sind übrigens ohne den von Igor genannten Treiber, der laut ihm noch mal +10% gebracht hat.
sagt er nicht, dass die Werte vom neuen Treiber inkludiert sind?
nairune
2020-10-23, 17:06:17
Eine 5700XT Referenz liegt bei rund 6000 Pkt. im FSU. Wie sind 11600 da nur 77%?
Davon ab sind die 10% vor der 2070S Quatsch, da man auch Referenz vs. Referenz vergleichen sollte. Was schlecht der Fall ist, wenn man einfach den avg. aus der Datenbank nimmt. Sowohl guru3d, als auch hwluxx haben für die 5700XT und 2070S als Referenz bzw. FE rund 6000 Pkt. Der Unterschied liegt nicht einmal bei 1%.
Ich hatte es doch gestern schon geschrieben: Ende 2019 gab es einen Treiber, seitdem Navi im 3DMark viel mehr Punkte holt. Die ganzen Launch Reviews sind daher wertlos, der avg hingegen ziemlich aussagekräftig (es geht ja ums Verhältnis und wenn da custom gegen custom steht, ist das auch wurscht).
Wie soll denn sonst Navi im Schnitt 10% schneller werden? Wegen der tollen OC-Ergebnisse der Customs? Ah ja, genau.
ließt du nicht die hauptseite? wenn du auf youtube schaust, findest du 5700xt mit 1800-1830mhz und 6676 GS punkten.
Für ne Standard XT zu viel des Guten. Die liegt im GPU-Score ungefähr bei 6200P. Könnte sein dass hier der Gesamtscore gepostet wurde. Die XT nun 4% vor der 3080 in TSE? Horn-Treiber incoming:freak:
Linmoum
2020-10-23, 17:07:52
ließt du nicht die hauptseite? wenn du auf youtube schaust, findest du 5700xt mit 1800-1830mhz und 6676 GS punkten.Was interessiert mich Youtube. Werden jetzt schon Benchmarks angezweifelt von bekannten Redaktionen, die deckungsgleich sind weil sie einem nicht passen?
BlacKi
2020-10-23, 17:08:20
sagt er nicht, dass die Werte vom neuen Treiber inkludiert sind?
die 11600 sind doch von patrick und beziehen sich auf FS ultra. für die werte von igors FS extreme benches haben wir keine 5700xt werte, sollen einen schnelleren treiber schon beinhalten. vl kann ja mal hier einer werte einer 5700xt und FS extreme 4K reinwerfen.
[MK2]Mythos
2020-10-23, 17:08:23
Nein, die 6800xt zieht die 3080 mit dem neuen Treiber richtig ab.
amgchAgub4g
mironicus
2020-10-23, 17:17:01
Cool! Da lohnt sich ja sogar der Umstieg von einer RTX 2080 Ti zu einer 6800 XT.
patrickschur
2020-10-23, 17:18:34
die 11600 sind doch von patrick und beziehen sich auf FS ultra.
Bitte unterstelle mir nicht etwas, dass ich nicht gesagt habe. Der Score war 11500 und kam von CapFrameX. https://twitter.com/CapFrameX/status/1319372044035907614
Von mir kam lediglich die Angabe von mehr als 10,000 Punkten. Mehr habe ich dazu noch nicht gesagt.
dargo
2020-10-23, 17:20:39
Mythos;12470780']Nein, die 6800xt zieht die 3080 mit dem neuen Treiber richtig ab.
https://youtu.be/amgchAgub4g
Läuft die RTX 3070 auch schon aus bevor sie überhaupt kommt? :freak:
Eine 5700XT Referenz liegt bei rund 6000 Pkt. im FSU. Wie sind 11600 da nur 77%?
Davon ab sind die 10% vor der 2070S Quatsch, da man auch Referenz vs. Referenz vergleichen sollte. Was schlecht der Fall ist, wenn man einfach den avg. aus der Datenbank nimmt. Sowohl guru3d, als auch hwluxx haben für die 5700XT und 2070S als Referenz bzw. FE rund 6000 Pkt. Der Unterschied liegt nicht einmal bei 1%.
Ansonsten zeigen deine 15%, dass hier langsam Felle davonschwimmen. ;D
Achja: Diese 11600 sind übrigens ohne den von Igor genannten Treiber, der laut ihm noch mal +10% gebracht hat.
Kuck bei Igor, da erreicht die XT mit neuem Treiber über 13k, was default bereits 8% über einer 3090 ist! R300?
dildo4u
2020-10-23, 17:24:02
Komisch wie Igor es begründet warum er nicht genaue Zahlen nennt, wenn das Referenz Werte sind kann es doch jeder AIB sein der sie geleakt hat.
[MK2]Mythos
2020-10-23, 17:24:20
Läuft die RTX 3070 auch schon aus bevor sie überhaupt kommt? :freak:
Scheint, als wäre das gesamte nvidia Portfolio komplett unterlegen. In jeder Hinsicht. Bestätigt auch meinen Eindruck, den ich seit der Ampere EnttäuschungVorstellung hatte.
mironicus
2020-10-23, 17:24:26
Und Igor meint auch, dass die 3080/3090-Chips von Samsung eingestellt werden und schon in Q1/2021 auf TSMC gewechselt wird.
Mangel76
2020-10-23, 17:26:32
Komisch wie Igor es begründet warum er nicht genaue Zahlen nennt, wenn das Referenz Werte sind kann es doch jeder AIB sein der sie geleakt hat.
Wenn der AIB die genauen Werte an AMD meldet und diese immer leicht variieren, so kann man an den genauen Werten den AIB, von dem das konkrete Ergebnis stammt, identifizieren. Hätten alle genau das gleiche Ergebnis, wäre es kein Problem.
Mangel76
2020-10-23, 17:27:05
Und Igor meint auch, dass die 3080/3090-Chips von Samsung eingestellt werden und schon in Q1/2021 auf TSMC gewechselt wird.
Wie soll das eigentlich so schnell gehen?
bloodflash
2020-10-23, 17:27:16
Mythos;12470780']Nein, die 6800xt zieht die 3080 mit dem neuen Treiber richtig ab.
https://youtu.be/amgchAgub4g
Gibt es da was Neues oder nur Geraune?
Wer schaut sich denn 13min. Video an für ne Benchmarktabelle mit 10 Zeilen Infos?
[MK2]Mythos
2020-10-23, 17:28:45
Gibt es da was Neues oder nur Geraune?
Wer schaut sich denn 13min. Video an für ne Benchmarktabelle mit 10 Zeilen Infos?
Man kann sich natürlich auch Igors Artikel dazu durchlesen, aber es war ja für einige Anwesende offenbar schon zu viel, Igors Benchmarks bzw Zahlen anzusehen.
mironicus
2020-10-23, 17:30:05
https://www.igorslab.de/wp-content/uploads/2020/10/02-Score.png
Rincewind
2020-10-23, 17:31:00
Gibt es da was Neues oder nur Geraune?
Wer schaut sich denn 13min. Video an für ne Benchmarktabelle mit 10 Zeilen Infos?
ich. Ausnahmsweise habe ich mir mal das gegeben (pure Neugierde).
Und Igor meint auch, dass die 3080/3090-Chips von Samsung eingestellt werden und schon in Q1/2021 auf TSMC gewechselt wird.
Wenn NV nicht gehörig aufbohrt, dann wird auch dies nicht so viel bringen. Hier sehe ich es wie Dural, der Schritt 8nM Samsung zu 7nM TSMC ist nicht so groß. Schau dir die Verbrauchswerte an, auch 7nM braucht Saft. Zudem sollte NV vertraglich über einen gewissen Zeitraum an Samsung gebunden sein, außer Samsung kann die vereinbarte Menge nicht liefern.
bloodflash
2020-10-23, 17:35:01
https://www.igorslab.de/wp-content/uploads/2020/10/02-Score.png
Na toll, den Link zu den Tabellen gab es doch ein paar Posts vorher.
Aber hier wird ja grad jeder YT/Twitter/Sonstwas-Link 10 mal durchgereicht...
Na toll, den Link zu den Tabellen gab es doch ein paar Posts vorher.
Aber hier wird ja grad jeder YT/Twitter/Sonstwas-Link 10 mal durchgereicht...
Vielleicht möchte nicht jeder seine Zeit mit ner Sucherei vergeuden.
Nazar
2020-10-23, 17:45:55
https://www.igorslab.de/wp-content/uploads/2020/10/02-Score.png
Interessant war Igors Aussage am Ende der Erklärung zu den Benchmarks.
!!Nach!! der Prozentwertveröffentlichung der 6800XT Benches, gab es noch einen neuen Treiber von AMD, der noch einmal eine Verbesserung von 10% gebracht haben soll. Damit käme die 6800XT auf mehr als 9000 GPU Punkte im TSE Bench (basierend auf den Zahlen aus seiner aktuellen Hochrechnung vom vorherigen Treiber).
Und er spekuliert, dass da bestimmt noch nicht das Ende erreicht ist.
Ich habe ja einiges erwartet aber das nicht. :eek:
Complicated
2020-10-23, 17:47:40
Mythos;12470798']Scheint, als wäre das gesamte nvidia Portfolio komplett unterlegen. In jeder Hinsicht. Bestätigt auch meinen Eindruck, den ich seit der Ampere EnttäuschungVorstellung hatte.
Das wäre schon ein gewaltiger Paukenschlag und ist so nicht zu erwarten gewesen. Allerdings habe ich auch nicht erlebt, dass so kurz nach einer Produktvorstellung 2 angekündigte Produkte aus dem Lineup gestrichen werden, bevor die Konkurrenz offiziell launched. Ich meine welche Gründe auch immer für das streichen der 20GB/16GB-Versionen entscheidend waren, diese können nicht erst in den letzten 4 Wochen bekannt geworden sein, wenn es interne Gründe sind wie z.B. Speicherknappheit.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.