PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 11. Oktober 2021


Leonidas
2021-10-12, 09:57:09
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-11-oktober-2021

Gast Ritis
2021-10-12, 10:52:24
Naja, ich denk mal der neue 600W PCIe Stecker war keine Idee von AMDs Radeon Group. Meine Vermutung als Designziel liegt bei den 2x150W von PCIe 8Pin plus Boardpower, also deutlich unter 400W.
Das Affentheater um zu hohe Ströme via PCIe Slot hat AMD sicherlich nicht schon wieder vergessen.

Von daher wird man bei mehreren Chiplets diese möglichst im Sweetspot betreiben und nicht wie einen Monolithen im exponentiellen Extremis. Das gesamte Powerbudget muss im Rahmen bleiben und kühlbar sein.

Wie bei den Zen CPUs sollte bei relativ hoher Grundlast die Effizienz bei Vollast bei Power/TFLOP dann im Vergleich zu den Monoliten viel positiver darstellen.

Erwartbar wäre dann ab Werke wieder eine Wakü für die Dickschiffe und von OEMs auch mal ein Golden Sample mit höherem Strombedarf. Zumindest bis die Nvidia-Jünger die 600W als den neuen wahren Glauben etabliert haben. ;)
Damit würde ich aber frühestens mit Navi4x rechnen, wenn überhaupt.

Leonidas
2021-10-12, 11:00:19
Denke ich auch, dass man hier nicht ganz so abheben will. Vielleicht ist man sich auch sicher, dass es sowieso reicht, um Lovelace Paroli zu bieten. Mehr Saft drauf geben kann man immer noch.

MiamiNice
2021-10-12, 12:08:53
Und es geht wieder los. Irgendwer faselt was von 2,7x facher Performance von AMD irgendwas bla bla. Als nächstes kommen die Fanbois die es wahrscheinlich bis zur 5 fachen Performance hochskizzieren - bei Release wird klar das es doch nur 2 fache Performance liefert - weil es ist von AMD.

The same procedure as every year :biggrin:

Benutzername
2021-10-12, 12:22:12
Und es geht wieder los. Irgendwer faselt was von 2,7x facher Performance von AMD irgendwas bla bla. Als nächstes kommen die Fanbois die es wahrscheinlich bis zur 5 fachen Performance hochskizzieren - bei Release wird klar das es doch nur 2 fache Performance liefert - weil es ist von AMD.

The same procedure as every year :biggrin:


Die Leistungszunahmenziele hat AMD bei Ryzen und Navi eigentlich immer so ziemlich erreicht bisher.

------------

@Gast Ritis: Naja, Ich vermute wir werden in der Navi30 Generation auch noch Karten mit den alten 8-Pin Steckern sehen. Nicht alle werden auf den neuen Stecker sofort aufspringen. Es giobt ja auch noch genug eingabute NEtzteile mit den alten Steckern. Von daher halte die Schätzung, daß man im Rahmen von 2 * 8pin + PCIe Slot bleibt auch für realistisch. 3 * 8 Pin ist einfach zu unpraktisch. Wird aber wohl der eine oder andere Partnerhersteller bauen, weil es nach mehr Power aussieht. ;)


Anstatt Wakü ab Werk würde Ich mir Kühlerlose Grafikkarten wünschen auf die ich dann einen Wasserblock meiner Wahl aufsetzen kann. Die heutigen Kühlerkonstruktionen kosten ja schon so viel wie ein Wasserblock mittlerweile und warum sollte ich doppelt beuzahlen? Und Anleitungen bitte, welche Dicken die Pads wo haben sollen.

basix
2021-10-12, 12:50:01
Bei 3.3x FP32 Performance von N21 (240 CU @ 2.4GHz) ist die Performance-Abschätzung genau das, was man anhand des RDNA2 Scalings erwarten kann. Bei doppelt so vielen Einheiten kommen ca. +70% davon als Realperformance an: https://www.computerbase.de/2021-03/amd-radeon-rdna2-rdna-gcn-ipc-cu-vergleich/2/#abschnitt_40_60_72_und_80_cus_vergleich_in_7_spielen

(3.3-1)*0.7 + 1 = 2.6x Performance

Und für 240 CU sind die Taktraten doch recht ordentlich. Die Dinger wären vielleicht auf 3.0 GHz taktbar, das lässt die Leistungsaufnahme aber wohl definitiv nicht zu.

Edit:
Und es geht wieder los. Irgendwer faselt was von 2,7x facher Performance von AMD irgendwas bla bla. Als nächstes kommen die Fanbois die es wahrscheinlich bis zur 5 fachen Performance hochskizzieren - bei Release wird klar das es doch nur 2 fache Performance liefert - weil es ist von AMD.

The same procedure as every year :biggrin:
Diese Performance-Abschätzung ist schon sehr lange im Gespräch. Und anhand der HW-Daten liegt das auch im machbaren Bereich (wenn es denn so kommt). Ist eher die Frage, bei welcher Verlustleistung. Man muss auch sehen: N31 geht in Punkto Chipfläche über das Reticle-Limit hinaus, evtl. fast das doppelte von N21. Total so um die 1000mm2 sind im Gespräch. Dazu 5nm und High-Density Infinity Cache (siehe V-Cache). Dass man hier >2x Performance erwartet, ist eigentlich logisch. Sonst wäre RDNA3 ein eher schlechtes Design.

Platos
2021-10-12, 13:48:02
Bei 2x 500mm2 unter 5nm kann man auch mit einem Preis von ~1700$ aufwärts rechnen.

Es wird keine 2-Fache Perfomance bei selbem Listenpreis geben (Verglichen mit dem Namensnachfolger).

Gast Ritis
2021-10-12, 15:04:48
Anstatt Wakü ab Werk würde Ich mir Kühlerlose Grafikkarten wünschen auf die ich dann einen Wasserblock meiner Wahl aufsetzen kann. Die heutigen Kühlerkonstruktionen kosten ja schon so viel wie ein Wasserblock mittlerweile und warum sollte ich doppelt beuzahlen? Und Anleitungen bitte, welche Dicken die Pads wo haben sollen.

Leider leider leider konnte sich weder Nvidia noch AMD je dazu durchringen ein Referenz-Board Design je GPU-Klasse über Generationen so aufzulegen, dass ein Standardkühler hätte gebaut werden können.

Man bräuchte nur immer die Spawas schön in einer Reihe mit gleichm Abstand zur GPU, die bis zu 8 Speicherchips im gleichen Abstand ringsum und dann halt die paar hohen Bauteile mit Kondensatoren in der Höhe maximieren und 6 Standard-Löcher für die Montage von nem Full-Cover Wakü. Wäre jetzt kein Hexenwerk gewesen, geht bei Mainboards seit Jahren gut. Für HBM GPUs hätte es dann mal was anderes sein dürfen, aber unterm Strich eine verpasste Chance den Ref-Designs mehr Sinn und Wert zu geben.

Gast Ritis
2021-10-12, 16:31:36
Bei 2x 500mm2 unter 5nm kann man auch mit einem Preis von ~1700$ aufwärts rechnen.

Es wird keine 2-Fache Perfomance bei selbem Listenpreis geben (Verglichen mit dem Namensnachfolger).

Nee, der N21 ist doch als Monolith 520mm2 bei 80CUs. Bleiben beim Chiplet vielleicht 75% übrig weil der Rest in ein IO/Mem Chiplet geht. Dann kommt der Shrink hinzu, 80% bessere Dichte?
Am Ende wird ein Compute-Chiplet vielleicht nur 250mm2 gross. Wer weiss schon was die mit Caches anstellen und ob der für Takt doch minim grösser ausgelegt werden muss. Aber sicher wird der viel kleiner als ein kompletter N21 Die.
Abwarten, die Info kommt noch früh genug was das in der Herstellung kosten könnte.

Wenn man wie MLID darauf vertraut dass N2X und N3X jeweils das doppelte bzw. 3-fache von Navi10 darstellt, dann kommt ein N3 Monilith doch nur 50% beser in Performance als ein N21. Zwei davon gibt dann die theoretischen 300% Performance. So ganz grob die Richtung wird das schon stimmen. Am Ende wird man irgendwelche Benchmarks finden können, die das belegen ;)
Aber zu viel Zweifel ist da nicht angebracht. Bei der besten Radeon 5700XT vs. die beste 6900XTX ging das zumindest mit 2X auf.


Der Preis im Laden ist ohnehin eine ganz andere Geschichte. Da zählt am Ende vermutlich nur noch das P/L Verhältnis und die Marge im Vergleich zu Intel und Nvidia.

matty2580
2021-10-12, 17:29:37
Wenn man das bei Intel schon direkt so einschätzt, dass man die Nachfrage nicht bedienen kann, klingt das schon einmal sehr schlecht.

Ich warte sowieso lieber bis Meteor Lake, überspringen Alder Lake und den Refresh.
Ende Q1 2023, also in 1 1/2 Jahren, sollte sich der GPU Markt wieder beruhigt haben, so dass ein PC für mich wieder bezahlbar wird.
Und bis dahin muss die PS5 und die Switch ausreichen.

Korvaun
2021-10-12, 17:44:01
Wenn man das bei Intel schon direkt so einschätzt, dass man die Nachfrage nicht bedienen kann, klingt das schon einmal sehr schlecht.

Das kommt zu 100% auf die Mining-Fraktion an. Wenn da große "Farmer" die GraKa gleich wieder palettenweise direkt vom Hersteller kaufen wird wohl wenig übrig bleiben für den restlichen Markt (sofern es nicht nur Ref-Designs direkt von Intel gibt sondern wie bei AMD/nV auch Dritthersteller...)

Benutzername
2021-10-12, 19:00:03
Leider leider leider konnte sich weder Nvidia noch AMD je dazu durchringen ein Referenz-Board Design je GPU-Klasse über Generationen so aufzulegen, dass ein Standardkühler hätte gebaut werden können.

Man bräuchte nur immer die Spawas schön in einer Reihe mit gleichm Abstand zur GPU, die bis zu 8 Speicherchips im gleichen Abstand ringsum und dann halt die paar hohen Bauteile mit Kondensatoren in der Höhe maximieren und 6 Standard-Löcher für die Montage von nem Full-Cover Wakü. Wäre jetzt kein Hexenwerk gewesen, geht bei Mainboards seit Jahren gut. Für HBM GPUs hätte es dann mal was anderes sein dürfen, aber unterm Strich eine verpasste Chance den Ref-Designs mehr Sinn und Wert zu geben.

Ja, gute Frage, warum das eigentlich noch nie so gemacht wurde? Ich vermute eine Kombination aus "hamwaschonimmersogemacht" und daß es den GraKa-Herstellern ein Stück weit egal sein kann, für jede Karte einen neuen Kühler aufzulegen bei Hunderttausender stückzahlen. Aber selbst für kleine Varianten wird ja schon manchmal ein neuer Kühler hergestellt. zB jetzt bei der Asus-Noctua rtx3070, die einen etwas anderen Kühlkörper als die platinengleiche tuf-gaming hat. Ich hätte als knauseriger Manager ja nur die neue Lüfterhalterung auf den vorhandenen Kühler getan.



----------------------------------------------------------------------

Das kommt zu 100% auf die Mining-Fraktion an. Wenn da große "Farmer" die GraKa gleich wieder palettenweise direkt vom Hersteller kaufen wird wohl wenig übrig bleiben für den restlichen Markt (sofern es nicht nur Ref-Designs direkt von Intel gibt sondern wie bei AMD/nV auch Dritthersteller...)


Stimmt eigentlich. Wird es Partnerkarten geben oder nur von intel selbst?

iamthebear
2021-10-12, 19:12:45
1.) Das Ganze wird sich beim Mining Anfang Dezember entscheiden ob die Umstellung auf PoS so klappt wie geplant. Falls sich kein Fork mit Akzeptanz der Börse bildet wird Ethereum Mining ab ca. März 2022 dann vorbei sein bzw. schätze ich, dass dann bereits ab Dezember 2021 keine neuen Karten mehr gekauft werden.

Natürlich gibt es noch andere Kryptowährungen aber diese haben bei weitem nicht den Marktanteil. Diese werden vermutlich dann von Miningkarten überschwemmt sodass zwar für einige das Mining mit bestehenden Karten bei günstigen Stromkosten profitabel bleiben könnte, nicht jedoch die Neuinvestition in neue Karten.

2.) Was die Diskussion über den Performancegewinn angeht so stellt sich die Frage wie diese überhaupt ermittelt werden soll. In 4K Rasterization wird man bei aktuellen Spielen keine 2.7x Steigerung sehen können da aktuelle CPUs gar nicht so viele FPS liefern können und selbst wenn stellt sich bei deutlich über 120fps die Frage nach dem Sinn.
Vergleicht man unter 8K wird man wiederrum vor dem Problem stehen, dass es derzeit keine passenden Displays gibt. 30" Monitore brauchen kein 8K und Fernseher stehen bei 8K60 mit HDMI 2.1 an und das ist schon mit DSC.

Derzeit wäre die einzige Verwendung für diese Leistung ein starker Einsatz von Raytracing. Hier stellt sich aber die Frage, ob die Effekte die Bildqualität wirklich so sehr verbessern, dass es die Sache wirklich wert ist.

Leonidas
2021-10-13, 04:30:53
Stimmt eigentlich. Wird es Partnerkarten geben oder nur von intel selbst?

Ich glaube, das beantwortete sich mit dieser News eindeutig: Intel stellt den Partnern alle Daten für Eigendesigns zur Verfügung.

Gast
2021-10-13, 08:10:38
Wer bei den Enthusiastenkarten unter 300 W Gesamtverbrauch bleiben möchte, wird mit Sicherheit durch Undervolting und co. Leistung einbüßen.
Rechne mit x2 Leistung in diesem Fall; auch spitze.

Gast
2021-10-13, 11:31:04
Ich glaube, das beantwortete sich mit dieser News eindeutig: Intel stellt den Partnern alle Daten für Eigendesigns zur Verfügung.

Nicht wirklich, das beantwortet nur, dass Intel gerne Partner hätte, das heißt aber noch lange nicht, dass die Kartenhersteller auch unbedingt mit Intel zusammenarbeiten wollen.

Leonidas
2021-10-13, 12:27:43
In der Tat. Ich hatte die Frage anders aufgefasst.