Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA3 (Navi 3X, Radeon RX 7000 Serie, tlw. Chiplets, 5/6 nm, 2022)
Iscaran
2023-05-28, 23:43:53
50% mehr Register können nicht zu 65% mehr Transistoren des ganzen Chips führen :D.
L0-Caches und Register sind natürlich teurer, aber auch da sind es "nur" 20MB Registerspace für N21, 8MB für N33 und 36MB für N31.
36/20 = 1.8
Klar ist nur ein TEIL des Gesamtenchips. Aber allein für den Teil braucht es dann wohl 1.8x Transistoren... (also bei N21 => N31)
Weiss jetzt nicht wie die anderen Bereiche sich so verändert haben, aber wenn die Gesamtmenge an Transistoren für ALLE arten Caches insgesamt einfach recht hoch ist...
Die CUs etc. sind ja auch verdoppelt also x2 an Transistoren für CUs.
iamthebear
2023-05-29, 00:30:08
Cache frisst eine ganze Menge Transistoren oder nicht? Statt nur paar MB hat AMD gerade beim N31 ja ordentlich Cache gepackt.
Der N33 kommt dagegen eben mit weit weniger cache (proportional gesehen). => erklärt das den vermeintlichen Transistorenschwund N33 => N31?
Navi31 ist in so gut wie allem das 3 fache von Navi33:
96MB IF$ vs. 32MB IF$
96CUs vs. 32 CUs
384Bit SI vs. 128Bit SI
Das einzige was nicht skaliert sind so IO Kram wie Display Port, PCIe Lanes (die wurden halbiert) etc.
Ada hat ja auch deutlich mehr an Caches wie Ampere. => Mehr Transistoren?
Ja der Cache erklärt einen Teil davon, aber bei Weitem nicht alles.
50% mehr Register können nicht zu 65% mehr Transistoren des ganzen Chips führen :D. Ansonsten hat RDNA3 light genauso viel Cache pro CU wie RDNA3 heavy, nämlich 1MB/CU. Bei N21 waren es noch 1,6MB pro CU.
Was bei N33 alles abgespeckt wurde lässt sich wohl schwer sagen.
Was wir jedoch eindeutig sehen: Navi31 hat in etwa dieselbe IPC wie Navi33. Ich glaube kaum, dass AMD so blöd ist 65% zusätzliche Transistoren zu verbauen wenn dadurch nicht deutlich mehr Leistung raus schaut. Davon sieht man aber gar nichts.
Um den Transistorenbedarf der Caches absolut etwas einzuordnen: Ein Zen-2-Chiplet hat 3,8Mrd. Transistoren und insgesamt 36MB L2+L3 Cache an Bord. Mehr als 100 Mio. Transistoren pro MB Cache werden es wohl auch bei den GPUs nicht sein für die großen Caches. L0-Caches und Register sind natürlich teurer, aber auch da sind es "nur" 20MB Registerspace für N21, 8MB für N33 und 36MB für N31.
Eine SRAM Zelle hat 6 Bit. Pro MB Cache sind es also 48MB plus etwas Verwaltungslogik.
36/20 = 1.8
Klar ist nur ein TEIL des Gesamtenchips. Aber allein für den Teil braucht es dann wohl 1.8x Transistoren... (also bei N21 => N31)
Weiss jetzt nicht wie die anderen Bereiche sich so verändert haben, aber wenn die Gesamtmenge an Transistoren für ALLE arten Caches insgesamt einfach recht hoch ist...
Die CUs etc. sind ja auch verdoppelt also x2 an Transistoren für CUs.
Den Vergleich von N31 vs. N21 bezüglich der Transistoranzahl habe ich mir bisher gespart, da es sich hier nicht nur um andere Architekturen, sondern auch um eine andere Performanceklasse handelt.
Aber auch hier:
Full N31 sind 58 Mrd. Transistoren
Die 7900 XT (wenn man 1/8 des GCD bzw. 1 MCD raus rechnet):
45.7 * 84/96 + 5*2,05 = 45,2 Mrd.
Full N31 waren 27,2 Mrd.
Das sind 66% mehr Transistoren für 15-20% mehr Performance (wenn man mit der 6950 XT vergleicht).
iamthebear
2023-05-29, 00:44:15
An der Stelle möchte ich einwerfen, dass auch das Zen-4-CCD knapp 60% mehr Transistoren hat als Zen 3. Für die kleinen Verbesserungen am Core und den verdoppelten L2 kann es allein nicht liegen, sondern muss mit den gesteigerten Taktraten zu tun haben.
Zen4 hat 6,57 Mrd.
Zen3 hat 4,15 Mrd.
Davon sind aber jeweils um die 2 Mrd. Transistoren nur der L3 Cache, der ja nicht verändert wurde.
Rechnet man den raus wären wir bei:
Zen4: 4,57 Mrd.
Zen3: 2,25 Mrd.
Das ist also eine Verdopplung der Transistoranzahl pro Kern.
Klar es gab schon einige Stellen wo Transistoren investiert wurden z.B. in AVX512 aber eine Verdopplung will ich nicht so Recht glauben.
Und auch hier habe ich so meine Probleme mit der Transistordichte:
1.8x Steigerung bei einem Kern der zur Hälfte aus L3 besteht sieht ziemlich verdächtig aus.
Lt. PCGH Index hat die 7900XTX 34% mehr Performance über alles (Raster) als eine 6950XT. Diese Aussage ist also falsch. Und die Aussage über Transistoren ist ebenfalls falsch, denn schon ein anderer Prozess kann eine andere andere Transistordichte bedingen. Du kannst auch mehr Transistoren verbauen um weniger Strom zu verbrauchen, die Tansistordichte als solches sagt nicht viel aus.
TheGood
2023-05-29, 08:18:57
NAchdem RDNA3 ja ein massives Problem hat bzgl. des VErbrauchs bei hohen Taktraten. Dies wohl aufs Design zurueckzuführen ist (sonst wäre es bei N33 nicht auch so) müsste man doch erwarten, dass die NAhcfolgegeneration das ausbügeln kann und es dann einen weitaus höheren Sprung geben könnte oder?
Das ist übertrieben. Übrigens erhöht sich die Performance ggü. der 6k-Generation bei 4k, lt. CB sind es hier 41% mehr Vorsprung bei der neuen Generation, im Falle der 6950XT vs. 7900XTX bei fast gleichem Verbrauch. Das ist jetzt kein Wahnsinnsprung von RDNA2 auf 3, aber er ist auf jeden Fall da und gar nicht von so schlechten Eltern, wie immer getan wird.
Das ist übertrieben. Übrigens erhöht sich die Performance ggü. der 6k-Generation bei 4k, lt. CB sind es hier 41% mehr Vorsprung bei der neuen Generation, im Falle der 6950XT vs. 7900XTX bei fast gleichem Verbrauch. Das ist jetzt kein Wahnsinnsprung von RDNA2 auf 3, aber er ist auf jeden Fall da und gar nicht von so schlechten Eltern, wie immer getan wird.
Kann ich als Besitzer einer 6900XTX und einer 7900XTX vollends bestätigen. Ich zocke auch nur unter 4K und da ist die neue Generation klar im Vorteil.
Taigatrommel
2023-05-29, 13:44:42
Kann ich als Besitzer einer 6900XTX und einer 7900XTX vollends bestätigen. Ich zocke auch nur unter 4K und da ist die neue Generation klar im Vorteil.
Kann ich ebenfalls so bestätigen und das selbst unterhalb von 4k bei 3440x1440 ist der Sprung von MBA 6900 XT (welche durch UV Optimierung ja noch etwas schneller lief als ab Werk) auf MBA 7900 XTX (komplett auf Werkseinstellungen) schon spürbar. Klar ist das jetzt kein Wahnsinnssprung wie vom RDNA1 Flaggschiff 5700 XT auf RDNA2 Flaggschiff 6900 XT, doch es ist auf jeden Fall ein deutlicher Unterschied.
Vor einigen Monaten bestätigte AMD ja in einem Interview, dass man eine noch schnellere Version von RDNA3 hätte herausbringen können, der Verbrauch wäre dabei jedoch endgültig durch die Decke geschossen. Das glaube ich sogar und ich denke es ist schon die richtige Entscheidung gewesen, diese Brechstange gar nicht erst anzufassen.
Hatstick
2023-05-29, 14:30:56
Wann kommt von AMD eigentlich die Karte für die Mitte?
7600 ganz unten, 7900XT/XTX im High Performance Bereich, ist irgendwo was von einer 7800 16GB? für 500-600€ zu lesen?
Das ist ja aktuell komplettes nVidia Reich...
vinacis_vivids
2023-05-29, 15:01:47
Da wird N21 und N22 noch abverkauft ehe N32 kommt und diese ersetzt. Die beste Zeit für GPU-Käufer RDNA2 noch billig abzugreifen. Q2 / Q3 2023 passt ja gut zu N32.
Hatstick
2023-05-29, 15:07:42
Jo, hat mich nur gewundert, das man so gar nix über diesen Preisbereich bei AMD liest.
Aber ja, auch ich bin ein halbes Jahr nach dem Kauf sehr zufrieden mit der 6800XT.
Bereue bzgl. der aktuellen Gen es kein Stück, zur 6800XT gegriffen zu haben und ist durchaus für den ein oder anderen weiterhin eine Option... allerdings auch kein Wunder, bei der Marktsituation.^^
dildo4u
2023-05-30, 11:38:08
Asus Ally hat ein Performance Boost per BIOS Update bekommen.
https://videocardz.com/newz/asus-rog-ally-gets-up-to-20-boost-in-15-25w-gaming-with-new-firmware
robbitop
2023-05-30, 11:41:48
Asus Ally hat ein Performance Boost per BIOS Update bekommen.
https://videocardz.com/newz/asus-rog-ally-gets-up-to-20-boost-in-15-25w-gaming-with-new-firmware
Und man landet gerade mal dort wo andere Handhelds mit Ryzen 7840 lagen obwohl der Z1 Extreme besonders für handhelds speziell bei low TDP mit custom frequency/voltage curves getunt sein soll von AMD. Offenbar nicht.
dildo4u
2023-05-30, 11:50:09
Was anderes macht kein Sinn alle Laptops unter 1000€ bekommen nur Zen 3 Refrech.
Wenn man was selektieren kann dann für 1500€ Notebooks.
robbitop
2023-05-30, 11:57:26
Dann hätte es diesen Z1 nicht gebraucht wenn es keinen Unterschied macht.
dildo4u
2023-05-30, 12:07:08
Die AI Engine wurde eingespart in den USA sind damit 600$(Ally Z1) Geräte möglich es wird lange Dauern bis du dort Notebooks mit Zen 4 bekommst.
Imo werden Intel und AMD ihre AI/VPU Einheiten dazu nutzen diese Modelle als Premium Feature mit Aufpreis zu verkaufen.
Leonidas
2023-05-30, 12:41:32
Wann kommt von AMD eigentlich die Karte für die Mitte?
Gute Frage. Von N32 ist wirklich nichts zu sehen, nicht mal kleine Indizien.
dildo4u
2023-05-30, 12:42:38
War die Computex Pressekonferenz schon?
DrFreaK666
2023-05-30, 12:54:21
War die Computex Pressekonferenz schon?
Sie haben wohl keine, wenn man dieser Seite glaubt
https://www.wepc.com/news/why-amd-isnt-at-computex-2023/
robbitop
2023-05-30, 13:11:17
Die AI Engine wurde eingespart in den USA sind damit 600$(Ally Z1) Geräte möglich es wird lange Dauern bis du dort Notebooks mit Zen 4 bekommst.
Imo werden Intel und AMD ihre AI/VPU Einheiten dazu nutzen diese Modelle als Premium Feature mit Aufpreis zu verkaufen.
Die ist doch nur deaktiviert. Das spart kein Geld. Und das Feature ist doch für Consumer komplett wertlos, da es keine richtigen Consumer Killer Apps dafür gibt, die das nutzen. Aktuell erzeugt das maximal ein Achselzucken.
robbitop
2023-05-30, 14:13:36
https://www.youtube.com/watch?v=2jZ1wP10ImE
Da fragt man sich, was AMD da macht in Bezug auf Powermanagement :facepalm:. Ein neues ROG Ally Video von Da Phawx. Ein externes Tool "AutoTDP" stellt die TDP dynamisch so ein, dass die eingestellte Framerate gehalten wird.
Versus: man legt einfach einen Framelimiter an. Mit "AutoTDP" halber Verbrauch bei gleicher Framerate. :| Ein von irgend einem Typ geschriebens Tool ist also massiv besser als das was AMD mit Profis (sogar mit HW Zugriff) hinbekommt.
Warum rennt die CPU und GPU überhaupt auf höheren als nötigen Taktraten wenn ein Framelimit drin ist. Frame ist fertig -> geh schlafen und gib mal bescheid, dass die Taktrate verringert werden soll. Sowas muss doch out of the box funktionieren.
Altehardware
2023-05-30, 19:53:09
Das liegt an der Stabilität der fps
Es kann sein das die sparsame Ausführung instabil sind und es zu Bildfehlern führt das zeigt dir kein fps Diagramm an
robbitop
2023-05-30, 20:04:32
Aber das macht nicht Faktor 2 an Leistungsaufnahme. Da ist ganz offensichtlich was faul.
Complicated
2023-05-30, 20:21:16
Die ist doch nur deaktiviert. Das spart kein Geld. Und das Feature ist doch für Consumer komplett wertlos, da es keine richtigen Consumer Killer Apps dafür gibt, die das nutzen. Aktuell erzeugt das maximal ein Achselzucken.
Nicht mehr so ganz: https://www.heise.de/news/Qualcomm-Wir-fuehren-bei-On-Device-AI-9069524.html
Bei einem Vergleich zwischen einem Intel Core i5-1235U mit Qualcomms Snapdragon 8cx Gen 3 war die Hexagon-Einheit in letztem fünfmal schneller als Intels CPU-Kerne und mehr als zweieinhalbmal schneller als Intel GPU-Kerne. Einen Facetracking-Algorithmus bearbeitete die Hexagon-GPU in Echtzeit mit 140 Milliwatt, während reguläre CPU-Kerne dabei laut Qualcomm rund 20 Watt schlucken.
Mittelfristig geht Qualcomm fest davon aus, dass KI-Performance neben der von CPU und GPU ein drittes wichtiges Unterscheidungsmerkmal bei Kaufentscheidungen werden wird. Sprach- oder Bilderkennung müsse lokal laufen, und inzwischen laufen sogar heftigere Workloads wie der Bildgenerierer Stable Diffusion mit erträglicher Geschwindigkeit auf Smartphones mit Snapdragon 8 Gen 2 – obwohl dieser in den anderen Aspekten viel schwächer als gängige Notebookprozessoren dasteht.
robbitop
2023-05-30, 20:53:16
Tja aber noch gibts die Killerapps mit lokalem Inferencing nicht die ready to go für den 0815 user sind und populär sind. Lokales stable diffusion oder chat gpt4 wäre super. Läuft aber noch auf der cloud. Noch sehe ich null Anreiz.
Complicated
2023-05-30, 21:10:38
Sprach- oder Bilderkennung müsse lokal laufenDer Microsoft Übersetzer oder die Teams Chatübersetzung und Transkription von Meetings. Die laufen nicht in der Cloud alleine. Auch die neuen personalisierten Comic-Avatare in Videokonferenzen nutzen das Kamerabild für Live-Gestiken in Teams. Das geht jetzt Schlag auf Schlag und alle wollen die Funktionalität in Hardware haben, um nicht bei Release der KI-Apps ins Hintertreffen zu kommen.
robbitop
2023-05-30, 21:41:36
Klingt alles lauwarm und oder halt noch nach nicht bekannt und/oder fertig. Ganz zu schweigen davon dass der 0815 Consumer überhaupt davon weiß.
Mittelfristig sehe ich das schon aber im hier und jetzt? Naja.
Complicated
2023-05-30, 22:04:16
Ich weiss ja nicht was bei dir 0815-Consumer sind, doch das sind Anwendungen die ich täglich im Geschäft nutze. Die CPUs gehen ja auch in Unternehmens Laptops. Sämtliche Übersetzungsfunktionen sind jetzt in Outlook/Teams/Edge/Sharepoint und allen anderen MS Office Anwendungen AI gestützt. Power Bi Reports bieten mit Insights lokale KI-Verarbeitung oder auf der virtuellen Maschine.
Achill
2023-05-30, 22:09:21
Klingt alles lauwarm und oder halt noch nach nicht bekannt und/oder fertig. Ganz zu schweigen davon dass der 0815 Consumer überhaupt davon weiß.
Mittelfristig sehe ich das schon aber im hier und jetzt? Naja.
Man muss gar nicht in der reinen consumer Ecke bleiben - das beschränkt viel zu sehr. Ich denke es gibt da eine ganze Dimension von ML gestütztes Arbeiten wo es genutzt werden kann.
iamthebear
2023-05-30, 22:14:24
Der Microsoft Übersetzer oder die Teams Chatübersetzung und Transkription von Meetings. Die laufen nicht in der Cloud alleine. Auch die neuen personalisierten Comic-Avatare in Videokonferenzen nutzen das Kamerabild für Live-Gestiken in Teams. Das geht jetzt Schlag auf Schlag und alle wollen die Funktionalität in Hardware haben, um nicht bei Release der KI-Apps ins Hintertreffen zu kommen.
1.) Das erinnert mich stark an die Präsentation des Mate 10: Kaum mehr Performance als das Mate 9 aber man hat jetzt eine NPU. Das ist mittlerweile knapp 6 Jahre her.
Als Killerapp wurde hier auch der Microsoft Übersetzer präsentiert, der durch Nutzung der NPU Text in Bildern erkennen und auf Anforderung übersetzen kann. Und alles lokal ohne Internetverbindung.
Der Haken an der Zeit:
Der Google Translater konnte dasselbe auch aber ganz ohne NPU und zwar nicht nur per Tastendruck sondern in Echtzeit.
In den ganzen knapp 6 Jahren hatte ich keine einzige App, wo dadurch wirklich ein realer Vorteil entstanden ist. Ja toll die Kameraapp erkennt jetzt automatisch meine Katze als Hund (naja fast) aber bessere Fotos entstehen so auch nicht wirklich.
2.) Turing ist mittlerweile schon fast 5 Jahre auf dem Markt. Wurden die Tensor Cores für irgendetwas außer DLSS schon sinnvoll eingesetzt?
Zuerst einmal muss es Anwendungen geben und dann kann man Hardware auf den Markt bringen, die diese Anwendungen beschleunigen aber wenn blind Hardware verbaut wird, dann bedeutet dies in der Regel, dass die Hardware schon längst EOL ist bevor es einen echten Nutzen dadurch gibt.
3.) Ich glaube, dass der bisherige Ansatz für AMD besser passt: Man reduziert die ganzen Hardware Zusatzfeatures auf ein Minimum und kann es sich dafür leisten auf derselben Fläche ein paar CUs mehr zu verbauen oder auch ein paar GB VRAM mehr.
Denn sind wir mal realistisch: Selbst wenn AMD jetzt einen DLSS Konkurrenten auf den Markt bringt der AI Hardware nutzt wird das Ergebnis immer noch schlechter aussehen wie DLSS wo Nvidia mehrere Jahre Vorsprung hat. Dasselbe gilt für FG.
Besser man konzentriert sich auf das, was man gut kann nämlich im Midrange unter 4K mit etwas FSR 2 (oder meinetwegen auch RSR im UQ Mode) flüssige Frameraten zu einem vernünftigen Preis zu produzieren. Soll Nvidia ruhig ihre 4060 Ti als 1080p + DLSS + FG mit Pathtracing auf Ultra verkaufen. Währenddessen läuft meine 6800 XT auf 4K Native@High oder FSR 2 Q mit gestochen scharfem Bild und Ultra Texturen für fast das gleiche Geld.
Complicated
2023-05-30, 22:35:15
Das ändert doch nichts daran, dass es haufenweise Anwender gibt die es nutzen - deine Use Cases sind hier wohl eher egal. Der Tellerand geht über Nvidia DLSS hinaus...keine Ahnung wie da jetzt auch Raytracing und Gaming rein passen soll, dass AI in der CPU schon sinnvoll ist.
Wahrscheinlich ist Qualcomm ebenso bescheuert wie alle anderen. Außer einigen wenigen, die seit 6 Jahren etwas nicht nutzen, das es erst seit einigen Monaten sinnvoll in breiter Masse gibt.
robbitop
2023-05-31, 07:25:00
Man muss gar nicht in der reinen consumer Ecke bleiben - das beschränkt viel zu sehr. Ich denke es gibt da eine ganze Dimension von ML gestütztes Arbeiten wo es genutzt werden kann.
Ja klar aber seien wir mal ehrlich wie viel Prozent der Laptopkäufer haben wirklich in 2023 was mit so intensivem AI Workload vor, dass man dedizierte AI HW braucht? IMO ist das noch Nische. IMO ist das für diese Gen nur eine Checkbox. Langfristig halt Henne-Ei. HW muss da sein, damit SW kommt.
Aber zu behaupten, das wäre im Hier und Jetzt eine Killeranwendung auf die ein Großteil der Laptopkäufer schon mit den Hufen scharren ist Hahnebüchen.
Siehe Tensorcores bei den NV GPUs. Aktuell werden die zu 99% im Consumermarkt für DLSS verwendet. Aber reine AI Workloads im Consumerbereich? Eher noch Nische.
robbitop
2023-05-31, 07:28:06
Das ändert doch nichts daran, dass es haufenweise Anwender gibt die es nutzen - deine Use Cases sind hier wohl eher egal. Der Tellerand geht über Nvidia DLSS hinaus...keine Ahnung wie da jetzt auch Raytracing und Gaming rein passen soll, dass AI in der CPU schon sinnvoll ist.
Wahrscheinlich ist Qualcomm ebenso bescheuert wie alle anderen. Außer einigen wenigen, die seit 6 Jahren etwas nicht nutzen, das es erst seit einigen Monaten sinnvoll in breiter Masse gibt.
Haufenweise? Gibts da auch Zahlen? Mich würde es stark wundern, wenn das nicht die überwiegende Minderheit der Laptopkäufer sind.
Ich glaube wir sind uns alle einig, dass das die Zukunft ist. Und die HW muss eben etwas eher verbaut sein, damit es sich verbreiten kann. Ich bin absolut nicht dagegen - im Gegenteil. Ich sage nur, dass es für die meisten Käufer im Hier und Jetzt wahrscheinlich noch kein primäres Kaufkriterium ist. Wenn man sich anschaut, was AI schon heute tut ist das beeindruckend. Und wenn vieles davon lokal laufen kann (Inferencing) wäre das absolut sinnvoll (Speed/Usability). :up:
Aber IMO sind wir hier stark OT - lasst uns gern auf RDNA3 und RDNA3 Produkte zurückkehren.
Complicated
2023-05-31, 11:38:54
Also wenn 13.000 PC-Nutzer (Laptop/Desktop/Thin Client) in einem Unternehmen alle KI gestützte Services im Teams nutzen ist das nicht haufenweise? Alle sind lizenziert auch für den Co-Piloten von Microsoft. https://news.microsoft.com/de-de/wir-stellen-vor-microsoft-365-copilot/
NDAs werden von KIs verfasst in der Compliance Abteilung.
E-Mails werden automatisch Kategorisiert und mit Antwortvorschlägen für Annahme eines Angebots, Ablehnung oder Zuordnung des Vorgangs anhand von bestehenden SAP Daten
formuliert.
Internationalisierung geht nur noch über den integrierten Übersetzer und in über 70 Sprachen - das wird in Teams Konferenzen simultan übersetzt in die gewünschte Zielsprache und in Untertiteln dargestellt. Jede Woche poppt ein neuer Service mit KI Unterstützung auf.
Klar ist Offtopic und kann man gut sein lassen. Nur sind da eben so einige "Killer-Apps"schon produktiv und die Leute nehmen es mit ins Privatleben - die Hardware muss jetzt zum Consumer, damit die sich nicht in 6 Monaten was anderes kaufen wollen.
DrFreaK666
2023-05-31, 11:59:17
Also wenn 13.000 PC-Nutzer (Laptop/Desktop/Thin Client) in einem Unternehmen alle KI gestützte Services im Teams nutzen ist das nicht haufenweise?...
2022 wurden allein in Deutschland fast 4 Millionen Notebooks verkauft. Kannst dir selbst beantworten, ob 13.000 Geräte (nicht nur Notebooks, wie du selbst sagst) "haufenweise" sind
robbitop
2023-05-31, 12:12:37
Also wenn 13.000 PC-Nutzer (Laptop/Desktop/Thin Client) in einem Unternehmen alle KI gestützte Services im Teams nutzen ist das nicht haufenweise? Alle sind lizenziert auch für den Co-Piloten von Microsoft. https://news.microsoft.com/de-de/wir-stellen-vor-microsoft-365-copilot/
NDAs werden von KIs verfasst in der Compliance Abteilung.
E-Mails werden automatisch Kategorisiert und mit Antwortvorschlägen für Annahme eines Angebots, Ablehnung oder Zuordnung des Vorgangs anhand von bestehenden SAP Daten
formuliert.
Internationalisierung geht nur noch über den integrierten Übersetzer und in über 70 Sprachen - das wird in Teams Konferenzen simultan übersetzt in die gewünschte Zielsprache und in Untertiteln dargestellt. Jede Woche poppt ein neuer Service mit KI Unterstützung auf.
Klar ist Offtopic und kann man gut sein lassen. Nur sind da eben so einige "Killer-Apps"schon produktiv und die Leute nehmen es mit ins Privatleben - die Hardware muss jetzt zum Consumer, damit die sich nicht in 6 Monaten was anderes kaufen wollen.
Naja was sind 13.000 User gegen die Millionen an Chips die da verkauft werden. Und ob das vollumfänglich schon für die 13.000 genutzt wird, steht da auch nicht. Aber grundsätzlich wird das wie ein Hockeystick verlaufen. Erst wenige und dann geht es exponentiell hoch. Ich glaube grundsätzlich sind wir ja d'accord, dass das wichtig wird. Nur eben nicht unbedingt ob es jetzt für die Mehrzahl der Consumer ein kaufentscheidendes Kriterium im Hier und Jetzt ist. Aber am Ende ist es ja auch nebensächlich ob es das jetzt ist oder in 2024 oder erst in 2025.
IMO ist das noch ein wenig die Pionierphase die sich dann sukzessive entfaltet.
Complicated
2023-05-31, 12:12:53
Ja, die Quote lässt sich ja schön extrapolieren: 13.000 Nutzer->100% Nutzung von KI-Tools-> auf 4. Millionen Notebooks hochgerechnet, ergibt ein sinnloses Argument wenn man darauf antwortet, dass alle Nutzer KI nutzen.
Ich erwarte dieses Jahr noch Performance-Benchmarks für KI (Co-Pilot von MS), welche die Kaufentscheidung beeinflussen. Siehe auch meinen Link zu Qualcomm, wo das ja schon für ARM-CPUs eine 5x bessere Performance gegenüber Intel in diesen Workloads gezeigt wird. Mit CPUs die eigentlich zu schwach wären für general purpose Berechnung. 140mW vs. 20W Verbrauch für den selben Workload.
basix
2023-05-31, 12:41:20
Ich denke schon, dass Firmen hier in Richtung KI-Acceleration gehen werden. Microsoft hat eine so hohe Verbreitung und wenn die das in ihre Tools einbauen (Office, Sharepoint, Teams, ...) dann hat das ziemlich schnell eine potentiell sehr hohe Reichweite. Stellt euch vor: Man wird durch ein Update von MS Produkten sogar produktiver, habe ich noch fast nie erlebt :D Die ständigen Office 365 Updates führen eher zu einem Hindernis der Produktivität (GUI ändert sich ständig und gewisse Funktionen und Buttons kann man jedes Mal wieder neu suchen)
robbitop
2023-05-31, 16:38:57
https://www.youtube.com/watch?v=2jZ1wP10ImE
Da fragt man sich, was AMD da macht in Bezug auf Powermanagement :facepalm:. Ein neues ROG Ally Video von Da Phawx. Ein externes Tool "AutoTDP" stellt die TDP dynamisch so ein, dass die eingestellte Framerate gehalten wird.
Versus: man legt einfach einen Framelimiter an. Mit "AutoTDP" halber Verbrauch bei gleicher Framerate. :| Ein von irgend einem Typ geschriebens Tool ist also massiv besser als das was AMD mit Profis (sogar mit HW Zugriff) hinbekommt.
Warum rennt die CPU und GPU überhaupt auf höheren als nötigen Taktraten wenn ein Framelimit drin ist. Frame ist fertig -> geh schlafen und gib mal bescheid, dass die Taktrate verringert werden soll. Sowas muss doch out of the box funktionieren.
Aus dem Steam Deck Thread (mein Steam Deck ist heute angekommen):
Also ich kann bestätigen, dass der Steam Deck SoC (Van Gogh) dieses Gefrickel mit externen Programmen "AutoTDP" nicht braucht. CPU und GPU gehen von ganz allein in richtig tiefe powerstates, wenn die Spiele das Framelimit locker schaffen.
Gerade dark souls 2 probiert. Da takten GPU und CPU so niedrig weil es anscheinend super einfach ist 60 fps zu schaffen dass er mir 4 h Akku anzeigt. Senke ich die Auflösung und den Framelimiter auf 40 fps sinkt die Leistungsaufnahme des SoCs weiter und er zeigt mir 5h Akku an. Ich muss die TDP nicht mal limitieren. So geht das. :up:
dildo4u
2023-06-01, 09:22:16
Test mit 3Ghz 780m.
QMuQGSjlA4s
davidzo
2023-06-01, 11:26:02
NDAs werden von KIs verfasst in der Compliance Abteilung.
Rofl, das ist perfekt! Wir übergeben die juristische Verantwortung eines Unternehmens an eine KI, denn dann ist niemand schuld wenn etwas schief läuft! Problem gelöst, hahaha
E-Mails werden automatisch Kategorisiert und mit Antwortvorschlägen für Annahme eines Angebots, Ablehnung oder Zuordnung des Vorgangs anhand von bestehenden SAP Daten
formuliert.
Internationalisierung geht nur noch über den integrierten Übersetzer und in über 70 Sprachen - das wird in Teams Konferenzen simultan übersetzt in die gewünschte Zielsprache und in Untertiteln dargestellt. Jede Woche poppt ein neuer Service mit KI Unterstützung auf.
Ich wäre schon froh wenn die touchscreen texteingabe beim handy oder ipad mal etwas sinnvollere Vorschläge macht.
Aber das was du da beschreibst sind alles keine client workloads.
1. E-mail läuft eh über den server, wozu sollte ich also die ai erkennung langsam und erst beim Abrufen auf dem client machen wenn ich schon viel früher auf dem server vorsortieren könnte?
2. Sprachmodelle für 70 Sprachen die anständige Resultate liefern (wie ChatGPT) sind zig gigabyte groß. Das lässt du nicht mal eben so auf deinem Labtop im Hintergrund laufen. H100 hat nicht umsonst 80GB pro Stück und 640gb pro DGX, sondern weil die besten Sprachmodelle die es aktuell gibt das auch brauchen. Mit weniger brauchst du gar nicht erst antanzen denn da ist der Griff zur Open-AI API eben qualitativ viel besser, viel einfacher und weniger komplex für dich als entwickler. Es gibt zwar auch abgespeckte Sprachmodelle die auf Consumer GPUs laufen, aber glaub mir die willst du nicht. Daneben wirkt Clippy intelligent und multisprachsupport ist da sowieso Asche. Das ist dann nur ein Gimmick und keine wirkliche Hilfe beim Überstetzen. Und Echtzeit ist das schon lange nicht, da wartest du nach einem eingabepromt schonmal gerne 5minuten oder ne ganze Stunde auf deine Antwort je nach Komplexität, selbst wenn das auf ner 3080 läuft.
- Solche Sachen macht man heute zu 100% auf dem Server wenn man brauchbare Resultate will. Und ich spreche da aus Erfahrung, baue mit Kollegen gerade an einem KI Assistenten für einen spezifischen Nischenmarkt. Die Spracherkennung und Ausgabe machst du natürlich lokal, aber dafür brauchst du eben keine große Hardware. Das läuft auch wunderbar in software auf aktueller Amd, Intel, Arm hardware.
Und von der Tensor performance einer 3080 ist eine lütte Intel IGP eben noch Einiges entfernt. Die teure Hardware im client zu verbauen damit sie 99,9% der Zeit ungenutzt herumsteht lohnt sich im moment eh nicht. Alleine schon für load balancing ist es wesentlich effektiver das off-site zu berechnen. Komm mal in zehn Jahren wieder, dann reden wir über Chat-GPT das lokal im Ram auf einer Labtop-APU lauffähig ist. Aber im Moment ist das schnickschnack und solange es keine herstellerübergreifenden Standards gibt wird das über ein paar Techdemos oder Gimmicks von Microsoft nicht hinaus kommen.
Intel spielt auf lange Sicht. Im moment hat man 0% Martanteil bei KI Lösungen sei es Training oder Inference. Das könnte in 10 Jahren anders sein. Und mit Gimmicks und Techdemos muss man eben starten, denn von nix kommt nix. Aber für den User ist da noch lange zeit nichts ernsthaftes dabei.
Ich erwarte dieses Jahr noch Performance-Benchmarks für KI (Co-Pilot von MS), welche die Kaufentscheidung beeinflussen. Siehe auch meinen Link zu Qualcomm, wo das ja schon für ARM-CPUs eine 5x bessere Performance gegenüber Intel in diesen Workloads gezeigt wird. Mit CPUs die eigentlich zu schwach wären für general purpose Berechnung. 140mW vs. 20W Verbrauch für den selben Workload.
MLperf gibts doch schon lange nur macht da halt kaum jemand mit. Intel weigert sich aktuell auch noch größtenteils da Resultate abzuliefern weil man da gegenüber Nvidia sowieso den kürzeren ziehen würde. Die Softwareansätze sind halt so unterschiedlich sind dass kaum Vergleichbarkeit gegeben ist, pytorch, cuda, tensorflow, oneapi, rocm, etc. Und die Ökosysteme von allen anderen außer nvidia sind halt noch voller Fehlstellen oder Bugs wo mal eben in einzeltasks Faktor 100 oder 1000 Performanceeinbrüche in Benchmarks entstehen können. Da liefert man lieber gar keine oder nur halbe Benchmarkergebnisse damit Nvidia nicht noch besser aussieht.
Complicated
2023-06-01, 12:29:36
Rofl, das ist perfekt! Wir übergeben die juristische Verantwortung eines Unternehmens an eine KI, denn dann ist niemand schuld wenn etwas schief läuft! Problem gelöst, hahaha
Klar wenn man denkt Textbausteine von der Rechtsabteilung werden nicht verwendet - da schreibt nicht die KI Texte, sondern fügt die passenden Bausteine für das NDA zusammen für den Use Case. Mach das mal manuell und schau wie lange da identische, und vor allem aktuelle, NDAs aus verschiedenen Abteilung an die Partner gehen. Korrektur lesen geht schneller als zusammensuchen.
MLperf gibts doch schon lange nur macht da halt kaum jemand mit.
Was nützt dir denn ein MLperf Benchmark, wenn es um die Anwendung beim Anwender geht? Das Modell ist ja fertig und braucht kein learning mehr.
Complicated
2023-06-01, 12:33:12
Die Softwareansätze sind halt so unterschiedlich sind dass kaum Vergleichbarkeit gegeben ist, pytorch, cuda, tensorflow, oneapi, rocm, etc. Und die Ökosysteme von allen anderen außer nvidia sind halt noch voller Fehlstellen oder Bugs wo mal eben in einzeltasks Faktor 100 oder 1000 Performanceeinbrüche in Benchmarks entstehen können. Da liefert man lieber gar keine oder nur halbe Benchmarkergebnisse damit Nvidia nicht noch besser aussieht.
Das sind alles Entwicklerthemen, die überhaupt nicht von mir gemeint sind.
Kein Anwender läßt diese Dinge auf dem Windows System laufen bei der Anwendung einer KI-App die fertig trainiert ist.
Auch bei deinem 2. Punkt zu Sprachmodellen, ziehst du falsche Schlüsse - wer lässt denn ein ganzes Sprachmodell bei der Nutzung von ChatGPT irgendwo laufen?
davidzo
2023-06-01, 12:50:40
Was nützt dir denn ein MLperf Benchmark, wenn es um die Anwendung beim Anwender geht? Das Modell ist ja fertig und braucht kein learning mehr.
MLperf hat sowohl den Training Benchmark als auch inferencing Benchmarks.
Das sind alles Entwicklerthemen, die überhaupt nicht von mir gemeint sind.
Kein Anwender läßt diese Dinge auf dem Windows System laufen bei der Anwendung einer KI-App die fertig trainiert ist.
Auch bei deinem 2. Punkt zu Sprachmodellen, ziehst du falsche Schlüsse - wer lässt denn ein ganzes Sprachmodell bei der Nutzung von ChatGPT irgendwo laufen?
Und wo soll dein fertig trainiertes LLM Modell denn sonst drin laufen als im vram bzw. Ram? Wie willst du denn inferencing machen wenn du das Modell nichtmal in den Speicher lädst? Wenn das eh auf dem server läuft brauche ich auch keine Matrixeinheiten, da schicke ich ne Anfrage an die OpenAI API so wie jetzt auch schon. Dafür brauche ich keine neue Hardware.
Und ja, ich spreche rein von inferencing, nicht von training. Deswegen auch tensorcores, also reduced precision matrix operationen. Für Training brauchst du höhere Genauigkeit und mehr Zeit. Training wird im nächsten Jahrzehnt sowieso nicht auf mobiler client hardware machbar sein, also bei den large language Modellen nicht, bei einfacheren und nicht latenzkritischen sachen vielleicht schon. Aber Inferencing ist mit consumer hardware durchaus möglich, vor allem wenn es nicht large LLMs sind die zig gigabytes an speicher brauchen passen, sondern einfache bilderkennung, bewegungserkennung etc. Aber da hat Intel gerade null Marktanteile und es werden noch einige Jahre ins Land gehen und einige Standards neu geschrieben werden müssen bevor sich das ändert.
Complicated
2023-06-01, 14:28:40
Du mischst die Dinge - ein fertig trainiertes Modell braucht nichts von dem was du aufgezählt hast. Wozu die Tensorcores? Braucht weder AMD noch Intel für KI-Anwendungen lokal.
Du schickst etwas an die OpenAI API, das wars. Und wenn du das was du an die API schicken willst aus deiner Kamera erst einmal identifizieren mußt (Bilderkennung), machst du das mit welchen Daten, die du an die API schickst? Der gesamte Prozess geht über unstrukturierte Daten (Bild), zu strukturierten Daten in der API. Eine KI die zuvor die Klassifizierung der Objekte lokal vorqualifiziert (Klassifiziert) verbessert Performance/Kosten/Datenvolumen/Stromverbrauch/Trefferquote
Dass Intel keine Marktanteile hat in der Bilderkennung, ist schwer zu vereinbaren mit deren Aktivitäten mit MobileEye und bei Automotive. MobileEye hat nur 15 Mrd. gekostet und es werden 17 Mrd. Umsatz in 2030 erwartet. /Ironie off
Keine Ahnung was ihr da teilweise ausblendet, doch es ist eindeutig nicht plausibel, was du in den letzten 2 Beiträgen geschrieben hast. Sehr lückenhaft und nicht an der Realität.
davidzo
2023-06-01, 15:59:43
Du mischst die Dinge - ein fertig trainiertes Modell braucht nichts von dem was du aufgezählt hast. Wozu die Tensorcores? Braucht weder AMD noch Intel für KI-Anwendungen lokal.
Du mischt hier die Dinge. Eben hast du noch großspurig von LLMs erzählt die auf der APU laufen und dir deine mails schreiben, Telefonkonferenzen simultan übersetzen und dir den persönlichen Assistenten spielen. Jetzt ruderst du total zurück und beschreibst Objekterkennung was im Moment auf jeder Gurkenhardware schon in software gut genug läuft (raspberry pi z.B.).
Klar ist es für edge hardware wie z.B. Autos interessant wenn man Klassifizierung bereits direkt am Sensor machen kann. Klar spart es irgendwie strom dafür dedizierte hardware zu haben. Was nvidia GPUs übrigens auch sind: dedizierte inferencing hardware. Aber sowas ist eben keine Killer-applikation für den Desktop, denn das läuft auch auf Hardware die diese features nicht haben.
Ich sehe die AI Engine sowohl bei AMD als auch bei Intel eher etwas unterhalb von einem Checklist-Feature wie AV1 in hardware. Beides spart, wenn es denn unterstützt wird, cpu cycles und Energie, ermöglicht aber keine grundsätzlich anderen features als jetzt schon. Und die softwareunterstützung ist eben noch mangelhaft.
Der Grund wieso beide im Moment dort groß die Marketingtrommel rühren ist nicht weil sie irgendwas groß anders machen würden oder wirklich was neues in Hardware haben, sondern weil sie gerade ihre Felle davon schwimmen sehen und den Investoren einen Pfad verkaufen müssen dass sie irgendwann auch ein Stück vom Kuchen abbekommen den nvidia sich im moment einverleibt.
Sicherlich hat Xilinx mit FPGAs beim Machine learning in der Industrie schon mehr Tradition als nvidia und Intel mit Mobile-Eye auch ein Standbein bei der Bilderkennung, aber die große Umsatzexplosion findet im moment bei nvidia statt und zwar nicht mit modellen die im 64kb Sram laufen den die Xilinx engines on board haben, sondern mit large language models von mehreren hundert gigabyte.
An Radeon Instinct hat man ja gesehen wie hart AMD es verschlafen hat trends wie low precision, sparsity und die richtigen software für pytorch, tensorflow etc. wirklich ernst zu nehmen. Stattdessen hat man double precision HPC monster gebaut (intel mit PV auch).
Das muss man jetzt halt mit Marketing wieder gut machen. Die meisten Anleger können das sowieso nicht auseinanderhalten, Hauptsache es steht AI auf der Roadmap. AMD muss den Hype halt auch etwas für sich nutzen.
Dass Intel keine Marktanteile hat in der Bilderkennung, ist schwer zu vereinbaren mit deren Aktivitäten mit MobileEye und bei Automotive. MobileEye hat nur 15 Mrd. gekostet und es werden 17 Mrd. Umsatz in 2030 erwartet.
Was genau am Begriff "large language model" verstehst du nicht?
Complicated
2023-06-01, 16:16:27
Du mischt hier die Dinge. Eben hast du noch großspurig von LLMs erzählt die auf der APU laufen und dir deine mails schreiben, Telefonkonferenzen simultan übersetzen und dir den persönlichen Assistenten spielen. Ja, du verstehst nicht wovon ich schreibe.
Zitiere bitte wo ich schreibe LLMs laufen auf APUs. Eine KI-App hat beim Anwender nicht das ganze LLM an Bord. Du argumentierst aus eine Theorie heraus anstatt aus der Praxis die ich beschrieben habe.
Complicated
2023-06-01, 16:17:31
Was genau am Begriff "large language model" verstehst du nicht?Was verstehst du nicht an KI Anwendungen abseits eines LLM? Du verschiebst die Torpfosten, um deines falschen Arguments willen.
Es geht um Consumer CPUs mit KI Beschleunigung und wozu das gut ist.
Ich beende lieber mal das Offtopic, wir werden uns hier nicht einig mit der Argumentationsweise.
George Hotz hat 5 Millionen Dollar gesammelt um die 7900 XT(X) "KI tauglich" (nach seinem Verständnis) zu machen:
https://geohot.github.io/blog/jekyll/update/2023/05/24/the-tiny-corp-raised-5M.html
davidzo
2023-06-01, 16:52:19
Zitiere bitte wo ich schreibe LLMs laufen auf APUs. Eine KI-App hat beim Anwender nicht das ganze LLM an Bord. Du argumentierst aus eine Theorie heraus anstatt aus der Praxis die ich beschrieben habe.
Internationalisierung geht nur noch über den integrierten Übersetzer und in über 70 Sprachen - das wird in Teams Konferenzen simultan übersetzt in die gewünschte Zielsprache und in Untertiteln dargestellt.
Das beschreibt ziemlich genau eine LLM
Außerdem hast du konkret Microsoft 365 Copilot genannt. Und das ist GPT-4, also fast das größte LLM überhaupt. Und das hat mit Phoenix nun wirklich nichts zutun.
Das Zusammenbringen von Chat-GPT Hypetech die auf absehbare Zeit nur als Service im Netz läuft und einem experimentellen feature einer neuen low power APU das eher einer VLIW Vektoreinheit oder einem großen DSP ähnelt ist bloß Trittbrettfahren denn beides hat nicht viel miteinander zutun, aber das Marketing hätte gerne dass man das zusammen sieht um auf der Hype-welle mit zu schwimmen.
Was verstehst du nicht an KI Anwendungen abseits eines LLM? Du verschiebst die Torpfosten, um deines falschen Arguments willen.
Ich habe auf die Beispiele in deinem Post reagiert die wie ich finde inkorrekt sind. Ich habe nie generalisiert gesagt dass es Client KI Anwendungen nicht gibt, sondern nur dass deine Beispiele nicht alle zutreffen. Dass es noch andere KI Anwendungen für Clients gibt ist dir auch erst danach eingefallen und das bestreite ich ja auch gar nicht, siehe mein letzter Post. Bis vor ein paar Monaten hat man solche Anwendungen seitens AMD/Xilinx übrigens noch "Machine Learning" genannt und wenn es sich um Bilderkennung handelt "Computer Vision". Die Umbenennung ist meiner Meinung nach ein Zeichen dass hier ein bisschen die Marketingtrommel gerührt werden soll. Aber das sind eben auch keine Killer-Applikation und die laufen auch problemlos in software ähnlich wie AV1 auch in software läuft wenn man das nicht in HW hat.
Complicated
2023-06-01, 18:28:54
Das beschreibt ziemlich genau eine LLM
Außerdem hast du konkret Microsoft 365 Copilot genannt. Und das ist GPT-4, also fast das größte LLM überhaupt. Und das hat mit Phoenix nun wirklich nichts zutun.Hat es auch nicht, warum denkst du das Training findet auf der APU statt? Das Zitat von mir würde ich immer noch gerne sehen, wo ich das schreibe.
Du machst hier Namedroping. Co-Pilot-> ChatGPT 4 - (darf in Europa gar nicht genutzt werden), MS bietet das als eigene Variante an mit der GPT-4 Engine und nennt das Azure AI mit europäischen Servern. (das KI Modell von OpenAI ist GPT4 und hat keinen "Chat" in der Bezeichnung).
Die konkreten Zusammenhänge sind dir nicht richtig klar und auch nicht wovon ich rede. Du kannst gerne zu den Veranstaltung bei OpenAI und Microsoft gehen, die ich besucht habe und dann gerne das ganze neu sortieren. Vielleicht baust du dann auch ein paar KI-Anwendungen die auf 15w TDP Notebooks produktiv genutzt werden können und weisst dann wovon ich rede, wenn ich sage, dass in 6 Monaten jegliche Consumer CPU mit lokaler AI-Beschleunigung plötzlich andere ohne abhängt in verschiedenen Use Cases.
https://www.qualcomm.com/research/artificial-intelligence
As generative AI adoption grows at record-setting speeds and drives higher demand for compute, AI processing must be distributed between the cloud and devices for AI to scale and reach its full potential. Beyond cost, a hybrid AI architecture offers the additional benefits of performance, personalization, privacy, and security. The cloud and edge devices work together to deliver more powerful, efficient, and highly optimized AI. The hybrid AI approach is applicable to virtually all generative AI applications and device segments – including phones, laptops, XR headsets, cars, and IoT.
Mein Kontext fängt hier an und ich habe den Offtopic versucht kurz zu halten.
Die ist doch nur deaktiviert. Das spart kein Geld. Und das Feature ist doch für Consumer komplett wertlos, da es keine richtigen Consumer Killer Apps dafür gibt, die das nutzen. Aktuell erzeugt das maximal ein Achselzucken.
Dein Einstieg am Thema vorbei, inkls. der persönlichen Sprüche führt nicht mal nahe dran vorbei.
iamthebear
2023-06-01, 23:30:22
Weiß zufällig jemand wo der RDNA 3 Thread hingekommen ist. War der nicht hier irgendwo :freak:
DrFreaK666
2023-06-02, 00:23:12
Frag mich auch um was es hier eigentlich inzwischen geht.
Mods machen leider auch nichts :/
Nightspider
2023-06-02, 00:59:29
Liegt vielleicht daran, dass das RDNA3 Thema nur noch entäuschend ist.
+50% fps/w my ass
RDNA3+ scheint es maximal in kommenden APUs zu geben.
Man kann nur hoffen das RDNA4 dafür zwei Sprünge bei der Effizienz macht um wieder mit Nvidia gleichzuziehen, sonst können sie ihre stromfressenden Chiplet Grafikkarten auch behalten.
Platos
2023-06-02, 01:32:46
Jo, das ist ja momentan eigentlich überall so :D
Man regt sich überall auf - zurecht, finde ich. Ist zwar manchmal OT, aber es wiederspiegelt den Frust dieser miesen Situation (vor allem) im GPU Markt.
Leonidas
2023-06-02, 04:56:30
Um wieder auf N32 zu kommen: Mittlerweile müssen wir den angedachten Sommer-Launch als in Frage betrachten. Denn dafür gibt es normalerweise vorher hier und da einen kleinen Info-Splitter, so 2-3 Monate vorher. Das Fehlen dieser Info-Splitter dürfte alles noch weiter in die Zukunft verschieben.
Oder ist N32 eventuell kaputt? Dann bräuchte AMD einen Alternativ-Plan mit bestehenden Chips. Nur wieso dauert das dann so lange? Den Alternativ-Plan könnte man umgehend umsetzen (7800 Serie auf N31-Basis). Sehr undurchsichtig alles.
dildo4u
2023-06-02, 05:08:15
Die Preise sind wo weit im Keller das es sich vermutlich noch nicht lohnt größere 5nm Chips unter 500€ zu verkaufen eine 4060 TI hat ja unter 200mm².
Ich nehme mal an 7800 hat 16GB und über 200mm²?
Außerdem sind RDNA2 Karten noch ausreichend verfügbar 6800xt billiger als 4070 etc.
vinacis_vivids
2023-06-02, 11:13:32
Es gibt keine Eile N32 zu veröffentlichen. Für AMD reicht es auch Q3 oder Q4 2023. Die diskreten GPUs am stationären PC sind am Abnehmen und RDNA2-Lager sind noch vorhanden.
RX6800 16GB für ~500€ ist bereits extrem gut in Preis/Leistung. Beste Zeit um auf Radeon aufzurüsten.
Eine sehr gute 5nm RX7800 16GB verzögert auch nur den eigenen N21 RDNA2-Abverkauf.
stinki
2023-06-02, 11:25:16
Ich denke auch, dass die N7 Navi21 und Navi22 Karten momentan noch günstiger sind als mögliche N5 Navi32 Karten.
AMD denkt wahrscheinlich, dass sie mit den verfügbaren 6950XT, 6800XT, 6800, 6750XT, 6700XT Karten sehr gut gegen 4070 (12GB) und 4060Ti (8/16GB) sowohl bei Performance, Speicher-Ausstattung als auch Preis aufgestellt sind.
Bei den größeren Karten hat man dann 7900XTX gegen 4080 und 7900XT gegen 4070Ti.
Und bei den kleineren dann 7600 gegen 4060. Und 7600 sollte günstiger bzw. nicht teurer sein als 6650XT und 6600 (N6 vs. N7).
Das sieht für mich erst einmal recht stimmig vom Lineup aus auch ohne Navi32.
Die Frage für mich ist eher, was könnten mir neue Navi32 Karten als Vorteil gegenüber den existierenden 6950XT, 6800XT, 6800, 6750XT, 6700XT Karten bieten bezüglich Performance und Preis? Oder wie günstig müssten Navi32 Karten sein um als wirklicher Vorteil/Fortschritt gegenüber den existierenden Navi21 und Navi22 Karten wahrgenommen zu werden?
basix
2023-06-02, 11:45:15
N32 sollte mit hoher Wahrscheinlichkeit günstiger als N21 sein.
- 520mm2 N7 vs. ~200mm2 N5 + 150mm2 N6
- Beide 16 GByte
- 300W vs. ~250W
- Ähnliche Performance wie eine 6800XT / 6950XT
Für ~500...600 Euro wäre das kein schlechter Deal. Nicht viel besser als N21 Karten aber immerhin ein Fortschritt.
Eine 12 GByte Variante von N32 als N22 Nachfolger kann auch parallel zu einer 6700XT existieren, hängt dann an der Performance und dem Preis der beiden Karten.
Edit:
- 7800XT, 60 CU, 16 GByte, 549 Euro
- 7700XT, 48 CU, 12 GByte, 449 Euro
Wäre ein guter Konter für die 4070 wie auch die 4060 Ti. Eine 6700XT rangiert preislich <400 Euro und füllt die Lücke zwischen der RX 7600 und der 7700XT.
Kommt auf den Kurs an, für den AMD N7 aquirieren kann. Ich gehe ja schon einer langen Zeit davon aus, dass nach dem Mininghype AMD N7 sehr billig bekommen hat und diese Cashcow nun melkt bis N5 wirklich günstiger ist (beim 5800X3D ebenfalls übrigens, sonst wär der schon lange vom Markt verschwunden). So lange gibts halt N21 und nicht N32, daher denke ich, dass Leo hier richtig liegt. Die dürften im Juni/Juli nicht zu sehen sein. Die N31-basierte 7800XT übrigens auch nicht, was das noch erhärtet.
Hat für AMD den Vorteil, dass man sich die Speichersituation noch einige Zeit länger anschauen kann und noch einige Spielelaunches mitnehmen wird, bevor man endgültig entscheidet, wieviel RAM die 7700(XT) jetzt letztendlich bekommen soll ;).
Platos
2023-06-02, 13:32:46
Warum sollte man nicht gleich N6 nutzen ? Warum N7?
BlacKi
2023-06-02, 14:07:14
Warum sollte man nicht gleich N6 nutzen ? Warum N7?du switchst nicht einfach von 7 auf 6nm runter. dazu wäre der R&D aufwand zu teuer vs die kosten ersparnisse.
Außerdem hat N6 EUV und N7 nicht. Es sind sicherlich noch große N7-Kapazitäten nicht umgebaut auf N6. Solange dürfte N7 kostengünstig zu haben sein, weil viele Hersteller eher Produkte auf N6 hin entwickelt haben. Mit Absterben des Mining-Hypes und Bestllkürzungen durch Rezession sind eben Kapazitäten freigeworden, die man sicherlich günstig belegen kann. IIRC hat AMD die N5-Bestellungen ebenfalls gekürzt. Damit dürfte AMD sämtliche N5-Kapazitäten mit Zen4 und N31 belegen. Solange es kostengünstiger ist wird AMD sicherlich N21 weiter N32 vorziehen.
dargo
2023-06-02, 16:18:14
Kommt auf den Kurs an, für den AMD N7 aquirieren kann. Ich gehe ja schon einer langen Zeit davon aus, dass nach dem Mininghype AMD N7 sehr billig bekommen hat und diese Cashcow nun melkt bis N5 wirklich günstiger ist (beim 5800X3D ebenfalls übrigens, sonst wär der schon lange vom Markt verschwunden).
Das Beispiel mit dem 5800X3D ist doch kompletter Unsinn. Kein IHV ist so dämlich und schickt Hardware EOL die sich blendend verkauft. Insbesondere in einem heute günstigen N7 Prozess. Die Margen dürften auch besser beim 5800X3D sein als bei non X3D wenn man sich die Straßenpreise anschaut.
Wenn sie den 7800X3D pushen wollten, wäre der viel billigere 5800X3D schon laaaange vom Markt. Von wegen Unsinn.
Tesseract
2023-06-02, 16:40:08
last gen chiplets werden so lange produziert bis die entsprechenden epycs EOL sind, ob sich die desktops gut oder schlecht verkaufen ist wohl eher sekundär.
last gen chiplets werden so lange produziert bis die entsprechenden epycs EOL sind, ob sich die desktops gut oder schlecht verkaufen ist wohl eher sekundär.
Das ist richtig, aber es gilt nicht für den 5800X3D. Alle CPUs wären noch auf dem Markt aber die nicht mehr, wenn AMD wirklich die aktuellen X3D pushen wollte. Mit dem aktuellen X3D könnte man schlichtweg mehr verdienen, es sei denn, die 7nm sind super billig.
Complicated
2023-06-02, 18:27:27
Ich stimme dem nicht zu. 7nm wird mindestens sich solange besser verkaufen, wie die Plattform weiter verbreitet ist und genügend User von einem Upgrade profitieren. AM4 CPUs haben einfach diesen gravierenden Vorteil bei den Kosten, nach wie vor.
robbitop
2023-06-02, 18:33:48
Es ist aus P/L Sicht ein super Produkt. Insbesondere wenn man die Plattform mit einbezieht. Darum verkauft es sich auch gut. Schade, dass das bei AM5 doch deutlich anders wurde.
vinacis_vivids
2023-06-02, 20:46:56
H1 2023 soll ja "Hypr-RX" kommen für RDNA3
https://videocardz.com/newz/amd-now-has-less-than-a-month-to-launch-hypr-rx
OgrEGT
2023-06-03, 11:30:09
Keine Ahnung ob N32 kaputt ist oder nicht... aber was bleibt am Ende als Vorteil ggü N21?
Leistung eher nicht... Verbrauch wahrscheinlich nicht arg viel besser... wenn man wirklich Kosten sparen will dann N21 rebranden und N7 weiter nutzen...
iamthebear
2023-06-03, 12:44:45
H1 2023 soll ja "Hypr-RX" kommen für RDNA3
https://videocardz.com/newz/amd-now-has-less-than-a-month-to-launch-hypr-rx
So wie ixh das verstanden habe ist Hypr-RX einfach nur ein Button, der automatisch RSR, Anti Lag und bei Spielen die es unterstützen Radeon Boost aktiviert.
Alles das kann man mit 3 einzelnen Buttons jederzeit selbst aktivieren aber nett, dass man für die casual Gamer einen einfachen Button anbietet.
So wie ixh das verstanden habe ist Hypr-RX einfach nur ein Button, der automatisch RSR, Anti Lag und bei Spielen die es unterstützen Radeon Boost aktiviert.
Alles das kann man mit 3 einzelnen Buttons jederzeit selbst aktivieren aber nett, dass man für die casual Gamer einen einfachen Button anbietet.
Wir müssen sehen, aber ich glaub nicht, dass das so einfach ist ;). Sonst gäbs das schon seit Ankündigung :D.
Ex3cut3r
2023-06-03, 13:13:55
Hyper Hyper. Passt bei AMD wie die Faust aufs Auge, immer viel Hype, aber nichts dahinter. :biggrin:
Hyper Hyper. Passt bei AMD wie die Faust aufs Auge, immer viel Hype, aber nichts dahinter. :biggrin:
Destruktiv, destruktiv, wie immer destruktiv ;).
iamthebear
2023-06-03, 14:38:23
Wir müssen sehen, aber ich glaub nicht, dass das so einfach ist ;). Sonst gäbs das schon seit Ankündigung :D.
Die Sache ist die:
Wenn man das Feature so offensichtlich plaziert, dass es vom 0815User auch aktiviert wird dann muss auch sichergestellt sein, dass es auch wirklich zu 100% funktioniert und es keine seltsamen Anomalien in bestimmten Konstellationen gibt, denn genau diese User werden nicht vestehen warum es schief läuft und was sie wieder deaktivieren müssen.
DrFreaK666
2023-06-03, 15:01:14
Destruktiv, destruktiv, wie immer destruktiv ;).
Hyper... Super... Da schenken sich beide nichts
bbott
2023-06-03, 16:39:41
So wie ixh das verstanden habe ist Hypr-RX einfach nur ein Button, der automatisch RSR, Anti Lag und bei Spielen die es unterstützen Radeon Boost aktiviert.
Alles das kann man mit 3 einzelnen Buttons jederzeit selbst aktivieren aber nett, dass man für die casual Gamer einen einfachen Button anbietet.
Wenn dem so wäre, warum ist es dann noch nicht Verfügbar?
DrFreaK666
2023-06-03, 17:04:32
AMD braucht für FG sowas wie NVs Reflex. Denke dass AMD auch daran arbeitet
dildo4u
2023-06-03, 17:46:49
Hat AMD schon nennt sich Anti Lag.
Kein Plan wie der aktuelle Zustand ist aber es hat DX12 Support.
DrFreaK666
2023-06-03, 17:50:40
Das ist aber nicht so potent wie Reflex, das vom Game supportet werden muss
Iscaran
2023-06-03, 18:42:19
Dafür braucht Anti-Lag keinen Expliziten Game support sondern geht immer.
IMHO deutlich wichtigeres Features als das bisschen mehr das Reflex liefert FALLS ein Game das implementiert.
EDIT: AFAIK!
iamthebear
2023-06-03, 19:48:56
AMDs Anti Lag ist ein Konkurrent zu Nvidias Ultra Low Latency Mode. Bitte nicht falsch verstehen: Das ist eine echt tolle Technologie und zumindest die Spiele die ich getestet habe (960fps Slow Motion Kamera am Handy) hatten guten Input Lag.
Aber Implementierungen rein durch die Treiber haben eben ihre Grenzen. Da muss das Spiel einfach etwas mithelfen.
Ich kenne die technischen Schnittstellen von Reflex nicht aber falls möglich wäre der Ansatz wie bei FSR 2 sinnvoll dass man zwar eine eigene Lösung baut aber die Schnittstellen an Nvidia anpasst sodass ein Spiel das bereits Reflex unterstützt auch relativ schnell die AMD Lösung integrieren kann. Rein für die Latenz würde das kein Entwickler machen aber wenn man das gut in Kombination mit FSR 3 verkauft dann kann man die Entwickler schon überzeugen.
robbitop
2023-06-04, 08:06:54
AMDs Konkurrent zu Reflex ist doch iirc auch angekündigt.
IMO völlig bescheuert, dass sowas doppelt und dreifach entwickelt werden muss, damit es auf allen GPUs läuft. Proprietäre Scheisse.
Exxtreme
2023-06-04, 08:15:54
Tja, Micros~1 und Khronos sind halt zu langsam. Und ja, mir gefällt das auch nicht. Aber es ist wie es ist.
robbitop
2023-06-04, 09:22:03
Naja eigentlich müsste so langsam mal die Kartellbehörde eingreifen. Bei dGPUs hat NV einen Marktanteil von >80%. Das ist schon fast ein Monopol. Und wenn die weiter mit ihrem proprietären Kram machen dürfen sperren sie die user entsprechend in ihr Ecosystem. Entsprechend wird es immer wahrscheinlicher, dass es keinen gesunden Wettbewerb mehr geben kann und das ist schlecht für die Consumer.
amdfanuwe
2023-06-04, 09:35:18
Bei dGPUs hat NV einen Marktanteil von >80%. Das ist schon fast ein Monopol.
wie kommste denn da drauf?
robbitop
2023-06-04, 09:40:47
https://www.techspot.com/news/97784-intel-might-catching-up-amd-discrete-gpu-market.html#:~:text=According%20to%20Jon%20Peddie%2C%20out,9%25%20and%20Intel%20 6%25.
dildo4u
2023-06-04, 09:43:42
Die Zahlen sind fragwürdig es sei denn Intel verkauft alles an OEM im Retail Markt hat ARC mit Sicherheit unter 1%.
robbitop
2023-06-04, 09:48:12
Selbst wenn die Zahlen nicht perfekt sind, wird es nicht Sonne und Mond zu dem sein.
Intels Umsatzzahlen (man sollte auch lesen ;) -> steht im Artikel) sind fälschlicherweise durch Ponte Vecio zu Unrecht erhöht.
amdfanuwe
2023-06-04, 11:15:27
https://www.techspot.com/news/97784-intel-might-catching-up-amd-discrete-gpu-market.html#:~:text=According%20to%20Jon%20Peddie%2C%20out,9%25%20and%20Intel%20 6%25.
"As noted in the story, these figures are not coming from actual unit sales, but are estimates calculated from revenue breakdowns and financial reporting."
Tja, Zahlen sollte man auch verstehen.
AMD hat auch mehrmals betont, dass sie weniger ausgeliefert haben weil der Channel voll ist und mehr an den Endkunden abverkauft wurde als AMD geliefert hat.
Mit Marktanteil im Sinne von an den Endkunden verkaufte Stücke hat das nichts zu tun.
dargo
2023-06-04, 11:20:01
Naja eigentlich müsste so langsam mal die Kartellbehörde eingreifen. Bei dGPUs hat NV einen Marktanteil von >80%. Das ist schon fast ein Monopol. Und wenn die weiter mit ihrem proprietären Kram machen dürfen sperren sie die user entsprechend in ihr Ecosystem. Entsprechend wird es immer wahrscheinlicher, dass es keinen gesunden Wettbewerb mehr geben kann und das ist schlecht für die Consumer.
Du bist schon echt putzig... regelmässig regst du dich über das Thema auf und kaufst dir trotzdem eine Geforce. :crazy: Mal davon abgesehen... Gaming besteht nicht nur aus PC-Konfigurationen und bei Sony + MS ist keine Hardware von Nvidia verbaut. Keine Ahnung also wo du da ein Monopol siehst.
Linmoum
2023-06-04, 11:52:28
Bei dGPUs. Schreibt er doch. ;)
Davon ab hindert aber auch keiner AMD daran, konkurrenzfähige Architekturen und Produkte auf den Markt zu werfen. Wenn man dann sowas wie N31 oder N33 sieht, ist es kein Wunder, warum die Leute alle bei der anderen Firma zugreifen. Nur zu versuchen, ständig über den Preis zu kommen bzw. kommen zu müssen, lockt niemanden hinter dem Ofen hervor.
Dass die Marktanteile von AMD so sind, wie sie vermutlich sind, ist auch deren eigene Schuld und nicht die der Konkurrenz. So einen N33 könnte man auch für $200 mit immer noch sehr guten Margen verkaufen und Nvidia mit so einem Preis wirklich mal wehtun und Marktanteile mitnehmen. Will man aber offenkundig halt gar nicht.
basix
2023-06-04, 13:03:15
Ich will auch kein Nvidia Monopol bei dGPUs, aber die letzten 4 GPUs waren von Nvidia. Haben für mich das bessere Angebot geliefert. Die HD7950 Boost war die letzte AMD Karte (vorher 8800GT, HD4870, HD5870). Und das wird den meisten so gehen: Sie entscheiden rational, was zum Kaufzeitpunkt das für sie bessere Produkt ist.
Kartellbehörden einschalten finde ich jetzt übertrieben. Die ganzen Partner vergraulen und Vendor Lock-In Geschichten sind mir aber definitiv ein Dorn im Auge. Wenn RDNA4 super toll ist, möchte ich ohne Probleme wechseln können. Grösster Knackpunkt: DLSS2. Eine Art Vendor Lock-In, was ich einfach nicht mag. Bei CPUs kann man beliebig wechseln, da es keine massiven Feature-Unterschiede gibt (AVX512, AMX, etc. ist bei Consumer wenig relevant). Bei GPUs ist der Anteil and Vendor spezifischen Features viel höher. Bei älteren GPUs war das gefühlt wesentlich weniger der Fall. Angefangen hat das mit PhysX und dann G-Sync. Neu DLSS2 und DLSS3. Dazu viele SW-Features. Tesselation und DXR sind offene Standards, wo Nvidia initial einfach mehr als AMD pusht. Prinzipiell ist das alles nichts schlechtes, Nvidia versucht sich abzuheben und zu differenzieren. Das fördert neue & innovative Lösungen. Doch die Art und Weise wie Nvidia das macht, die darf als Consumer kritisiert werden. Denn für uns ist ein Vendor Lock-In nie von Vorteil.
AMD versucht hier mit Open Source dagegen zu stemmen. Das gelingt aber nur wirklich, wenn die Features zeitlich und qualitativ auch mithalten können. Ist momentan leider nicht überall der Fall. Und RDNA3 war leider auch nicht der Heilsbringer.
Platos
2023-06-04, 13:16:43
Bei AMD hat man halt irgendwie immer das Gefühl, die schaffen es immer wieder irgend ein Stolperstein einzubauen bei ihren dGPUs.
Dazu kommt halt noch, dass sie für gewisse Non-Gaming Features seit Jahren keine (marktrelevante) Alternative bringen. Cuda, Tensor-Cores...
Im AI Bereich kann man AMD Karten in die Tonne kippen, mal ehrlich. Mit Tensorcores ist man da 10-15 Jahre Entwicklung voraus (gemessen in Rechengeschwindigkeit).
Mit ner 4070Ti bin ich 6-7x schneller, wie mit ner AMD Karte mit gleicher Rechenleistung bei den Shadern, wenn ich AI Upsacling betreibe. Sowas wird bei Videobearbeitung immer wichtiger werden.
AMD kriegts einfach nicht hin bei ihren dGPUs. Schade, denn bei den CPUs sind sie seit Zen2 mit dabei.
Lurtz
2023-06-04, 13:20:34
Bei dGPUs. Schreibt er doch. ;)
Davon ab hindert aber auch keiner AMD daran, konkurrenzfähige Architekturen und Produkte auf den Markt zu werfen. Wenn man dann sowas wie N31 oder N33 sieht, ist es kein Wunder, warum die Leute alle bei der anderen Firma zugreifen. Nur zu versuchen, ständig über den Preis zu kommen bzw. kommen zu müssen, lockt niemanden hinter dem Ofen hervor.
Dass die Marktanteile von AMD so sind, wie sie vermutlich sind, ist auch deren eigene Schuld und nicht die der Konkurrenz. So einen N33 könnte man auch für $200 mit immer noch sehr guten Margen verkaufen und Nvidia mit so einem Preis wirklich mal wehtun und Marktanteile mitnehmen. Will man aber offenkundig halt gar nicht.
Bei RDNA2 war man doch durchs fast gesamte Lineup hinweg bis vielleicht auf die 3090 konkurrenzfähig. Und die kleineren Lovelace-Karten sind jetzt auch nicht gerade der große Wurf.
Effizienz war bei Ampere auch egal, ist jetzt erst wieder das große Argument, wenn nVidia wieder vorne liegt. Teillastverbrauch war grottig bei Ampere, hat niemanden interessiert, jetzt auf einmal gibts unzählige Leute, die alles mit 60 fps-Limiter spielen und sich einen auf die Effizienz dabei hobeln ;D
vinacis_vivids
2023-06-04, 13:41:10
Bei AMD hat man halt irgendwie immer das Gefühl, die schaffen es immer wieder irgend ein Stolperstein einzubauen bei ihren dGPUs.
Dazu kommt halt noch, dass sie für gewisse Non-Gaming Features seit Jahren keine (marktrelevante) Alternative bringen. Cuda, Tensor-Cores...
Im AI Bereich kann man AMD Karten in die Tonne kippen, mal ehrlich. Mit Tensorcores ist man da 10-15 Jahre Entwicklung voraus (gemessen in Rechengeschwindigkeit).
Mit ner 4070Ti bin ich 6-7x schneller, wie mit ner AMD Karte mit gleicher Rechenleistung bei den Shadern, wenn ich AI Upsacling betreibe. Sowas wird bei Videobearbeitung immer wichtiger werden.
AMD kriegts einfach nicht hin bei ihren dGPUs. Schade, denn bei den CPUs sind sie seit Zen2 mit dabei.
AI-Upscaling hast du bereits mit RDNA3 betrieben um so eine Aussage liefern zu können ?
robbitop
2023-06-04, 14:31:19
"As noted in the story, these figures are not coming from actual unit sales, but are estimates calculated from revenue breakdowns and financial reporting."
Tja, Zahlen sollte man auch verstehen.
AMD hat auch mehrmals betont, dass sie weniger ausgeliefert haben weil der Channel voll ist und mehr an den Endkunden abverkauft wurde als AMD geliefert hat.
Mit Marktanteil im Sinne von an den Endkunden verkaufte Stücke hat das nichts zu tun.
Es sind die Zahlen die verfügbar sind und es wird nicht Sonne und Mond sein. Sprich die Größenordnung wird schon passen. Und der Channel wird auch nicht immer voll sein - die Markteominanz ist in den Zahlen aber langfristig sichtbar.
Du bist schon echt putzig... regelmässig regst du dich über das Thema auf und kaufst dir trotzdem eine Geforce. :crazy: Mal davon abgesehen... Gaming besteht nicht nur aus PC-Konfigurationen und bei Sony + MS ist keine Hardware von Nvidia verbaut. Keine Ahnung also wo du da ein Monopol siehst.
1.) Was hat das mit mir persönlich zu tun, wenn ich das allgemeine Marktgeschehen kritisiere? Persönlich zu werden, heißt, nicht mehr objektiv zu diskutieren
2.) Ich kaufe seit Generationen nur noch zweite Hand um den Effekt der „Belohnung“ bei Nvidia zu reduzieren
3.) Auch ich bin nicht immun gegen die Features, die Nvidia leider proprietär anbietet. Ich will nicht ohne DLSS. Früher wollte ich nicht ohne SGSSAA compatibility bits usw. Wäre es aber auf allen Plattformen verfügbar wäre es was anderes.
4.) Konsolen haben sehr wenig Einfluss auf die Lage mit proprietären Features/Vendorlock auf dem PC Markt. Im dGPU Markt (wenn man eine dGPU und keine Spielekonsole kaufen will) existiert nahezu ein Monopol. Und das kann nicht gut für Endkunden sein. Ganz banaler und einfach zu verstehender Marktmechanismus.
robbitop
2023-06-04, 14:36:34
Bei dGPUs. Schreibt er doch. ;)
Davon ab hindert aber auch keiner AMD daran, konkurrenzfähige Architekturen und Produkte auf den Markt zu werfen. Wenn man dann sowas wie N31 oder N33 sieht, ist es kein Wunder, warum die Leute alle bei der anderen Firma zugreifen. Nur zu versuchen, ständig über den Preis zu kommen bzw. kommen zu müssen, lockt niemanden hinter dem Ofen hervor.
Dass die Marktanteile von AMD so sind, wie sie vermutlich sind, ist auch deren eigene Schuld und nicht die der Konkurrenz. So einen N33 könnte man auch für $200 mit immer noch sehr guten Margen verkaufen und Nvidia mit so einem Preis wirklich mal wehtun und Marktanteile mitnehmen. Will man aber offenkundig halt gar nicht.
Das stimmt schon aber mittlerweile hat Nvidia sich durch so viele Mechanismen festgebissen (proprietäre Features die nur mit Marktmacht unzusetzen sind, GPP, Rabatverträge mit OEMs, extremst viel RnD budget), dass ich bezweifle, dass man das noch drehen kann.
Ich bin mir nicht sicher, wie viel budget AMD für dGPUs und Forschung wie KO alloziert aber die Vermutung liegt nahe, dass es in Summe ein Bruchteil dessen ist, was Nv macht. Ich vermute, dass man da längst nicht so einfach woeder rankommt wie bei Intel. Einfach weil auch zu viel neben und um der HW erforscht wird und AMD in vielen Bereichen den Anschluss verloren zu haben scheint.
robbitop
2023-06-04, 14:38:09
Bei RDNA2 war man doch durchs fast gesamte Lineup hinweg bis vielleicht auf die 3090 konkurrenzfähig. Und die kleineren Lovelace-Karten sind jetzt auch nicht gerade der große Wurf.
Effizienz war bei Ampere auch egal, ist jetzt erst wieder das große Argument, wenn nVidia wieder vorne liegt. Teillastverbrauch war grottig bei Ampere, hat niemanden interessiert, jetzt auf einmal gibts unzählige Leute, die alles mit 60 fps-Limiter spielen und sich einen auf die Effizienz dabei hobeln ;D
Naja Ampere lieferte schon ein bisschen mehr Leistung pro top sku plus DLSS2 und massiv mehr RT Leistung. IMO ist Ada vs RDNA3 aber „schlimmer“ geworden.
Letzteres bringt mich auch immer zum Lachen wenn Leute die 2K für eine GPU ausgeben diese zurecht drosseln um damit einpaar cent pro Stunde zu sparen. Kein Benzin für den Ferrari? :D
BlacKi
2023-06-04, 14:42:54
Dafür braucht Anti-Lag keinen Expliziten Game support sondern geht immer.
IMHO deutlich wichtigeres Features als das bisschen mehr das Reflex liefert FALLS ein Game das implementiert.
EDIT: AFAIK!das hat nv doch auch schon lange. aber einen reflex kontrahenten hat amd noch nicht.
https://abload.de/img/nvucc5h.png
AffenJack
2023-06-04, 17:07:20
Naja eigentlich müsste so langsam mal die Kartellbehörde eingreifen. Bei dGPUs hat NV einen Marktanteil von >80%. Das ist schon fast ein Monopol. Und wenn die weiter mit ihrem proprietären Kram machen dürfen sperren sie die user entsprechend in ihr Ecosystem. Entsprechend wird es immer wahrscheinlicher, dass es keinen gesunden Wettbewerb mehr geben kann und das ist schlecht für die Consumer.
Das interessiert die Kartellbehörden nicht, denn DGPU ist nur ein kleiner Markt. Sollen die ebenso bei Konsolen eingreifen und AMD zwingen ne Konsole an Intel abzugeben, damit wir da ausgeglichen sind? Und Intel mit IGPUs hat sowieso den größten Marktanteil. Der Gesamtmarkt interessiert das Kartellamt und nicht ein kleiner Teilmarkt, sonst müsste man überall eingreifen.
Lurtz
2023-06-04, 17:16:42
Naja Ampere lieferte schon ein bisschen mehr Leistung pro top sku plus DLSS2 und massiv mehr RT Leistung. IMO ist Ada vs RDNA3 aber „schlimmer“ geworden.
Ich hatte bei der 3070 genug Fälle, in denen sie immer noch zu langsam für vernünftiges RT war und/oder der VRAM nicht gereicht hat. Also das "massiv mehr RT-Leistung" muss man spätestens unter der 3080 IMO deutlich relativieren.
Aber klar, nVidia liefert deutlich konstanter als AMD, selbst eine schlechte Gen von nVidia kann idR noch ziemlich locker mit AMD mithalten, während eine schlechte AMD-Gen meist völlig zum Vergessen ist.
dargo
2023-06-04, 17:37:05
Was hat das mit mir persönlich zu tun...
Wenn du darauf nicht mal kommst kann ich dir auch nicht mehr helfen. Unfassbar... diese heuchlerische Art. Dich stört die Marktsituation? Dann fasse dir an die eigene Nase und tue was dagegen!
Linmoum
2023-06-04, 18:00:28
Aber klar, nVidia liefert deutlich konstanter als AMD, selbst eine schlechte Gen von nVidia kann idR noch ziemlich locker mit AMD mithalten, während eine schlechte AMD-Gen meist völlig zum Vergessen ist.
AMD hatte seit Fiji eigentlich nur zwei GPU-Gens, die wirklich "gut" bzw. "okay" waren in Relation zur Konkurrenz: RDNA2 und RDNA.
Das Problem daran ist halt: Das sind exakt die beiden Generationen, wo sie einen deutlichen Fertigungsvorteil hatten (TSMC N7 vs. 12nm bei RDNA und TSMC N7 vs. Samsung 8nm bei RDNA2). Ansonsten hat man fast immer die Situation, dass Nvidia Kreise um AMD dreht, wenn man das Gesamtpaket aus allen Faktoren betrachtet. Bei gleichem Prozess sowieso, aber auch wenn man die Umstände bei Turing und Ampere bedenkt ist es ... ernüchternd, dass AMD sich trotzdem kaum bis gar nicht irgendwie abheben konnte.
Klar, den Kunden interessiert das am Ende herzlich wenig, da zählt nur die Realtität. Aber ich bezweifle es, dass wir jemals noch mal so große Unterschiede bei der genutzten Fertigung beider Hersteller zu sehen bekommen. Und das ist/war bisher für AMD (und damit auch den Markt) der einzige Lichtblick, was das Thema "Konkurrenz" anbelangt.
Es war auch ganz sicher nicht AMDs Ziel, dass man insgesamt ~520mm² auffahren muss, um mit Ach und Krach (bei sogar noch deutlich schlechterer Effizienz) mit einem ~380mm² AD103 bei der Raster-Performance konkurrieren zu können/wollen.
Aber ich muss auch ehrlich gestehen, dass ich irgendwann auch kein Mitleid mehr habe, wenn man gar keine Anstalten macht, an der Situation was ändern zu wollen. Da kommt nicht - wie bei den Ryzen-CPUs - mal so ein richtiger Kracher, der Nvidia wehtut. Man guckt stattdessen, welchen Preis Nvidia haben will und setzt das eigene Produkt dann einfach ein paar Dollar günstiger an. Fertig. Toll für die eigenen Margen, aber mittel- bis langfristig schlecht für den Markt, da über den Preis kommen auf Dauer schlicht nicht funktioniert, wenn man sonst quasi gar nichts zu bieten hat. Die Folge ist, dass die Leute dann einfach weiterhin trotzdem mehr zahlen und zu Nvidia greifen.
Klar ist AMD auch bei den CPUs längst nicht mehr die Billigmarke, die sie noch vor 6 Jahren in den ersten Schritten mit AM4 waren. Das hat sich auch erst über die Jahre etabliert, dass das doch gute und oftmals sogar die viel attraktiveren Produkte/CPUs waren. Und selbst aktuell ist die Preisgestaltung vs. Intel und die Attraktivität der eigenen Produkte dadurch noch immer deutlich besser und attraktiver als das, was sie bei ihren GPUs zu bieten haben. Schade, da man immer wieder hofft, dass sich das ändert. Stattdessen kommt dann sowas wie RDNA3 und man hängt der Konkurrenz wieder hoffnungslos hinterher.
Ex3cut3r
2023-06-04, 18:01:26
das hat nv doch auch schon lange. aber einen reflex kontrahenten hat amd noch nicht.
https://abload.de/img/nvucc5h.png
Das greift nur in DX11 Spielen, ist daher seit ca. 2 Jahren bei jeden neuen AAA Spiel (DX12) wertlos. Daher ja Reflex ingame als Option.
Platos
2023-06-04, 18:49:45
AI-Upscaling hast du bereits mit RDNA3 betrieben um so eine Aussage liefern zu können ?
Hier mal ein paar Benchmarkwerte von RDNA 2
Radeon Pro V620: https://github.com/AmusementClub/vs-mlrt/wiki/AMD-Radeon-Pro-V620
RTX 4090: https://github.com/AmusementClub/vs-mlrt/wiki/NVIDIA-GeForce-RTX-4090
Siehe Waifux upconv7 z.B oder realesrgan oder eins der anderen, die von beiden getestet wurden.
RDNA 3 ändert aber nichts an der Sache, da sie keine Tensor-Cores haben. Und darum gehts ja schliesslich. Da kannst du auch ne RTX 2080 nehmen, muss natürlich keine 4090 sein.
Edit: Auch wenn da ne Pro V620 ist, bezog sich meine Aussage (da wir hier alle Consumer sind) selbstverständlicherweise auf Consumermodelle und nicht auf Promodelle. Nur damit das schon mal klar ist ;)
RDNA3 kann das über Matrix-Cores ebenfalls tun.
Nur RDNA2 müsste KI-Upscaling über die Shader machen.
Wenn sich AMD dafür entscheidet FSR2 durch KI-Upscaling zu ersetzen, dürfte RDNA3 keinen Nachteil ggü. DLSS mehr haben. Sie müssen das halt nur tun und das ist der Knackpunkt.
TheGood
2023-06-04, 20:58:54
Naja Ampere lieferte schon ein bisschen mehr Leistung pro top sku plus DLSS2 und massiv mehr RT Leistung. IMO ist Ada vs RDNA3 aber „schlimmer“ geworden.
Letzteres bringt mich auch immer zum Lachen wenn Leute die 2K für eine GPU ausgeben diese zurecht drosseln um damit einpaar cent pro Stunde zu sparen. Kein Benzin für den Ferrari? :D
Du bestätigst doch hier nur was Lutz gesagt hat.
Bei AMD wird immer alles super kritsich gesehen, vor allem Energieeffizienz, wenn sie da mal besser sind als NVIDIA ist das plötzlich nicht der Rede wert...
Dass NVIDIA grundsätzlich immer zu wenig RAM liefert, ist auch nie ein Thema. Dafür gehörten sie seit Jahren schon abgestraft, aber es passiert nichts.
Vor allem ist es auch nie wirklich relevant bei den Käufern.
Bei AMD wird immer das Haar (manchmal auch die Haare) in der Suppe gesucht und natürlich liefert das AMD auch regelmässig. ABer gerade RDNA2 war eine TOP Generation von AMD und mit RDNA3 haben sie richtig ins Klo gegriffen...
Wenn RDNA3 seine mögliche Power auf die Stra0e brächte, ohne unbändig viel Strom zu brauchen, würden wir hier eine ganze andere Diskussion führen.
Das ist aber zeitgleich auch das einzig gute an RDNA3. Sie haben extrem viel potential für die nächste Generation (so wie das auch NVidia hatte mit Lovelace, da schlechteres Fertigungsverfahren und kein separaten großen Cache, der wie man bei RDNA2 schon gesehen hat, extrem geil für die Effizienz ist. Daher war die neue Generation hier nicht so überraschend. Überraschend ist eher die absolut katastrophale Effizienz der Rohpower, aber das ist auch nicht der Rede WErt. Ist aber auch in der generellen Debatte nicht der Rede wert...).
Am Ende reden wir hier nicht von Welten was zwischen den beiden Herstellern läuft, es ist eher ein disruptives Markenverständnis was Nvidia als den goldenen Ritter dastehen lässt, den sie voll und ganz ausspielen, in allen Bereichen des Marktes. Ehrlich bewertet ist AMD nicht so weit weg im Gaming Bereich.
Allerdings im Software Bereich ist Nvidia AMD meilenweit enteilt und viel innovativer, ausser bei den Treibern :) Diesen Vorsprung aufzuholen ist viel viel schwieriger.
Platos
2023-06-04, 21:10:16
RDNA3 kann das über Matrix-Cores ebenfalls tun.
Nur RDNA2 müsste KI-Upscaling über die Shader machen.
Wenn sich AMD dafür entscheidet FSR2 durch KI-Upscaling zu ersetzen, dürfte RDNA3 keinen Nachteil ggü. DLSS mehr haben. Sie müssen das halt nur tun und das ist der Knackpunkt.
AMD kann was durch Matrix-Cores machen?
Es ging nicht um FSR und DLSS.
Zeig mir mal, wo RDNA 3 so schnell ist im AI Upscaling (RealESRGAN usw.), wie es nvidia mi vsmlrt ist. Bin offen für alles, solange es gleich viel oder mehr FPS bringt.
KarlKastor
2023-06-05, 05:12:11
Dass NVIDIA grundsätzlich immer zu wenig RAM liefert, ist auch nie ein Thema.
Nie ein Thema? Es gibt kaum ein anderes in den Review Threads. Wie selektiv kann man bitte lesen.
robbitop
2023-06-05, 07:10:34
Wenn du darauf nicht mal kommst kann ich dir auch nicht mehr helfen. Unfassbar... diese heuchlerische Art. Dich stört die Marktsituation? Dann fasse dir an die eigene Nase und tue was dagegen!
Idealistenschwachsinn. Ich allein kann die Welt nicht ändern. Aber immerhin kaufe ich ganz bewusst gebraucht, so dass der IHV von mir kein Geld sieht und in der Regel eine Gen später. Da müssen größere Mächte ran.
robbitop
2023-06-05, 07:12:15
RDNA3 kann das über Matrix-Cores ebenfalls tun.
Nur RDNA2 müsste KI-Upscaling über die Shader machen.
Wenn sich AMD dafür entscheidet FSR2 durch KI-Upscaling zu ersetzen, dürfte RDNA3 keinen Nachteil ggü. DLSS mehr haben. Sie müssen das halt nur tun und das ist der Knackpunkt.
RDNA3 macht Matritzen auch nur über die Vektor FPUs. Man hat iirc jetzt nur bessere Befehle.
basix
2023-06-05, 07:33:32
Letzteres bringt mich auch immer zum Lachen wenn Leute die 2K für eine GPU ausgeben diese zurecht drosseln um damit einpaar cent pro Stunde zu sparen. Kein Benzin für den Ferrari? :D
Da ich zu den "Zurechtdrosslern" gehöre: Energieeinsparungen ohne wirklichen Performanceverlust sind immer sinnvoll. Oder siehst du das anders? ;) Stromkosten sind meistens auch nicht der primäre Grund, sondern Wärmeentwicklung, Lautstärke & Spulenfiepen. Also starke Verbesserungen bei der B-Note. Dass man Stromkosten spart, die GPU Komponenten weniger stresst (=länger haltbar) und die Umwelt etwas weniger belastet kann man ebenfalls noch mitnehmen.
Nicht gut ist allerdings, wenn man das jetzt nach Ampere wie eine Fahne im Wind abfeiert. Ich habe Ampere mit der 2080 Ti bewusst ausgelassen. Zu viel Verbrauch bei zu wenig Mehrleistung. RDNA3 ist hier unter Last nicht sehr schlecht, aber bei 4K/144Hz auf dem Desktop würde eine N31 Karte 70-90W saufen. Die 4090 ist bei 15-20W. Auch hier: Unnötige verbrauchte Energie mit entsprechenden Konsequenzen wie Wärme und Stromkosten.
Ich habe nicht prinzipiell was gegen hohen Verbrauch (mit gewissen praktischen Limiten bei ~300W). Zwingend ist für mich aber hohe Effizienz (ergo die Leistung stimmt). +30% Verbrauch für die letzten 5% Performance lohnen sich nie.
vinacis_vivids
2023-06-05, 08:58:02
Hier mal ein paar Benchmarkwerte von RDNA 2
Radeon Pro V620: https://github.com/AmusementClub/vs-mlrt/wiki/AMD-Radeon-Pro-V620
RTX 4090: https://github.com/AmusementClub/vs-mlrt/wiki/NVIDIA-GeForce-RTX-4090
Siehe Waifux upconv7 z.B oder realesrgan oder eins der anderen, die von beiden getestet wurden.
RDNA 3 ändert aber nichts an der Sache, da sie keine Tensor-Cores haben. Und darum gehts ja schliesslich. Da kannst du auch ne RTX 2080 nehmen, muss natürlich keine 4090 sein.
Edit: Auch wenn da ne Pro V620 ist, bezog sich meine Aussage (da wir hier alle Consumer sind) selbstverständlicherweise auf Consumermodelle und nicht auf Promodelle. Nur damit das schon mal klar ist ;)
Müsste man sich anschauen ob interference mit fp32 oder fp16 gemacht wird. Mit NCNN_VK fp16 hat AMD RDNA3 klare Vorteile mit ~123 Tflops fp16 unter Vulkan (RX7900XTX). Sind ja alles compute-shader.
WMMA fp16 macht die 7900XTX locker:
512 Flop / 3,0Ghz / 96CU
~ 147,45 Tflops fp16
Da hält keine RTX4090 mit (~82 Tflops fp16).
George Hotz hat 5 Millionen Dollar gesammelt um die 7900 XT(X) "KI tauglich" (nach seinem Verständnis) zu machen:
https://geohot.github.io/blog/jekyll/update/2023/05/24/the-tiny-corp-raised-5M.html
Und schon abgesagt:
https://github.com/RadeonOpenCompute/ROCm/issues/2198#issuecomment-1574383483
Unterhaltsamer Rant am Anfang:https://youtu.be/Mr0rWJhv9jU
Platos
2023-06-05, 12:15:57
Müsste man sich anschauen ob interference mit fp32 oder fp16 gemacht wird. Mit NCNN_VK fp16 hat AMD RDNA3 klare Vorteile mit ~123 Tflops fp16 unter Vulkan (RX7900XTX). Sind ja alles compute-shader.
WMMA fp16 macht die 7900XTX locker:
512 Flop / 3,0Ghz / 96CU
~ 147,45 Tflops fp16
Da hält keine RTX4090 mit (~82 Tflops fp16).
Also man kann da jeweils auswählen, ob man FP16 oder FP32 nehmen will (man muss die Models natürlich dementsprechend "konvertieren". Kannst du mit ChaiNNer machen).
Wie viel TFLOPs hat denn ne 6900XT da ? Jetzt mal so als Vergleich zu den 123Tflops. Dann kann man das hochrechnen.
Weil das sind doch mit Sicherheit Shader-Angaben (Bei beiden).
Mit VSMLRT nutzt du aber bei nvidia-karten die Tensorcores (zusätzlich). Ich kann bei VSMLRT auch einstellen, dass es nicht über die Tensorcores laufen soll. So ergibt sich bei mir eine Perfomancedifferenz von 6-7 fach zwischen mit und ohne.
D.h du kannst da nicht einfach die Tflops Angaben der Shader anschauen.
In einer alten News von 2022 habe ich allerdings gerade gelesen, dass amd bei den RDNA3 Pro Modellen Tensorcores einbauen soll. Finde dazu aber nichts. aktuelles. Gibts da aktuelle Infos dazu?
Idealistenschwachsinn. Ich allein kann die Welt nicht ändern. Aber immerhin kaufe ich ganz bewusst gebraucht, so dass der IHV von mir kein Geld sieht und in der Regel eine Gen später. Da müssen größere Mächte ran.
Man kann auch trotz kaufen (ohne gebraucht) "ein Zeichen" setzen.
Beispiel: Angenommen du würdest bei guten Marktsituationen alle 2 Chipgenerationen (4 Jahre) eine neue GPU kaufen. Dann tu das jetzt eben nur noch alle 3 Generationen (6 Jahre).
Also Geld pro Zeiteinheit. Kriegt nvidia durch dein Kaufverhalten weniger Geld pro Zeiteinheit, ist das auch "etwas tun".
Gebraucht kaufen kann man natürlich auch noch tun.
Savay
2023-06-05, 12:30:14
Wie viel TFLOPs hat denn ne 6900XT da ? Jetzt mal so als Vergleich zu den 123Tflops. Dann kann man das hochrechnen.
Unter FP16 macht die rechnerisch irgendwas zwischen 42 bis 50TFlops. (Je nach realem Takt)
Wenn man sich aber DXO DeepPrime (PL5/6) ansieht ist eine 6900XT schneller als eine 3090 die angeblich massiv mehr FP16 Leistung hat.
Und eine 7900XTX ca. gleichauf mit einer 4090 mit dem deutlich größeren DeepPrime XD DNN. (Nur PL6)
Das läuft alles über DirectML in FP16.
So simpel ist das offensichtlich dann doch nicht.
Mangel76
2023-06-05, 12:58:33
Idealistenschwachsinn. Ich allein kann die Welt nicht ändern. Aber immerhin kaufe ich ganz bewusst gebraucht, so dass der IHV von mir kein Geld sieht und in der Regel eine Gen später. Da müssen größere Mächte ran.
Idealistenschwachsinn oder Wurzel allen Übels? Jeder redet sich heraus, dass sein eigenes Verhalten keinen Einfluss hat. Das passiert im Kleinen wie im Großen: Deutschland muss ja auch nichts gegen CO2 machen weil China... Ist individuell vielleicht nachvollziehbar, führt in der Praxis leider viel zu oft dazu, dass notwendige Handlungen unterbleiben. Ob eine Person einen Diesel oder ein E-Auto fährt, macht keinen messbaren Unterschied. Wenn aber alle diese Ausrede benutzen um weiter Diesel zu fahren, führt das in eine für alle ungünstige Situation. Hier gibt es eine gravierende Kluft zwischen individuell und gesellschaftlich rationalem Verhalten.
robbitop
2023-06-05, 13:05:45
Man kann auch trotz kaufen (ohne gebraucht) "ein Zeichen" setzen.
Beispiel: Angenommen du würdest bei guten Marktsituationen alle 2 Chipgenerationen (4 Jahre) eine neue GPU kaufen. Dann tu das jetzt eben nur noch alle 3 Generationen (6 Jahre).
Also Geld pro Zeiteinheit. Kriegt nvidia durch dein Kaufverhalten weniger Geld pro Zeiteinheit, ist das auch "etwas tun".
Gebraucht kaufen kann man natürlich auch noch tun.
So (Gebrauchtkauf) bekommt NV kein Geld von mir immerhin. Aber AMD auch nicht. Noch konsequenter wäre es, wie dargo dann AMD zu kaufen. Hatte ich sogar fast vor - N31 klang von den Gerüchten her super und dann war es so ein fail.
Tja und DLSS ist leider geil. Irgendwo hat jeder seine Grenze. Ich kann damit gut leben.
Idealistenschwachsinn oder Wurzel allen Übels? Jeder redet sich heraus, dass sein eigenes Verhalten keinen Einfluss hat. Das passiert im Kleinen wie im Großen: Deutschland muss ja auch nichts gegen CO2 machen weil China... Ist individuell vielleicht nachvollziehbar, führt in der Praxis leider viel zu oft dazu, dass notwendige Handlungen unterbleiben. Ob eine Person einen Diesel oder ein E-Auto fährt, macht keinen messbaren Unterschied. Wenn aber alle diese Ausrede benutzen um weiter Diesel zu fahren, führt das in eine für alle ungünstige Situation. Hier gibt es eine gravierende Kluft zwischen individuell und gesellschaftlich rationalem Verhalten.
Muss jeder selbst für sich wissen IMO. Ich gebe immerhin kein Geld an NV. Und IMO geht es hier nicht um einige wenige Individuen im Forum sondern um die Marktsituation (kurzer Ausflug in's subtopic) und vornehmlich RDNA3 selbst.
Gipsel
2023-06-05, 14:02:28
In einer alten News von 2022 habe ich allerdings gerade gelesen, dass amd bei den RDNA3 Pro Modellen Tensorcores einbauen soll. Finde dazu aber nichts. aktuelles. Gibts da aktuelle Infos dazu?Meinst Du CDNA bzw. CDNA2? Dann heißen die da MatrixCores (https://gpuopen.com/learn/amd-lab-notes/amd-lab-notes-matrix-cores-readme/) und sind tatsächlich drin verbaut. Die Syntax der WMMA (Wave Matrix Multiply Accumulate)-Instruktionen in RDNA3 ist übrigens recht ähnlich, auch wenn das über die Vektoreinheiten läuft (statt über die Matrixeinheiten wie bei CDNA).
dildo4u
2023-06-05, 14:41:18
AMD bestätigt Navi 3.5 für Zen 5 IGP.
Phönix (Zen4/Navi 3.0) scheint auch für AM5 geplant.
https://videocardz.com/newz/amd-confirms-ryzen-8000-am5-desktop-series-will-feature-zen5-cpu-and-navi-3-5-gpu-architectures
Ex3cut3r
2023-06-05, 14:57:54
Wenn du darauf nicht mal kommst kann ich dir auch nicht mehr helfen. Unfassbar... diese heuchlerische Art. Dich stört die Marktsituation? Dann fasse dir an die eigene Nase und tue was dagegen!
Dargo der Retter GPU Welt. Na klar, weil ich und ein paar andere 3DCenter "Idoioten" nun AMD GPUs kaufen wurden, ändert das natürlich alles.
Glaubst du wirklich, das ärgert Nvidia?
Ich wurde niemals auf DLSS 2 und FG, sowie die RT Leistung freiwillig verzichten wollen. Entweder rüstet AMD ihr Game mal gewaltig auf, oder ich kaufe weiterhin Nvidia.
Warum soll ich mich mit schlechter Bildqualität zufriedengeben? Käme mir nie in den Sinn. AMD muss mich als Käufer gewinnen, nicht ich aus Mitleidsgefühlen eine AMD Karte kaufen.
Platos
2023-06-05, 17:17:46
Unter FP16 macht die rechnerisch irgendwas zwischen 42 bis 50TFlops. (Je nach realem Takt)
Wenn man sich aber DXO DeepPrime (PL5/6) ansieht ist eine 6900XT schneller als eine 3090 die angeblich massiv mehr FP16 Leistung hat.
Und eine 7900XTX ca. gleichauf mit einer 4090 mit dem deutlich größeren DeepPrime XD DNN. (Nur PL6)
Das läuft alles über DirectML in FP16.
So simpel ist das offensichtlich dann doch nicht.
DXO DeepPrime kenne ich nicht. Werden denn da die Tensorcores überhaupt genutzt bzw ist das darauf optimiert? Ich suche ja immer noch nach einer Möglichkeit, die Auslastung der Tensorcores separat auszulesen (als consumer). Finde dazu nichts.
Wobei Tensor nicht gleich Tensor ist. Es gibt beispielsweise torchRIFE (genauer Name fällt mir grad nicht ein). Da kann man auch Tensor-Cores einschalten, aber es ist sogar langsamer wie "normales" RIFE (ncnn oder cuda). Mit mlrt krieg ich 255FPS output bei ner 720p Quelle (55 bei "normal" RIFE und 35 bei torchRIFE mit Tensor). Allerdings habe ich das Gefühl, dass torchRIFE mit Tensor nicht so wirklich Tensor ores nutzt, denn der Stromverbrauch ist bei mlrt bei mir bei 200Watt und bei TorchRIFE nicht (und ich habe selbst bei Furmark keine 200Watt). Aber wie gesagt, würde gerne die Auslastung auslesen können.
Also ja, hast du recht. Die Software dahinter ist wichtig.
Aber wenn die auf Tensorcores abgestimmt ist, dann fliegst du jeder anderen Grafikkarte, die die Tensorcores (gerade) nicht nutzt davon (egal ob nvidia oder amd).
Meinst Du CDNA bzw. CDNA2? Dann heißen die da MatrixCores (https://gpuopen.com/learn/amd-lab-notes/amd-lab-notes-matrix-cores-readme/) und sind tatsächlich drin verbaut. Die Syntax der WMMA (Wave Matrix Multiply Accumulate)-Instruktionen in RDNA3 ist übrigens recht ähnlich, auch wenn das über die Vektoreinheiten läuft (statt über die Matrixeinheiten wie bei CDNA).
Ja, stimmt. Ich meinte CDNA 2 :D
Aber interessant bzw. schade, dass RDNA3 das nicht hat bzw. eben nur CDNA.
Leonidas
2023-06-05, 17:39:29
Aktualisierte Hardware-Daten sowie erstmals Listenpreise zum restlichen Ada/RDNA3-Portfolio
https://www.3dcenter.org/news/geruechtekueche-aktualisierte-hardware-daten-sowie-erstmals-listenpreise-zum-restlichen-adardna
-> Sieht ganz griffig aus. Ob es 100% in dieser Form kommt, kann natürlich niemand beschwören.
basix
2023-06-05, 17:42:12
AMD bestätigt Navi 3.5 für Zen 5 IGP.
Phönix (Zen4/Navi 3.0) scheint auch für AM5 geplant.
https://videocardz.com/newz/amd-confirms-ryzen-8000-am5-desktop-series-will-feature-zen5-cpu-and-navi-3-5-gpu-architectures
Nice :)
Nun folgende Fragen:
- Was genau ist RDNA 3.5? Höhere Taktraten ohne massiven Mehrverbrauch? Aufgebohrte RT-Einheiten? Beides oder nichts davon?
- Gilt das überhaupt für non APUs? Zen 4 + RDNA 3.0 gibt es jedenfalls noch nicht.
- Falls vorige Frage mit Ja beantwortet werden kann: TSMC N6 oder Samsung? Gab Gerüchte zu Samsung in z.B. 4LPP
Edit:
Wait a minute. Bei Zen 5 hiess es doch 3nm/4nm auf der Roadmap. IOD in Samsung 4LPP und CCDs in 3nm würden direkt passen. Hmmm...
Der_Korken
2023-06-05, 17:47:34
Ich zitiere mich mal selbst, weil das in den News-Threads sonst in der Regel untergeht:
1. Wenn AMD die wirklich einen 70CU-N31 vor einen 60CU-N32 stellt, dann dürfte da verbrauchstechnisch null gefixt sein. Die Vermutung (oder besser gesagt: Hoffnung) war, dass N32 sich verzögert, weil man da rechtzeitig ein Redesign eingeschoben hat, um den hohen Verbrauch irgendwie wegzubekommen und die Umkehrschluss die 60CU-Version höher zu takten und die Performance-Lücke zur 7900XT zu schließen. Offensichtlich ist das nicht der Fall, denn die +16,6% CUs der vermeintlichen 7800XT hätte man mit 2970Mhz aufgeholt bzw. durch die leicht bessere Skalierung über Takt statt Breite vielleicht sogar überholt. Da AMD das dem N32 aber nicht zutraut, wird er wohl taktmäßig irgendwo bei 2600Mhz landen, sonst würde sich ein 70CU-Modell nicht lohnen. Das wiederum bedeutet, dass es bei N32 keinen Fortschritt gab.
2. Schlimmer noch: Wenn die 285W für 330% Performance stimmen (512*0,6/0,96 = 320, plus etwas mehr weil kleinerer Chip), dann hätte N32 nochmals 20% weniger Perf/W als N31 und damit in etwas genauso viel wie eine 6900XT. Da kann man sich fast fragen, ob man den Chip nicht einstampfen und weiter N21 verkaufen sollte. Ernsthaft.
3. Dass bereits der 54CU-Salvage nur 12GB VRAM haben soll, ist ein ganz schlechtes Zeichen. Das bedeutet, dass AMD selbst für einen 90%-igen N32 die Performance so niedrig sieht, dass sich 16GB VRAM nicht lohnen, obwohl man hier gegen Nvidia gut Kunden abfischen könnte. Die 7700XT dürfte von der RTX4070 also ein gutes Stück entfernt sein, was konsistent damit wäre, dass N32 nicht mehr Takt als N31 schafft und die 330% für die 7800 passen könnten.
Addendum: Hab die Preise vorher gar nicht beachtet. Die 530$ für die 7700XT deuten schon etwas an, dass man sich damit nicht auf Augenhöhe mit der RTX4070 sieht. Erst die 7800 wird der Gegner der 4070. Mit 20$ weniger, 5% mehr Performance und 4GB VRAM mehr kein schlechtes Angebot, aber natürlich auch kein gutes. Bei der Effizienz wird man wohl schlechter sein und bei der RT-Performance auch leicht hinten.
@Leonidas: Fließt RT eigentlich in irgendeiner Weise in den 4K-Index ein? Vom Gefühl her bräuchte man eigentlich einen separaten Index dafür, auch wenn ich sehr schwierig fände hier einen guten Mix zu finden. Einige RT-Titel verhalten sich wie non-RT, bei einigen ist Nvidia grotesk viel schneller und viele sind irgendwo dazwischen. Wenn dann z.B. CB nicht mit vollen RT-Details misst, ist das Chaos perfekt.
robbitop
2023-06-05, 17:58:13
Nice :)
Nun folgende Fragen:
- Was genau ist RDNA 3.5? Höhere Taktraten ohne massiven Mehrverbrauch? Aufgebohrte RT-Einheiten? Beides oder nichts davon?
- Gilt das überhaupt für non APUs? Zen 4 + RDNA 3.0 gibt es jedenfalls noch nicht.
- Falls vorige Frage mit Ja beantwortet werden kann: TSMC N6 oder Samsung? Gab Gerüchte zu Samsung in z.B. 4LPP
Edit:
Wait a minute. Bei Zen 5 hiess es doch 3nm/4nm auf der Roadmap. IOD in Samsung 4LPP und CCDs in 3nm würden direkt passen. Hmmm...
Bisher waren die „+“ Architekturen im Ergebnis von AMD recht lauwarm. Allerdings haben wir nur für die CPU Referenzen (Zen+ und Zen 3+).
Locuza
2023-06-05, 18:21:14
Im Treiber bezeichnet AMD die Strix GPU als GFX IP 11.5.0 mit paar Weiterentwicklungen gegenüber 11.0.x.
Im APU-Bereich wird das Vektor Register File allerdings weiterhin bei 128 KB pro SIMD32 bleiben und nicht auf 192 KB aufgestockt, wie bei N31/N32 der Fall.
https://twitter.com/Kepler_L2/status/1665447857967489024
vinacis_vivids
2023-06-05, 18:40:41
Unter FP16 macht die rechnerisch irgendwas zwischen 42 bis 50TFlops. (Je nach realem Takt)
Wenn man sich aber DXO DeepPrime (PL5/6) ansieht ist eine 6900XT schneller als eine 3090 die angeblich massiv mehr FP16 Leistung hat.
Und eine 7900XTX ca. gleichauf mit einer 4090 mit dem deutlich größeren DeepPrime XD DNN. (Nur PL6)
Das läuft alles über DirectML in FP16.
So simpel ist das offensichtlich dann doch nicht.
Wo kann man denn die DXO DeepPrime werte mit fp16 denn sehen? Hast du da einen Link?
DSD512
2023-06-05, 18:44:38
Vielleicht kann AMD mit Navi3.5 endlich das Saufgelage (144/165 Mhz Monitore) einschränken. ;D
Was soll damit besser werden?
Senkung des Stromverbrauchs? Höhere Boost?
Aktuell sind es im Schnitt locker 100 Watt mehr gegenüber NV bei gleichen FPS)?
Da brauch man kein höheren Boost.
Das wird sicherlich so ein Armutszeugnis wie bei der 6950XT.
Abwarten auf RDNA4 (2025).
Vielleicht geht dann was.
Nightspider
2023-06-05, 19:15:20
Für die wenig genutzten Zen3+ Kerne hat AMD die Taktbarkeit und den Idle/Standby Stromverbrauch ordentlich verbessert.
Wenn man also etwas von RDNA3.5 für APUs erwarten kann, dann also verbesserte Effizienz.
Sei es im low power Bereich oder bei der Maximalleistung. Wahrscheinlich beides.
Mit den verschiedenen Strix Varianten will AMD schließlich den Mobilsektor von mehreren Seiten angreifen. Dafür braucht man bessere Effizienz.
Der Raphael Nachfolger dürfte noch bei RDNA3 bleiben. Heute war nur von den APUs die Rede oder?
KarlKastor
2023-06-05, 19:22:42
Nice :)
Wait a minute. Bei Zen 5 hiess es doch 3nm/4nm auf der Roadmap. IOD in Samsung 4LPP und CCDs in 3nm würden direkt passen. Hmmm...
Nein, das bezieht sich immer auf das Chiplet.
Bei Zen3 stehn ja auch keine 12 nm.
Oder 6nm bei Zen4.
basix
2023-06-05, 19:49:03
Maybe it's a trickery ;) :D
Nah, nicht so wichtig, welcher Prozess verwendet wird. Solange Performance und Effizienz stimmen, ist alles OK
Slashman
2023-06-05, 19:54:44
Darf ich etwas fragen.
Die neuen Gerüchte sprechen bei der Navi32 Karte jetzt nur noch als RX 7800 (non XT)... Dann müsste die RX 7800 XT als Navi 31 erscheinen.
Bedeutet doch das die Navi 32 keine 285Watt TDP mehr hat.
RX 7900XTX hat 350 Watt TDP
RX 7900XT hat 315 Watt TDP
RX 7800XT soll 285 Watt TDP haben
RX 7800 (Navi32) müsste dann ja nur noch 250-260 Watt TDP haben.
Ich würde mich sehr freuen wenn die Navi 32 Karten generell viel sparsamer werden. Ich meine ja nur wenn AMD auf die letzten 5% Takt verzichtet um die TDP um locker 20% senken zu können.
Die RX 7900XT sind offenbar nicht so effektiv im oberen TDP Bereich wie Nvidia. Habe ich zumindestens gehört.
Ich bin sowieso kein Fan von Karten oberhalb von 200 Watt TDP. Ich fand es auch nicht so toll das AMD die RX 7900XTX für über 1000€ und mit 355 Watt bribgt. Im ganz oberen Segment werden sie nie Nvidia erreichen. Es zu versuchen ist zurzeit Sinnlos.
Lieber gute und sparsame Mittelklasse Produkte bringen.
Was denkt ihr?
Lieber am sweetspot arbeiten und den effizientesten Punkt nutzen. Lieber mit sparsamer und Umwelt bewusster Hardware werben als Benchmarks Jagen um für die letzten 5% im 3D Mark Nvidia jagen zu können 20% TDP mehr zu verbrauchen.
vinacis_vivids
2023-06-05, 21:00:19
Ja, Umweltschutz ist gut und schön, aber AMD und NV haben im Vorfeld Marketing-Kämpfe bei 600W und 800W pro Grafikkarte geführt. AMD Custom ist bei 3x8 Pin ~ 450W + 75W ~ 525W und NV ist bei 12 Pin und ~600W.
Ich sehe keine Entwicklung, die zurück führt zu 200W GPU am Desktop. Selbst am schwachen Notebook schlucken GPUs an die 200W.
Der fps-Balken wird nach wie vor als wichtigster Balken gewertet.
Slashman
2023-06-05, 21:14:52
Ja, Umweltschutz ist gut und schön, aber AMD und NV haben im Vorfeld Marketing-Kämpfe bei 600W und 800W pro Grafikkarte geführt. AMD Custom ist bei 3x8 Pin ~ 450W + 75W ~ 525W und NV ist bei 12 Pin und ~600W.
Ich sehe keine Entwicklung, die zurück führt zu 200W GPU am Desktop. Selbst am schwachen Notebook schlucken GPUs an die 200W.
Der fps-Balken wird nach wie vor als wichtigster Balken gewertet.
Also ich habe mir gerade einen Notebook Test auf Notebookcheck angesehen. Mit einem i9-13900HX, NVIDIA GeForce RTX 4090 Laptop GPU. In The Witcher 3 und max Details schluckt das Notebook 240 bis 270 Watt... Das Netzteil liefert maximal 330 Watt.
https://www.notebookcheck.com/Schenker-Key-17-Pro-Early-23-im-Test-4k-Gaming-Notebook-mit-Core-i9-und-RTX-4090.719981.0.html
Und das ist eines der stärksten Notebooks mit RTX 4080 Desktop Leistung.
Was Custom machen und verbrachen ist mir Egal. Aber es ist unsinnig wegen 5% besseren Benchmarks 20 oder gar 30% mehr TDP zu opfern.
Es wäre besser für NVIDIA und AMD wenn man wieder an die Umwelt, die Kosten und die Effizienz denkt.
Man stelle sich vor in paar Jahren gibt es dann Karten die einfach mal 800 oder gar 1000 Watt schlucken für 1% mehr FPS im Vergleich zu 500 Watt. Den je höher der Verbrauch umso weniger gewinnt man dazu.
Platos
2023-06-05, 21:33:36
"Umwelt bewusst aber langsamer"
Kommt bestimmt gut an. Jetzt neu bei uns "nur" 250Watt anstatt 300Watt xD
Ah ja, und ich hab vergessen: Jetzt neu gleichschnell wie letzte Generation mit weniger Stromverbrauch. Weil mit den mageren Verbesserungen die es bisher gab, wäre ja nix mehr drinn, wenn man es auf Effizienz trimmt.
So sehr ich für Umweltschutz bin (hier handelt es sich btw. um Klimaschutz ;) ), wird das nix ohne Regelungen (oder sehr teure Strompreise, wobei die meisten Leute nicht wissen, wie viel Strom das Teil zieht. Das müsste wie bei TVs fett auf der Schachtel stehen).
Slashman
2023-06-05, 22:22:12
"Umwelt bewusst aber langsamer"
Kommt bestimmt gut an. Jetzt neu bei uns "nur" 250Watt anstatt 300Watt xD
Ah ja, und ich hab vergessen: Jetzt neu gleichschnell wie letzte Generation mit weniger Stromverbrauch. Weil mit den mageren Verbesserungen die es bisher gab, wäre ja nix mehr drinn, wenn man es auf Effizienz trimmt.
So sehr ich für Umweltschutz bin (hier handelt es sich btw. um Klimaschutz ;) ), wird das nix ohne Regelungen (oder sehr teure Strompreise, wobei die meisten Leute nicht wissen, wie viel Strom das Teil zieht. Das müsste wie bei TVs fett auf der Schachtel stehen).
Ich bin eh dafür das diese Wegwerfgeselschaft bei Kleidung, Produkten von der EU verboten werden soll.
Die EU muss auch langsam mal die Hersteller von PC Komponenten in die Pflicht nehmen.
Hätte die RX 7900XTX nur 300 Watt verbraucht wäre sie trotzdem schneller als die RX 6900XT. Die RX 7800 ist auch ohne die 250 Watt zu sprengen schneller als die RX 6800 XT.
Ich denke AMD sollte sich nicht zu sehr an NVIDIA halten. Auch sollten Chips jenseits von 400mm² verboten werden, weil Silizium wird auf sehr schädliche Weise vom Meeressand gefördert. Wie gesagt Der Welt zu Liebe sollten wir alle etwas bewusster einkaufen und Energie verbrauchen.
Ich betreibe meine RX 5700XT mit 50% weniger TDP und nur 1,1 Volt (statt 1,2 Volt) und habe kaum weniger Leistung. Halber Stromverbrauch (90 statt 180 Watt TDP) und 1,5 GHz statt 1,85 GHz.
Ich rüste einen PC auch nicht alle 2 - 4 Jahre auf sondern alle 5 bis 7 Jahre. Quasi mit einer neuen Playstation Generation kommt auch ein neuer PC. So habe ich immer garantiert einen mega Sprung der Leistung.
Rabiata
2023-06-05, 23:57:20
Ich sehe keine Entwicklung, die zurück führt zu 200W GPU am Desktop. Selbst am schwachen Notebook schlucken GPUs an die 200W.
Bei den Topmodellen sicher nicht. Der einzelne Nutzer kann natürlich zwei Nummern kleiner einkaufen, was dann auch billiger kommt.
Habe ich letztes Jahr mit einer ASRock RX 6600 Challenger D gemacht, die hat 130W TDP. Damals war der Preis 285,- Euro, aktuell hat Mindfactory das Teil für 209,- €. Damit sind wir schon fast wieder bei vernünftigen Preisen :freak:.
Und nebenbei bemerkt ist der Spielraum beim Ändern des Powertargets geradezu mickrig, der Windows-Treiber erlaubt gerade mal +/- 6% (ohne manuell in den Spannungen rumzubasteln). Ich hätte da gern so etwas wie den Eco-Mode bei den aktuellen Ryzen, wo die verbratene Leistung gleich mal um 35-40% runter geht.
Platos
2023-06-06, 00:41:30
Ich bin eh dafür das diese Wegwerfgeselschaft bei Kleidung, Produkten von der EU verboten werden soll.
Die EU muss auch langsam mal die Hersteller von PC Komponenten in die Pflicht nehmen.
Hätte die RX 7900XTX nur 300 Watt verbraucht wäre sie trotzdem schneller als die RX 6900XT. Die RX 7800 ist auch ohne die 250 Watt zu sprengen schneller als die RX 6800 XT.
Ich denke AMD sollte sich nicht zu sehr an NVIDIA halten. Auch sollten Chips jenseits von 400mm² verboten werden, weil Silizium wird auf sehr schädliche Weise vom Meeressand gefördert. Wie gesagt Der Welt zu Liebe sollten wir alle etwas bewusster einkaufen und Energie verbrauchen.
Ich betreibe meine RX 5700XT mit 50% weniger TDP und nur 1,1 Volt (statt 1,2 Volt) und habe kaum weniger Leistung. Halber Stromverbrauch (90 statt 180 Watt TDP) und 1,5 GHz statt 1,85 GHz.
Ich rüste einen PC auch nicht alle 2 - 4 Jahre auf sondern alle 5 bis 7 Jahre. Quasi mit einer neuen Playstation Generation kommt auch ein neuer PC. So habe ich immer garantiert einen mega Sprung der Leistung.
Ich bin absolut gegen die Verbots-Politik der EU.
Mindestanforderung in EmEnergieeffizienz etc, wie es sie bei z.B TVs gibt, sind dann aber was anderes. Ebenfalls Supportzwang für 10Jahre etc.
Slashman
2023-06-06, 04:31:02
Ich bin absolut gegen die Verbots-Politik der EU.
Mindestanforderung in EmEnergieeffizienz etc, wie es sie bei z.B TVs gibt, sind dann aber was anderes. Ebenfalls Supportzwang für 10Jahre etc.
Ohne Verbote oder Regelungen wie Aktuell die Geschichte mit den Druckern (die Absicht zum kaputt zu gehen gemacht sind) geht es nicht.
Es muss Grenzen geben.
Ist eine 320 Watt RTX 4080 schneller als eine die 160 Watt schluckt... Ja, aber nicht 2x so schnell. Die 160 Watt Version liefert dann 1,5 GHz Takt, wo die 2 GHz Version bei 320 Watt läuft.
Das ist der Punkt. Grafikkarten werden über die Jahre ineffizienter. Es geht hier nur noch um 3D Mark Balken jagt.
Eine 8800 Ultra damals mit 480mm² G80 Chip schluckte 175 Watt und das galt damals als sehr viel... Heute nennt man das Untere Mittelklasse?
Warum muss auch jede Generation unbedingt viel schneller sein als die neue Fertigung hergibt. Wenn TSMC sagt neue Gen bei gleichem Verbrauch nur 30% schneller, dann ist es halt so... Aber AMD und Nvidia wollen dann trotzdem 50% statt auf eine bessere Fertigung zu warten die es möglich macht wird die TDP angehoben.
Mehr als 300 Watt sollte keine Grafikkarte verbrauchen.
https://youtu.be/-LgHUAUragk
Ich habe einen Sohn und ich würde mich freuen wenn er eine bessere Zukunft hätte als jetzt. Ich rede ja nicht von Verzicht auf unsere Hobbys,aber um Bewusstsein für Energie und Ressourcen.
Platos
2023-06-06, 09:32:59
Natürlich gehts ohne Verbote. Siehe TVs. Da wurde der Verbrauch ganz ohne Verbote gesenkt.
Sorry, aber mehr muss man dazu nicht sagen, denn deine Aussage ist schlicht nachweislich falsch.
Vorgaben sind übrigens auch keine Verbote. Mit Effizienzvorgaben aller Hardwarebauteile in verschiedenen Last-szenarien wäre die Sache geklärt. Tut aber niemand.
Die EU-Verbotskultur gehört hingegen verboten ;)
Wobei man ehrlich sein muss: Die EU-Verbotskultur ist ja hauptsächlich die deutsche Verbotskultur.
Quatsch, die TVs und Monitore werden einfach nur noch mit 20% Helligkeit verkauft -> Stromverbrauch gesenkt :freak:.
Ich halte das alles für BS, weder Verbote noch irgendwelche halbgaren Enegiesparreglungen helfen. Man kann den Energieverbrauch bei den meisten Dingen gar nicht weiter senken, wir brauchen vernünftige Energiequellen.
Der_Korken
2023-06-06, 10:23:38
Ich bin grundsätzlich auch ein Gegner von willkürlichen Verboten. Trotzdem würde ich es lustig finden, wenn sie ein Limit wie 250W für Grakas kommen würde und Hersteller dann gezwungen wären zu UVen statt den Verbrauch einfach sinnlos hochzuballern und mit einer 4-Slot-Kühlung "ruhig zu stellen" (sodass die Casefans stattdessen den Wärmeabfall entsorgen müssen). Wahrscheinlich würde wir dann aber so Blüten sehen, dass von einer RX8700 bis zur RX8900XT alles 250W verbraucht, die kleinste bis zum Erbrechen geprügelt, die größte mit <800mV vor sich hinschnurrend. So kommt man dann auf >50% Perf/W Unterschiede innerhalb einer Gen :D
Nope, da bin ich absolut dagegen, man sollte wenigstens die Option haben. Ob dir das gefällt oder nicht ist mir egal.
Savay
2023-06-06, 12:30:29
DXO DeepPrime kenne ich nicht. Werden denn da die Tensorcores überhaupt genutzt bzw ist das darauf optimiert?
Die TC werden genutzt seit PL5, genauso wie btw. die Apple Neural Engine.
Vorher (PL4) lief das DNN übrigens mit fp32 und damit rein auf den CUDA Cores und da war die 6900XT dann sogar grade zu deutlich schneller als die 3090...
Aus Perf/W und auch Perf/Ops Sicht dreht die ANE dort eh Kreise um die TC. (Zumindest im normalen DeepPrime...XD scheint der ANE nicht allzu sehr zu schmecken)
davidzo
2023-06-06, 13:53:35
Ich betreibe meine RX 5700XT mit 50% weniger TDP und nur 1,1 Volt (statt 1,2 Volt) und habe kaum weniger Leistung. Halber Stromverbrauch (90 statt 180 Watt TDP) und 1,5 GHz statt 1,85 GHz.
Ich rüste einen PC auch nicht alle 2 - 4 Jahre auf sondern alle 5 bis 7 Jahre. Quasi mit einer neuen Playstation Generation kommt auch ein neuer PC. So habe ich immer garantiert einen mega Sprung der Leistung.
Nice, Soulmate!
Habe dem nichts hinzuzufügen - ähnliche Ansicht, ähnliche upgradekadenz, ähnlich undervoltete 5700XT hier (mit 5700x cpu hehe).
Ich bin grundsätzlich auch ein Gegner von willkürlichen Verboten. Trotzdem würde ich es lustig finden, wenn sie ein Limit wie 250W für Grakas kommen würde und Hersteller dann gezwungen wären zu UVen statt den Verbrauch einfach sinnlos hochzuballern und mit einer 4-Slot-Kühlung "ruhig zu stellen" (sodass die Casefans stattdessen den Wärmeabfall entsorgen müssen).
Ich finde das ist einfach ein Fall für ne Luxussteuer, kein Verbot. Die fällt dann pro Watt für alles an was gaming ist, egal ob kleine oder große gpu, konsole oder PC. Wird aber schwierig sein das auszurechnen, imo sollte nicht nur TDP sondern auch idleverbrauch ne Rolle spielen. Und eigentlich kann man den normalen PCmarkt davon nicht einfach ausklammern.
Vielleicht muss auch der Strom einfach nochmal Faktor zwei bis vier teurer werden. Das würde das Problem automatisch lösen und viele andere Fliegen gleichzeitig erschlagen. Da müssen dann aber der Grundbedarf und die Steuerfreibeträge ebenfalls massiv erhöht werden.
Aber ja, Sachen die schlecht für die Umwelt und Allgemeinheit sind, sollten eben viel kosten, dann braucht man auch keine Verbote. Der Markt regelt das dann - das will doch die FDP ;D. Beim Energieverbrauch geht das nicht nur den Einzelnen was an, da stecken wir als Gesamtgesellschaft mit drin und müssen dementsprechend Anreize schaffen zu sparen. Und damit die superreichen dann nicht trotzdem frei drehen muss das ganze natürlich knallhart progressiv gestaffelt sein. Also die Armen zahlen wenig und können wenn sie bewusst sparsam sind sogar netto positiv aus der Sache rauskommen und die mit viel höherem pro kopf verbrauch zahlen einfach exponentiell mehr dass es auch superreichen weh tut.
Schnitzl
2023-06-06, 14:59:39
Bitte nicht zu sehr ins politische abdriften, danke :)
Es steht natürlich jedem frei, Verbote/Energieverbrauch/Luxussteuer im entsprechenden oder neuen Thread zu diskutieren, ich will hier nichts verbieten :biggrin:
pilzsammler2002
2023-06-07, 14:57:58
Aus dem Steam Deck Thread (mein Steam Deck ist heute angekommen):
Also ich kann bestätigen, dass der Steam Deck SoC (Van Gogh) dieses Gefrickel mit externen Programmen "AutoTDP" nicht braucht. CPU und GPU gehen von ganz allein in richtig tiefe powerstates, wenn die Spiele das Framelimit locker schaffen.
Gerade dark souls 2 probiert. Da takten GPU und CPU so niedrig weil es anscheinend super einfach ist 60 fps zu schaffen dass er mir 4 h Akku anzeigt. Senke ich die Auflösung und den Framelimiter auf 40 fps sinkt die Leistungsaufnahme des SoCs weiter und er zeigt mir 5h Akku an. Ich muss die TDP nicht mal limitieren. So geht das. :up:
Die Steamdeck ist da nochmal ein bisschen anders. DU kannst dort am meisten strom sparen indem du nen Limiter setzt auf z.B. 40 FPS und dann mit der TDP nochmal soweit runter gehen dass du sozusagen bei 39 landest und dann 1w mehr... :freak:
Dann merkst du dass mit freier TDP @ 40 FPS du ca. 12w verbrauchst (ist nen Bsp.) aber du 40 FPS auch mit 7w erreichen kannst. Beim runtersetzen der TDP ändert sich nix im Spiel/FPS ausser dass die CPU nen bissel runtertaktet... (nicht oder nur minimal die GPU) :biggrin:
MSABK
2023-06-08, 10:53:49
https://www.notebookcheck.net/Laptop-Radeon-RX-7800M-XT-performs-on-par-with-desktop-RTX-4070-in-leaked-3DMark-TimeSpy-benchmark-run.724521.0.html
Es gibt leaks zu den mobilen Chips.
dildo4u
2023-06-08, 10:59:35
Zum Vergleich Mobile 4070/4080. 13 bzw 18.8k.
https://www.computerbase.de/2023-02/geforce-rtx-4090-4080-laptop-gpu-gaming-notebooks-test/#abschnitt_synthetische_benchmarks
Schätze die top 4080/7800XT Mobile Modelle sind vergleichbar was TDP /Kühlung angeht.
Der_Korken
2023-06-08, 11:35:15
https://www.notebookcheck.net/Laptop-Radeon-RX-7800M-XT-performs-on-par-with-desktop-RTX-4070-in-leaked-3DMark-TimeSpy-benchmark-run.724521.0.html
Es gibt leaks zu den mobilen Chips.
Im Gegensatz zu den anderen Gerüchten sieht das wiederum sehr gut aus. 189W für 6800XT-Leistung entspräche dann auch den von AMD versprochenen +50% Perf/W, wobei es bei den Desktop-Karten noch reichlich Raum gibt, die Effizienz nach oben hin zu killen.
davidzo
2023-06-08, 14:17:23
Interessant, im mobile kriegt AMD irgendwie immer noch die Kurve.
Selbst die 6nm Navi33 kann ja den ersten leaks nach mit GA107 mithalten - bei vergleichbarer TDP.
Früher gab es schon mehrfach solche Effizienznachteile nur im Desktop, z.B. bei Polaris. Das lag aber auch daran dass AMD beim Board und Kühlerdesign der RX480 extrem auf die Kosten geschaut hat. AMD wusste anscheinend frühzeitig das man mit einem leicht größeren Chip und SI nur knapp das Performanceniveau von nvidias GP106 erreicht und hat dementsprechend frühzeitig alles andere auf geringe Kosten getrimmt. Im mobile gab es trotzdem entsprechend gute Binnings die es bei vergleichbarer TDP einigermaßen mit nvidia aufnehmen konnten, z.b. rx560m vs 1050m.
Fusion_Power
2023-06-08, 14:42:23
Zum Vergleich Mobile 4070/4080. 13 bzw 18.8k.
https://www.computerbase.de/2023-02/geforce-rtx-4090-4080-laptop-gpu-gaming-notebooks-test/#abschnitt_synthetische_benchmarks
Schätze die top 4080/7800XT Mobile Modelle sind vergleichbar was TDP /Kühlung angeht.
Und auch diese Geräte wird man nicht leise gekühlt bekommen... wer kauft sich nur sowas... :confused:
Slashman
2023-06-08, 17:27:43
Und auch diese Geräte wird man nicht leise gekühlt bekommen... wer kauft sich nur sowas... :confused:
Ich kaufe mir meistens Gaming-Laptops im oberen Segment... Die RX 7800M XT ist genau das was ich suche. Die Navi32 mit 165 Watt TDP statt 285 Watt. Ich kann gerne auf die 10-20% Leistung verzichten zugunsten von bis zu 40% weniger TDP.
Ich stelle mir gerade ein Traumsystem vor mit Ryzen 9 7945H, 32 GB DDR5 5600 RAM, 2 TB SSD und RX 7800M XT mit 4K 17/18" Display.
Vergleicht mal die RX 6800M mit der RX 6700 XT... Fast gleiche Leistung (maximal 10% weniger), aber der Notebook Chip ist dabei viel sparsamer.
Also laut sind gute Laptops nicht, es hängt davon ab welcher Hersteller. Aber meine Laptops waren bisher alle leiser als ein vergleichbarer PC.
Fusion_Power
2023-06-08, 22:43:36
Ich kaufe mir meistens Gaming-Laptops im oberen Segment... Die RX 7800M XT ist genau das was ich suche. Die Navi32 mit 165 Watt TDP statt 285 Watt. Ich kann gerne auf die 10-20% Leistung verzichten zugunsten von bis zu 40% weniger TDP.
Ich stelle mir gerade ein Traumsystem vor mit Ryzen 9 7945H, 32 GB DDR5 5600 RAM, 2 TB SSD und RX 7800M XT mit 4K 17/18" Display.
Vergleicht mal die RX 6800M mit der RX 6700 XT... Fast gleiche Leistung (maximal 10% weniger), aber der Notebook Chip ist dabei viel sparsamer.
Also laut sind gute Laptops nicht, es hängt davon ab welcher Hersteller. Aber meine Laptops waren bisher alle leiser als ein vergleichbarer PC.
Ich lese regelmäßig Laptop-Reviews auf Notebookcheck.de, ich schaue mir dort die Daten zur Lärmentwicklung der jeweiligen Geräte an...und ärgere mich dann meistens. :freak: Unter 40dB hat man quasi kaum Multimedia oder gar "Gaming" Laptops, wie auch wenn man da 100W + Grafikchips einbaut, CPU nicht mit eingerechnet. Gibt natürlich Silent-Profile bei der Software aber dann braucht man sich auch keine dicke Grafikkarte mit kaufen.
Aber kein Ding, ich zocke kaum noch, mir reicht ne sparsame und leise kühlbare iGPU dafür, ich bin begeistert von AMDs Zen3 Radeon 680/780M, passt. Noch nen gescheiter Laptop drum herum, 16" oder so, vllt. der kommende modulare 16" Framework... fertsch. :D
MSABK
2023-06-08, 23:34:34
Ist ja klar, dass die Teile bei der TDP und den kleinen Lüftern laut werden. Einfach einen Laptopständer mit leisen Lüftern nutzen und da sieht es schon anders aus.
Complicated
2023-06-09, 07:06:27
Was bleibt dann als Vorteil gegenüber Desktop-Systemen zum Zocken? Die ganze benötigte Peripherie macht das nicht gerade mobil und der Monitor ist auch kleiner.
robbitop
2023-06-09, 07:14:32
Mobiles Gaming finde ich eher das Steam Deck interessant. Mit Optimierung kommt man auf grob 3-4h Akkulaufzeit was mir zumindest reicht. Und man kann sehr sehr viele Games damit spielen. Das ist richtig mobil. So ein Schlepptop IMO nicht. Dann lieber dazu noch einen richtigen Desktop
Mortalvision
2023-06-09, 08:18:18
Mobiles Gaming spart massiv Platz. Viele Menschen haben lieber ein Gerät zum Arbeiten und eines zum Spielen denn eine Kombi-Lösung oder gar 2 PC Plätze zuhause.
Slashman
2023-06-09, 08:27:31
Mobiles Gaming finde ich eher das Steam Deck interessant. Mit Optimierung kommt man auf grob 3-4h Akkulaufzeit was mir zumindest reicht. Und man kann sehr sehr viele Games damit spielen. Das ist richtig mobil. So ein Schlepptop IMO nicht. Dann lieber dazu noch einen richtigen Desktop
Klar so mobil wie das ROG Ally von Asus ist es nicht, aber der Sinn vom Notebook ist es nicht in der U-Bahn zu zocken. Viel mehr ist es dafür da um gemütlich das Teil von Haus zu Haus zu nehmen, mal auf dem Bett oder Sofa zu zocken und wenn man damit fertig ist gleich wegpacken.
Ich hatte bisher 3 Gaming-Laptops und war zufriedener als mit dem einen Desktop den ich habe.
Einen Handheld werde ich mir sicher holen, entweder eine Switch 2/Pro oder den Nachfolger des ROG Ally. Ein Gaming-Laptop muss trotzdem her.
Mobiles Gaming spart massiv Platz. Viele Menschen haben lieber ein Gerät zum Arbeiten und eines zum Spielen denn eine Kombi-Lösung oder gar 2 PC Plätze zuhause.
Exakt das ist der Grund. Ein Desktop nimmt dauerhaft Platz ein und ein Laptop kann ich nach dem Spielen direkt verschwinden lassen. Daher ist der Desktop PC auch mein letzter.
robbitop
2023-06-09, 09:39:43
Gerade im Bett oder auf der Couch ist das Steam Deck super. Mit einem Laptop ist das wesentlich unergonomischer. Das Mitnehmen ist natürlich klasse. Wenn ich im Sitzen zocken wöllte, ist gutes I/O (Monitore, Tastatur) und entsprechend guter Bürostuhl (Secret Lab Stuhl zB - ich würde auf nichts anderem mehr am Schreibtisch sitzen wollen) und guter Schreibtisch quasi pflicht wenn es nicht unangenhm werden soll.
Die Situation mit 2 Haushalten hatte ich auch ne Weile. Hab mir einen gebrauchten Desktop für die 2. Wohnung geholt. War im Endeffekt dann nicht wirklich teurer als ein Gaming laptop aber schneller und irgendwie auch deutlich ergonomischer.
Ist natürlich auch alles individuell und geschmackabhängig. Bisher fand ich Gaminglaptops immer unpraktisch. Unergonomisch, laut, schwer, teuer, nicht upgradebar. Bäh.
Würde ich mir nur holen, wenn ich öfter auf LANs gehen würde.
Was ich ganz brauchbar finde ist ein leichtes subnote book und eine eGPU. Wenn man nicht vorhat zu zocken, ist das ganze irre leicht und man hat eine gute Akkulaufzeit. Wenn man zocken will eGPU dran und ab geht's. Und für eine LAN passt alles in einen Rucksack - so dass man sogar mit dem Rad hinfahren kann. Finde ich ganz charmant. :) (und die GPU ist upgradebar)
Was Arbeiten/Spielen angeht. Mit dem Desktop geht beides. Mit dem Notebook auch. Wenn es aber wirklich platzsparend sein soll, muss der Platz nach dem der Laptop verschwindet für anderes nutzbar sein. Das impliziert, dass kein vernünftiger Bürostuhl und Schreibtisch da ist. Also an irgendeinem Küchentisch und Küchenstuhl. Oder an der Couch. Das ist sehr unergonomisch. Mein Rücken würde mich jedenfalls killen. Mit einem richtig guten Stuhl und Schreibtisch geht das quasi ohne Pause stundenlang ohne, dass was wehtut. Wer natürlich noch in den Zwanzigern ist, kennt das nicht - aber das geht in den Dreißigern los. ;)
Slashman
2023-06-09, 12:01:23
Gerade im Bett oder auf der Couch ist das Steam Deck super. Mit einem Laptop ist das wesentlich unergonomischer. Das Mitnehmen ist natürlich klasse. Wenn ich im Sitzen zocken wöllte, ist gutes I/O (Monitore, Tastatur) und entsprechend guter Bürostuhl (Secret Lab Stuhl zB - ich würde auf nichts anderem mehr am Schreibtisch sitzen wollen) und guter Schreibtisch quasi pflicht wenn es nicht unangenhm werden soll.
Die Situation mit 2 Haushalten hatte ich auch ne Weile. Hab mir einen gebrauchten Desktop für die 2. Wohnung geholt. War im Endeffekt dann nicht wirklich teurer als ein Gaming laptop aber schneller und irgendwie auch deutlich ergonomischer.
Ist natürlich auch alles individuell und geschmackabhängig. Bisher fand ich Gaminglaptops immer unpraktisch. Unergonomisch, laut, schwer, teuer, nicht upgradebar. Bäh.
Würde ich mir nur holen, wenn ich öfter auf LANs gehen würde.
Was ich ganz brauchbar finde ist ein leichtes subnote book und eine eGPU. Wenn man nicht vorhat zu zocken, ist das ganze irre leicht und man hat eine gute Akkulaufzeit. Wenn man zocken will eGPU dran und ab geht's. Und für eine LAN passt alles in einen Rucksack - so dass man sogar mit dem Rad hinfahren kann. Finde ich ganz charmant. :) (und die GPU ist upgradebar)
Was Arbeiten/Spielen angeht. Mit dem Desktop geht beides. Mit dem Notebook auch. Wenn es aber wirklich platzsparend sein soll, muss der Platz nach dem der Laptop verschwindet für anderes nutzbar sein. Das impliziert, dass kein vernünftiger Bürostuhl und Schreibtisch da ist. Also an irgendeinem Küchentisch und Küchenstuhl. Oder an der Couch. Das ist sehr unergonomisch. Mein Rücken würde mich jedenfalls killen. Mit einem richtig guten Stuhl und Schreibtisch geht das quasi ohne Pause stundenlang ohne, dass was wehtut. Wer natürlich noch in den Zwanzigern ist, kennt das nicht - aber das geht in den Dreißigern los. ;)
Ich hab eine Wohnlandschaft die sehr bequem ist und dort zockte ich immer mit dem Laptop. Ich lag Quer und Recht neben mir war nochmal ein qm Fläche für das Mauspad. Der Laptop war auf einer kleinen Holzplatte die mich vor den Temperaturen schützt.
Ich fand es so bequem und jetzt vermisse ich es.
Aber Back to Topic.
Die Navi 32 ist für mich der ideale Ersatz für die Navi10 in meiner RX 5700XT. 16 GB Vram ist mir auch genug. Es wird eh der letzte PC bevor ich das Hobby relativ aufgeben werde.
Es gibt einfach kaum noch Spiele die mich so flashen und toll sind das ich sie unbedingt brauche. Die meiste Zeit zocke ich eh Genshin impact und nur selten AAA Games. Diesen Laptop kaufe ich mir im Grunde nur für 6 Spiele:
Metal gear solid Delta Snake Eater
Hoffentlich Metal gear solid Remake (Teil 1/2)
Armored core 6 Fires of R.
Blue Protocol (MMO)
Final Fantasy 7 remake/Rebirth
GTA 6
Vielleicht noch paar andere Games, aber unwahrscheinlich.
PC Gaming wird allgemein viel zu teuer und so werde ich wohl auf die Konsole umsteigen. Dieses Mal für immer.
Ich hatte nie gedacht das von einer GTX Titan damals 600€ zu heute innerhalb von paar Jahren zu 2000€ Karten kommt. Die Abzocke von den Herstellern mache ich danach nicht mehr mit.
Complicated
2023-06-09, 13:36:20
Ist ja klar, dass die Teile bei der TDP und den kleinen Lüftern laut werden. Einfach einen Laptopständer mit leisen Lüftern nutzen und da sieht es schon anders aus.
Was bleibt dann als Vorteil gegenüber Desktop-Systemen zum Zocken? Die ganze benötigte Peripherie macht das nicht gerade mobil und der Monitor ist auch kleiner.
Diese Argumente sind doch dann vom Tisch - daher die Frage wo so eine Lüfter/Docking-Station noch Vorteile vor einem Desktop bietet.
Dies kannst du vergessen:
Mobiles Gaming spart massiv Platz.
Das Argument löst sich ebenfalls in Luft auf (es gibt kleinere Desktops zum wegräumen)
Exakt das ist der Grund. Ein Desktop nimmt dauerhaft Platz ein und ein Laptop kann ich nach dem Spielen direkt verschwinden lassen.
Und mitnehmen geht auch nicht mehr so einfach. Das ist einfach eine Zirkel-Argumentation.
Es bleibt:
:freak: Unter 40dB hat man quasi kaum Multimedia oder gar "Gaming" Laptops, wie auch wenn man da 100W + Grafikchips einbaut, CPU nicht mit eingerechnet. Gibt natürlich Silent-Profile bei der Software aber dann braucht man sich auch keine dicke Grafikkarte mit kaufen.
Slashman
2023-06-09, 23:35:55
Diese Argumente sind doch dann vom Tisch - daher die Frage wo so eine Lüfter/Docking-Station noch Vorteile vor einem Desktop bietet.
Dies kannst du vergessen:
Das Argument löst sich ebenfalls in Luft auf (es gibt kleinere Desktops zum wegräumen)
Und mitnehmen geht auch nicht mehr so einfach. Das ist einfach eine Zirkel-Argumentation.
Es bleibt:
1. Ich betreibe schon meinen Desktop mit UV und halber TDP Profilen. Meine RX 5700XT ist statt auf 180 Watt TDP auf nur 90 Watt eingestellt. Halber Stromverbrauch und nur 25% maximal an Leistung verloren. Das selbe werde ich auch bei der RX 7800M XT oder RX 7900s machen. Statt 165 Watt nur 100 Watt... Ob jetzt 2,5 GHz oder nur 2,2 GHz Chiptakt kratzt mich nicht.
2. Niemand hat je behauptet das man Laptops so einfach wie Handhelds oder Telefone schleppen kann. Aber sie sind 100% transportabler als vergleichbar schnelle PCs. Ich saß auf der Couch und habe auch mal im Bett gezockt. Das geht mit einem Laptop, aber mit dem PC nicht. Klar ein Handheld wäre in der Disziplin besser, aber es ging bei mir im Vergleich zum PC.
3. Ich zocke mit einem Headset und dann ist es wie beim Desktop egal ob er laut ist. Auch hier der Hinweis zu Punkt 1, das ich meinen Laptop UV und TDP stark reduziert benutzen werde. Daher wird die Lautstärke definitiv unter 40db fallen. Wenn er bei 165 Watt TDP bis zu 50 db laut wird, dann ist er bei 100 watt nur noch bei 35-40 db.
4. Diese mini PCs die klein genug sind haben meistens nur iGPUs drin oder eher kleinere Karten. Nix in der Gewichtsklasse einer RX 7800 XT oder RX 4080. Also warum du unbedingt PCs gegen Notebooks stellst. Ich werde mir ein Notebook kaufen weil ich es will. Ich habe beides gehabt und bin mit dem Laptop zufriedener gewesen.
5. Dein Geld kannst du ja nutzen für Desktop PCs, aber ich werde ein letztes mal einen Laptop kaufen bevor ich PC Gaming wohl aufgeben werde.
Mfg
Complicated
2023-06-10, 00:13:30
Es ging um Laptops die in einem Laptopständer mit leisen Lüftern verwendet werden (Headset wohl kaum der Use Case bei so etwas). Das ist nicht transportabler als ein Desktop, der eine Highend GPU verbaut hat. Sperriger geht es ja wohl kaum, da ist jedes NUC mit eGPU leichter zu verstauen, wenn man das will. Auch dein Headset ändert nichts an den lauten Betriebsgeräuschen, das kann man auch am Desktop nutzen und sich dafür die Custom-GPU mit besserer Kühlung sparen.
Slashman
2023-06-10, 10:13:28
Es ging um Laptops die in einem Laptopständer mit leisen Lüftern verwendet werden (Headset wohl kaum der Use Case bei so etwas). Das ist nicht transportabler als ein Desktop, der eine Highend GPU verbaut hat. Sperriger geht es ja wohl kaum, da ist jedes NUC mit eGPU leichter zu verstauen, wenn man das will. Auch dein Headset ändert nichts an den lauten Betriebsgeräuschen, das kann man auch am Desktop nutzen und sich dafür die Custom-GPU mit besserer Kühlung sparen.
Nebenbei verwenden viele High end Notebooks einen Turbomodus wo das Teil stark hochtaktet und der Kühler aufdreht. Ich benutze den Modus nie, weil ich für 10% mehr Leistung nicht 30-40% mehr TDP opfere.
https://dlcdnimgs.asus.com/websites/global/products/QR53BuXpFuKy0ZlG/img/01_banner.jpg
Also wollt ihr mir erzählen, dass diese 17" nicht locker in einen Rucksack passen... Wer von euch hatte einen Gaming-Laptop? Ich schon drei 17" mit High End oder guter Gaming GPU und CPU. Ein I-Power Gx M003, ASUS Rog G750JX und aktuell einen kleinen Gaming ASUS TUF A17 mit GTX 1660Ti. Alles 17" Notebooks, die ich mit einer Hand tragen kann und konnte. Denn i Power GX gab ich meinen Eltern, der übrigens noch heute funktioniert, auch wenn ein Intel Penryn zu nix mehr taugt.
Jedes der Laptops passt locker in eine Tragetasche oder Rucksack. Ich werde mir wieder einen Asus Rog kaufen, die ich auch mit einer Hand von A nach B tragen kann.
Fazit :
Desktop nicht mit einer Hand zu tragen, aber 99% aller Laptops schon. - Ausnahme Acer 21x Monster Book)
Laptop passen in jeden Notebook Rucksack für 17".
Laptops können sehr leise sein auch wenn es Gaming-Laptop sein sollten.
DrFreaK666
2023-06-10, 10:45:38
Meine Güte. Wieso artet es hier immmer so in Off-topic Gelaber aus? Nutzt dafür den 4090-Thread :ugly:
HarryHirsch
2023-06-10, 11:24:35
Meine Güte. Wieso artet es hier immmer so in Off-topic Gelaber aus? Nutzt dafür den 4090-Thread :ugly:
:ulol:
Complicated
2023-06-10, 17:03:44
Fazit :
Desktop nicht mit einer Hand zu tragen, aber 99% aller Laptops schon. - Ausnahme Acer 21x Monster Book)
Laptop passen in jeden Notebook Rucksack für 17".
Laptops können sehr leise sein auch wenn es Gaming-Laptop sein sollten. Leute zitiert mich doch nicht, wenn ihr euch auf etwas völlig anderes bezieht. Ist der Kontext so schwer? Da steht ein Laptopständer mit Lüfter auf dem Schreibtisch!
Es ging um Laptops die in einem Laptopständer mit leisen Lüftern verwendet werden.
5 verschiedene Beiträge die ein und das selbe ignorieren.
DrFreaK666
2023-06-10, 18:32:14
Kann ein Mod das Off-topic entfernen?
Wird ja echt zur Gewohnheit hier... :rolleyes:
Slashman
2023-06-11, 08:25:14
Leute zitiert mich doch nicht, wenn ihr euch auf etwas völlig anderes bezieht. Ist der Kontext so schwer? Da steht ein Laptopständer mit Lüfter auf dem Schreibtisch!
5 verschiedene Beiträge die ein und das selbe ignorieren.
Selbst mit so einem zusätzlichen Tischkühler für Laptops passt alles in einen Rucksack, aber ja diesen Zusatz kann man schlecht auf dem Bett oder Sofa nutzen. Ich benutze sowas nicht, weil ich meine Hardware immer untervolte und untertakte. Notebooks sind aus persönlicher Erfahrung dem Desktop in Mobilität weit überlegen... Die einzige Ausnahme war das Acer Predator 21x... Wer sowas gekauft hat?
Kann ein Mod das Off-topic entfernen?
Wird ja echt zur Gewohnheit hier... :rolleyes:
Ja da hast du recht und es tut mir leid.
@Topic:
Warum kommt Navi 32 eigentlich so spät raus. AMD kann kaum in der Zeit was verbessert haben. Nvidia hat inzwischen glaub ich alle RTX 4000 Chips raus. Von klein bis groß. Wenn die RX 7000 nicht gut hochtakten kann hätte AMD es einfach lassen sollen und es in der nächsten Gen besser machen können.
Ich bevorzuge AMD nicht wegen der Leistung, sondern wegen der inzwischen besseren Treiber. NVIDIA hat ihre Treiber in der Benutzeroberfläche kaum verändert, aber AMD Treiber sind echt umfangreich. Nach 12 Jahren NVIDIA war ich überrascht wie gut AMD Treiber sind. Ab der RX 5700XT war ich dann im AMD Lager gelandet.
Damit will ich sagen, AMD muss nicht unbedingt auf Leistungsebene mit NVIDIA gleichziehen. Sie können einfach das Gesamtpaket verbessern. Effizienz, Treiber, Software Support, noch besseren Linux Support... Dann müsste es egal sein ob die RX 7800 5% langsamer ist als die RTX 4070ti...
dildo4u
2023-06-11, 08:32:09
Beide halten neue Karten zurück weil die alten nicht ausverkauft sind die 4060 kommt erst Ende Juli und bei AMD gibt es noch tonnen 6700XT/6800 etc.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&bl1_id=30&xf=132_12288~9809_05+12+-+RX+6700+XT&sort=p#productlist
Was nicht verwundert wir sind gerade am absoluten Tiefpunkt der letzten 10 Jahre.
https://www.tomshardware.com/news/jpr-q1-2023-aib-report-jpr
basix
2023-06-11, 10:55:54
Wundert es dich? Inflation & generelle wirtschaftliche Faktoren, hohe GPU Preise, keine P/L Fortschritte, unausgewogenen VRAM Kapazitäten, wenige zugträchtige Spieletitel.
Slashman
2023-06-11, 12:21:16
Beide halten neue Karten zurück weil die alten nicht ausverkauft sind die 4060 kommt erst Ende Juli und bei AMD gibt es noch tonnen 6700XT/6800 etc.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&bl1_id=30&xf=132_12288~9809_05+12+-+RX+6700+XT&sort=p#productlist
Was nicht verwundert wir sind gerade am absoluten Tiefpunkt der letzten 10 Jahre.
https://www.tomshardware.com/news/jpr-q1-2023-aib-report-jpr
Also ich habe mich eher gewundert warum Leute bereit waren für eine Grafikkarte die vor 10 Jahren nur 1/4 gekostet hat jetzt 2000€ zu zahlen.
AMD und NVIDIA haben die Situation so sehr ausgenutzt und die Preise hoch Klettern lassen. Wenn sie jetzt dafür umso mehr Verluste machen ist es verdient.
Eine Mittelklasse Grafikkarte für 600€ wenn mir das einer vor 10 Jahren gesagt hätte... Ich würde es nicht glauben.
Wundert es dich? Inflation & generelle wirtschaftliche Faktoren, hohe GPU Preise, keine P/L Fortschritte, unausgewogenen VRAM Kapazitäten, wenige zugträchtige Spieletitel.
Ich fand die RX 5700XT mit 400€ zu Release schon zu teuer, aber was heute passiert ist krank...
1 Gigabyte GDDR6 Vram kostet gerade nur 4 Dollar was mal 14 Dollar gekostet hat. Inzwischen könnte man die Preise bei allem fallen lassen.
Complicated
2023-06-11, 13:24:59
Diese Entwicklung war aber zu Erwarten - mit den immer stärkeren iGPUs werden die Stückzahlen kleiner und die Kosten steigen. Der AI-Boom in der Serversparte ermöglicht höhere ASP, durch die Nachfrage und auch weil jeder Monat plötzlich zählt. Gleichzeitig fällt auch die Nachfrage im Client Segment nach Corona. Das wird die neue Preisrealität bleiben für die nächsten 2-3 Jahre. Dass es wieder besser wird, bezweifle ich. APUs wie Phönix werden bis dahin 2 Generationen weiter sein und Chiplets möglicherweise auch in den günstigeren Laptops Kosten-/Stromeffizienter sein.
Das neue Massenprodukt ist dann das Chiplet, welches entsprechend über SKUs skaliert - doch dafür benötigt es mehr Packaging-Kapaziät für die günstigen Chiplet-Designs. Das wird ebenfalls wohl noch 2-3 Jahre dauern.
In dieser Transit-Phase werden die Preise wohl eher noch die machbare Grenze ausloten für dGPU im Consumer-Markt. Ob sich das ändert später wird sich zeigen und vermutlich davon abhängen, wie viel Markt bis dahin noch da ist. Es wird jedenfalls mehr und mehr zum Luxus-Segment. Es wird vom Server-/HPC-/AI-Markt abhängen und ob es da zu einem "KI-Race" kommt, das länger andauert.
AffenJack
2023-06-11, 13:47:07
Chiplets werden doch nichts an den Preisen verändern. Die helfen höchstens die Preise für einen Nodesprung gleichbleiben zu lassen. Das wars aber auch.
Die Situation ist mit früher doch überhaupt nicht vergleichbar. Klar stecken sich die Firmen noch mehr Marge in die Tasche, aber die Realität ist auch, dass die Wafer- und Die-Kosten am explodieren sind für immer kleinere Fortschritte je Nodesprung. Dementsprechend werden die Sprünge pro Generation immer kleiner und der einzige Punkt an dem es noch nennenswerte Sprünge geben wird ist High-End, da es dort niemanden interessiert, wenn die Produktionskosten 500$ oder mehr sind, da dann eben für 2000$ oder mehr verkauft wird.
Das gleiche wird auch APUs, CPUs treffen, nur etwas später weil hier die Produktionskosten niedriger sind aufgrund der kleinern Diesize.
Complicated
2023-06-11, 15:27:26
Es geht eher um die Stückzahlen auf welche die immer weiter steigenden Kosten für einen Nodesprung umgelegt werden können. Der Bedarf wird immer spezieller und Custom wird immer öfter im Serverumfeld genutzt. Nur Chiplets lassen dann kleine Dies und günstige Zweitverwertung des teuren Nodes mit einem I/O Die auf günstigen Prozessen zu. Sowohl für CPU als auch GPU - und da werden dann eher mal 170 W TDP genutzt werden für APUs mit hoher Leistung für Mainstream-Gamer oder zusätzlicher dGPU. Der Hybrid-Modus/Dual-GPU mit iGPU könnte da ein Revival erleben mit den neuen Interconnects und der Chiplet IP.
RitterRost
2023-06-13, 14:59:15
NAVI32 die
Es scheint sie also zu geben...
https://videocardz.com/newz/alleged-amd-navi-32-gpu-pictured-with-four-mcd-dies
N32 ist ein halber N31 + 2 WGP pro SE.
Troyan
2023-06-13, 15:26:06
Frage mich, ob AMD wirklich die 20% effizient benötigt. ein 400mm^2 6nm monolith Chip wäre ebenfalls machbar und wahrscheinlich günstiger...
Nein, definitiv nicht. N32 ist jetzt 200mm². Du kannst das nicht einfach addieren. Die MCDs sind ja nur 37mm², das kostet fast nix.
Linmoum
2023-06-13, 16:20:54
Nein, definitiv nicht. N32 ist jetzt 200mm². Du kannst das nicht einfach addieren. Die MCDs sind ja nur 37mm², das kostet fast nix.Wobei der Einwand mMn durchaus berechtigt ist, jetzt unabhängig von ganz konkreten mm2-Rechnungen. Es ist trotzdem kostbares N5-Silizium, was man hier für N32 verwerten muss und das, obwohl man sich performancetechnisch wohl nur grob mit N21 (+X) anlegen wird.
IMO kann man da schon spekulieren, ob ein 3xxmm2 Mono-N6 nicht sinnvoller gewesen wäre. Gerade jetzt, wo man N33 und N31 kennt. Den eigentlich riesigen Vorteil durch N5 - nämlich eine deutlich bessere Effizienz - bekommt man ja schon bei N31 nicht einmal ansatzweise geboten, wie man es erwarten müsste (und wie AMD es scheinbar selbst erwartet hat).
Das sind knapp 3 Chiplets, die man CPU-seitig für ein N32-GCD bekommen würde. So gut kann N32 gar nicht sein, dass ein Mono-N6 besser gewesen wäre. Aber hinterher ist man vermutlich immer schlauer. Wirkt bei RDNA3 einfach vieles wie schlecht geplant bzw. anders erhofft.
Der_Korken
2023-06-13, 16:28:36
Ein verdoppelter N33 (nicht ganz identisch zu N32 aber ähnlich) würde entsprechend schon 320-350W ziehen, wenn er mit N33-Taktraten betrieben würde. Das ist schon nochmal deutlich schlechter als N31, weil dieser seine Effizienz durch die breite GPU und den niedrigen Betriebspunkt bekommt. Da 5nm einiges an Takt bringen dürfte, müsste man den 6nm-N32 auf 2,2Ghz o.ä. runtertakten, um überhaupt effizienter als N21 zu werden, aber dann sind 60 (oder 64) CUs zu wenig, um die Leistung zu erreichen. Da kann man halt wirklich einfach N21 weiter nutzen und sich die Designkosten sparen.
Edit: Ein 72-80 CU-N32 mit getrennten GCD und MCDs hätte sich vielleicht noch gelohnt wegen kleinerer Dies.
Troyan
2023-06-13, 17:06:35
Der Takt der 7600 bei 160W ist knapp 100MHz höher als bei der 7900XT(X). 5nm ist ~20% effizienter, aber kostet fast das doppelte vom 6nm Prozess. Da sind 200mm^2 fast identisch zu 400mm^2, jedoch kommen noch die zusätzlichen 6nm MCDs sowie das Zusammenbauen dazu.
Ökonomisch ist da der Monolith auf 6nm fast sinnvoller...
Der_Korken
2023-06-13, 17:16:21
Der Takt der 7600 bei 160W ist knapp 100MHz höher als bei der 7900XT(X). 5nm ist ~20% effizienter, aber kostet fast das doppelte vom 6nm Prozess. Da sind 200mm^2 fast identisch zu 400mm^2, jedoch kommen noch die zusätzlichen 6nm MCDs sowie das Zusammenbauen dazu.
Ökonomisch ist da der Monolith auf 6nm fast sinnvoller...
Einen N32 bekommt man nicht monolithisch in 6nm in 400mm² hin. Die MCDs sind schon 150mm² groß, lass es nach Abzug der IF-Links mal 130mm² sein. Dann blieben 270mm² für eine GPU, die in 5nm 200mm² groß ist. Würde eher von 450 als von 400mm² ausgehen. Man darf nicht vergessen, dass RDNA3 eigentlich noch die ganzen Extra-Register aus N31 mitschleppt, die bei N33 eingespart wurden (aber bisher auch quasi keine Leistung gekostet haben).
Die 7600 taktet zwar 100Mhz höher als die 7900XTX, aber diese verbraucht auch nur gut das doppelte trotz 3xCU, 3xSI, 3xVRAM und dem Overhead durch Chip-to-Chip-Verbindungen. Für einen fairen Vergleich müsste man der 7900XTX also eher 480W zugestehen und dann liegt die um die 3Ghz beim Takt - also deutlich über der 7600. Oder andersrum, man gibt der 7600 nur 120W (355/3) und guckt, was dann noch an Takt übrig bleibt. Für mich sieht N33 nur deswegen relativ effizient aus, weil die direkten Gegner 6650XT so stark hochgeprügelt werden. Gegen eine 6900XT würde es ein doppelter N33 schon schwer haben effizienztechnisch.
Wobei der Einwand mMn durchaus berechtigt ist, jetzt unabhängig von ganz konkreten mm2-Rechnungen. Es ist trotzdem kostbares N5-Silizium, was man hier für N32 verwerten muss und das, obwohl man sich performancetechnisch wohl nur grob mit N21 (+X) anlegen wird.
IMO kann man da schon spekulieren, ob ein 3xxmm2 Mono-N6 nicht sinnvoller gewesen wäre. Gerade jetzt, wo man N33 und N31 kennt. Den eigentlich riesigen Vorteil durch N5 - nämlich eine deutlich bessere Effizienz - bekommt man ja schon bei N31 nicht einmal ansatzweise geboten, wie man es erwarten müsste (und wie AMD es scheinbar selbst erwartet hat).
Das sind knapp 3 Chiplets, die man CPU-seitig für ein N32-GCD bekommen würde. So gut kann N32 gar nicht sein, dass ein Mono-N6 besser gewesen wäre. Aber hinterher ist man vermutlich immer schlauer. Wirkt bei RDNA3 einfach vieles wie schlecht geplant bzw. anders erhofft.
Was fürn Unsinn. Das ist 200mm² N5, das ist grad mal soviel wie ne APU, also vergleichbar mit Pheonix. Und die 4x 37mm² N6 sind einfach vernachlässigbar. AMDs Ansatz spart, wie i.Ü. bei den CPUs ab Zen2, einfach massiv Fertigungskosten ein. Man wird dadurch mit den Preisen viel mehr Spielraum haben. Es sieht ja derzeit nach glatten 4 Produkten mit N32 aus, 7800, 7700XT, 7700 und 7600XT. Das geht, weil das Ding billig und skalierbar ist. Ein N33 ist was für 150$ bis 250$, keinen $ mehr.
Linmoum
2023-06-13, 18:15:32
Aus diesen 200mm2 kriegt man fast 3xCCDs für jede beliebige Zen4-SKU abseits von APUs. Ich kann dir sagen, ob AMD lieber eine GPU mit N32 oder drei 8C CPUs verkaufen wollen würde (oder dieses mehr an CCDs halt einfach zu mehr EPYC-Volumen beiträgt). ;)
Klar, andererseits würde man dem I/O-Die natürlich N6-Silizium wegschnappen. Bei dem, was man in Bezug auf N5 aber preislich immer mal wieder hört, wäre das in so einer Situation IMO das deutlich kleinere Übel. Auch, weil N32 halt nichts besonderes ist, womit man die Leute - die sowieso schon NV gekauft haben, weil AMD immer noch nichts abliefert - noch abholen könnte. Performance kann man grob einordnen, Speicher ist ebenfalls klar. Das reißt keine Bäume aus. Würde es diese ominöse "Flexibilität" geben, hätten wir nicht schon Juni und N32 würde am Markt schon seit Monaten existieren.
Ich bin mittlerweile fast schon der Meinung, dass man für die aktuellen Preise auch einfach N21 hätte weiterlaufen lassen können aus reiner Kosten/Nutzen-Sicht. Erst Ende des Jahres braucht man N32 auch nicht mehr bringen, da ist der Chip dann auch fast schon gefühlt überflüssig.
OgrEGT
2023-06-13, 18:44:43
Könnte ja sein dass FSR3 nur mit RDNA3 funktioniert? Dann wäre N32 gar nicht so überflüssig...
prinz_valium_2
2023-06-13, 19:07:46
Navi 32 kann nur über den Preis gut werden / sein.
Aber nach Navi 33 wissen wir ja, dass das nicht passieren wird.
Also eh egal was passiert.
Muss ich mir nur schwer überlegen, was ich mit Starfield mache. Gebrauchte GPU kaufen oder weiter auf einer 1070 zocken, was nur die Minimum Anforderungen erfüllt.
Series X kaufen?
dargo
2023-06-13, 19:17:26
Navi 32 kann nur über den Preis gut werden / sein.
Aber nach Navi 33 wissen wir ja, dass das nicht passieren wird.
:confused:
Zwischen 270$ und 800$ (newegg Preise) ist noch jede Menge Platz. :freak:
Der_Korken
2023-06-13, 19:32:52
Aus diesen 200mm2 kriegt man fast 3xCCDs für jede beliebige Zen4-SKU abseits von APUs. Ich kann dir sagen, ob AMD lieber eine GPU mit N32 oder drei 8C CPUs verkaufen wollen würde (oder dieses mehr an CCDs halt einfach zu mehr EPYC-Volumen beiträgt). ;)
Ich habe mich neulich auch gefragt, ob es unterm Strich für AMD nicht besser gewesen wäre sie hätten RDNA3 in 6nm entwickelt. Chiplets kann man ja trotzdem machen, allein um Erfahrungen mit dieser Technik zu sammeln. Ein N31 wäre in dieser Form natürlich nicht möglich in 6nm, aber 80 CUs mit etwas mehr Takt und IPC für etwas geringere Fertigungskosten hätte für eine 4070Ti in Raster schon ausreichen können und wäre innerhalb von 350W möglich gewesen. Da man auf dem alten Prozess geblieben wäre, wäre RDNA3 vielleicht auch früher fertig gewesen. Natürlich konnte AMD nicht hellsehen, dass wir Ende 2022 in einer globalen Rezession stecken und TSMC sich ihre 5nm noch weiter vergolden lässt.
reaperrr
2023-06-13, 20:19:10
Aus diesen 200mm2 kriegt man fast 3xCCDs für jede beliebige Zen4-SKU abseits von APUs. Ich kann dir sagen, ob AMD lieber eine GPU mit N32 oder drei 8C CPUs verkaufen wollen würde (oder dieses mehr an CCDs halt einfach zu mehr EPYC-Volumen beiträgt). ;)
Zen4 (Desktop) verkauft sich auch so schon relativ mau, warum mehr CCDs produzieren, die keiner kauft?
AMD wollte genau wie NV und Intel sogar Aufträge bei TSMC stornieren, weil die Nachfrage gerade im Consumer-Bereich so eingebrochen ist.
Und bei den Epycs habe ich deswegen auch meine Zweifel, ob die CCDs der Grund sind, warum die Verfügbarkeit mau ist, dann sollte es auch weniger Desktop-Zen4 geben. Tippe eher auf den I/O-Die oder Packaging-Yields als Gründe für die mäßige Verfügbarkeit der neuen Epycs.
Wir reden bei N32 mMn auch eh nicht von riesigen Stückzahlen. So wahnsinnig viele Wafer werden sie nicht brauchen, um die Nachfrage zu bedienen, gerade wenn sie die Preise nicht übermäßig aggressiv ansetzen.
Complicated
2023-06-13, 21:00:05
Gab hier kürzlich eine Meldung dazu:
https://www.computerbase.de/2023-06/tsmc-ausbauplaene-von-aktueller-packaging-nachfrage-ueberrannt/
Die Großkundschaft bei TSMC braucht auch das Packaging. Und das ist nicht nur die PC-Kundschaft, allen voran nämlich der größte Kunde: Apple. Seit der Einführung der M-SoC-Familie setzte Apple noch stärker auf TSMCs Packaging-Fertigkeiten, was zu einem regelrechten Bau-Boom dieser Anlagen bei TSMC geführt hat. Vor allem InFO kommt hier zum Einsatz, belegt aber wegen gewisser Gemeinsamkeiten auch Kapazitäten für CoWoS in unterschiedlichen Ausführungen – gerade darum buhlen Kunden für PCs und Server.
DrFreaK666
2023-06-14, 14:19:55
Igor hat eine simulierte 7800XT getestet
"AMD Radeon RX 7800XT als Radeon Pro W7800 im Test – Der ideale Lückenfüller zwischen GeForce RTX 4070 und RTX 4070 Ti"
https://www.igorslab.de/amd-radeon-rx-7800xt-als-radeon-pro-w7800-im-test/8/
Er ist von der Karte sehr angetan (klingt jedenfalls so für mich)
Exxtreme
2023-06-14, 14:43:08
Hängt am Ende davon ab was sie kostet. Und Igor merkt auch an, dass die 6800 und die 6900 im Abverkauf sind. Sprich, günstig wird eine 7800 wohl eher nicht.
DrFreaK666
2023-06-14, 14:48:48
schätzungsweise 599€?
Der_Korken
2023-06-14, 14:51:40
Igor hat eine simulierte 7800XT getestet
"AMD Radeon RX 7800XT als Radeon Pro W7800 im Test – Der ideale Lückenfüller zwischen GeForce RTX 4070 und RTX 4070 Ti"
https://www.igorslab.de/amd-radeon-rx-7800xt-als-radeon-pro-w7800-im-test/8/
Er ist von der Karte sehr angetan (klingt jedenfalls so für mich)
Ziemlich underwhelming. Ein N32 mit 10CUs weniger dürfte wohl nicht mal die 6800XT knacken.
dildo4u
2023-06-14, 15:13:22
Das scheint zu 7900Xt zu passen 20% langsamer 20% weniger CU.
DrFreaK666
2023-06-14, 15:13:47
Ziemlich underwhelming. Ein N32 mit 10CUs weniger dürfte wohl nicht mal die 6800XT knacken.
Was hast du erwartet? Das ist immer noch RDNA3
KarlKastor
2023-06-14, 15:18:24
Ein Navi32 wird höher takten als diese Workstation SKU. Aber Wunder muss man da sicherlich nicht erwarten.
Aber ich verstehe Igors Gedankengänge gar nicht. Der Chip ist einfach teuer. Den preislich irgendwo zwischen den beiden AD104 zu platzieren ist sicher nicht interessant.
Der_Korken
2023-06-14, 15:24:47
Was hast du erwartet? Das ist immer noch RDNA3
Von N31: Dass die Leistung nicht linear mit weniger CUs skaliert, d.h. kleinere Modelle eine höhere IPC haben. Von N32: Dass es ohne Verbrauchsexplosion deutlich mehr Takt gibt.
Ersteres ist eigentlich eine gute und keine schlechte Eigenschaft, zumindest wenn man nach oben skalieren will. Zweiteres ist natürlich nicht ausgeschlossen, aber die Existenz eines 70CU-N31-Modells impliziert für mich, dass N32 pro CU nicht schneller als N31 wird, sonst würde N32XT den N31LE nass machen.
dildo4u
2023-06-14, 15:24:59
Ein Navi32 wird höher takten als diese Workstation SKU. Aber Wunder muss man da sicherlich nicht erwarten.
Aber ich verstehe Igors Gedankengänge gar nicht. Der Chip ist einfach teuer. Den preislich irgendwo zwischen den beiden AD104 zu platzieren ist sicher nicht interessant.
Ist die Compute Teil nicht 50% kleiner das sollte selbst bei 600€ mehr Einspielen als 7900XT bei 800€.
basix
2023-06-14, 16:17:47
600 Euro für Full N32 sehe ich als "marktgerecht" an. Ähnlich teuer wie die Abverkaufspreise der N21 Vorgänger bei etwas besserer Performance. 10% schneller als eine 4070 und mit RT im CB-Rating gleich auf. Bei Cyberpunk und Co. natürlich langsamer. Dafür 16GByte VRAM. Mit Glück werden es auch 550 Euro aber weniger wohl nicht.
Dino-Fossil
2023-06-14, 16:25:22
die Existenz eines 70CU-N31-Modells impliziert für mich, dass N32 pro CU nicht schneller als N31 wird, sonst würde N32XT den N31LE nass machen.
Ich vermute auch, dass N32 sich Perf/Watt-mäßig zwischen den anderen beiden RDNA3 Chips weitestgehend einreiht, außer man möchte unerschütterlich optimistisch bleiben: dann wird N32 zurückgehalten, bis wenigstens N31 bereit für einen Refresh ist und dieser in Form der 7950er deutlich verbessert in den Markt entlassen werden kann. Damit wird (ein hypothetisch ggü N31 "gefixter") N32 dann nicht zu einer "Anomalie", der entweder performancetechnisch an N31 kratzt, oder so sparsam daher kommt, dass man fast schon in N33 Bereiche kommt.
Daran glaube ich aber nicht - warscheinlicher ist wohl, dass RDNA3 so ist wie es eben ist und ggü. RDNA2 leider kaum neue Impulse bringt.
RDNA3 ist schon deutlich schneller und effizienter als RDNA2. NV ist von 8LPP auf N5 gesprungen, daher kam hier etwas mehr bei raus, aber der Sprung bei RDNA3 ist absolut im Rahmen. tut nicht immer so als wenn da nix passiert wär, das ist Unsinn.
N31 mit 70CUs wird mMn mit 285W oder so an den Start gehen, eine potenzielle N32 basierte 7800 mit 60CUs dürfte so 250W haben und so schnell sein wie eine 6800XT. Der Chip ist aber in der Form ein schlechtes Beispiel, weil 10WGP pro SE nicht sonderlich effizient sein werden mMn. N31 hat nur 8 WGP pro SE.
Sinnvoller wird die 7700XT mit 54CUs (1 WGP weniger pro SE). Mal sehen, ob es die 7800 überhaupt geben wird, ich glaubs fast nicht und wenn dann nur für OEM. Die 7700XT mit 16GB wär deutlch sinnvoller und bei AMDs derzeitigem "wir haben 16GB bis 450$"-Marketing könnte das auch so kommen, eine 7800 wär damit sinnlos und die voll aktivierten N32 wären dann zu 100% im Notebook-Bereich, wo sie hingehören.
Ich würd im Moment von einer 7800XT auf N31-Basis mit 4 MCDs ausgehen, um den Yield zu optimieren, eine 7700XT mit 54CUs auf N32-Basis mit 16GB und einer 7600XT mit einem deutlich downgesalvageten N32 (36, 39 oder 42CUs) mit nur 3 MCDs, also 12GB. So stimmen die Abstände zwischen den Produkten, man könnte seinem Marketing gerecht werden und man hätte optimale Yields mit allen Chips. Billig sind die ja eh, ein N32 ist nicht teurer als ne APU in der Fertigung.
Langlay
2023-06-14, 16:55:10
RDNA3 ist schon deutlich schneller und effizienter als RDNA2. NV ist von 8LPP auf N5 gesprungen, daher kam hier etwas mehr bei raus, aber der Sprung bei RDNA3 ist absolut im Rahmen.
~30% Mehrleistung bei 10% mehr Verbrauch inkl. Fertigungswechsel sind also voll im Rahmen. Wenn RDNA1 auf 2 ~80% Mehrleistung bei 33% mehr Verbrauch im gleichen Note brachte, RDNA3 liefert unterdurchschnittlich ab, imo gibt es da nichts schön zureden.
RDNA3 ist ein von der Performance/Verbrauch ein besserer Refresh.
KarlKastor
2023-06-14, 16:58:55
Ist die Compute Teil nicht 50% kleiner das sollte selbst bei 600€ mehr Einspielen als 7900XT bei 800€.
Navi32, ja. Getestet wurde Navi31 mit 70 CU.
Dino-Fossil
2023-06-14, 17:16:51
RDNA3 ist schon deutlich schneller und effizienter als RDNA2. NV ist von 8LPP auf N5 gesprungen, daher kam hier etwas mehr bei raus, aber der Sprung bei RDNA3 ist absolut im Rahmen. tut nicht immer so als wenn da nix passiert wär, das ist Unsinn.
Naja, bei der Vorstellung von N31 war ich erstmal auch der Meinung, dass der Fortschritt relativ gesehen völlig im Rahmen ist. Nicht überwältigend, aber ok. Dafür ist der Chip aber auch größer und man ging ja auch von N7 auf N5/N6).
Die Benchmarks bei Release waren dann allerdings leider nochmal ein wenig schlechter, als AMDs Werte.
Ich war damals außerdem noch der Meinung, dass hier wieder AMDs übliche Treiberprobleme vorliegen.
Mit N33 bei gleicher Einheitenzahl allerdings bietet man auch nur wenig Fortschritt ggü. N23. Von deutlich effizienter oder schneller ist da mMn nicht viel zu sehen.
~30% Mehrleistung bei 10% mehr Verbrauch inkl. Fertigungswechsel sind also voll im Rahmen. Wenn RDNA1 auf 2 ~80% Mehrleistung bei 33% mehr Verbrauch im gleichen Note brachte, RDNA3 liefert unterdurchschnittlich ab, imo gibt es da nichts schön zureden.
RDNA3 ist ein von der Performance/Verbrauch ein besserer Refresh.
Und wieder einer der diesen bodenlosen Schwachsinn wiederholt.
Bei WQHD ist die 7900XTX bei fast gleicher TDP 46% schneller, bei UHD 44%, 6800XT vs. 7900XT gilt ähnliches. Man denke sich die bescheuerten Namen bei RDNA3 weg und vergleiche mit der Vorgängergeneration und du hast einen völlig normalen Performancesprung in der Generation.
https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/2/
Es gab schon einige Generationen, auch bei NV, bei denen es keine 40% waren. RDNA3 ist eine völlig normale Iteration. Diese Schlechtgerede ist albern und lächerlich. Ada ist energieeffizienter, das stellt keiner in Frage. Das heißt aber nicht, dass man dauernd RDNA3 schlechtreden muss.
Dino-Fossil
N33 ist rein kostenoptimiert und was beim Launch war ist heute völlig irrelevant. Man schaue sich unvoreingenommen den jetzigen Status Quo an und man wird sehen, dass sich das bei euch nur um Kopf abspielt.
Linmoum
2023-06-14, 18:25:29
Es gab schon einige Generationen, auch bei NV, bei denen es keine 40% waren. RDNA3 ist eine völlig normale Iteration. Diese Schlechtgerede ist albern und lächerlich.Wann gab es das denn, wonach RDNA3 hier "völlig normal" ist? Und jetzt komm mir nicht mit Turing, das war kein Fullnode-Sprung ggü. Pascal.
An der Beurteilung von RDNA3 ist gar nichts lächerlich. Glaubt doch auch ernsthaft niemand, dass AMD bewusst irreführende Inhalte bei der initialten Präsentation vorzeigt. Das war ja nicht einmal Cherry Picking und klassisches "kommt eh vom Hersteller", womit man das hätte rechtfertigen können. Das war schlichtweg gelogen, insbesondere in Bezug auf Perf/Watt. Was im Umkehrschluss nur bedeuten kann, dass AMD zu dem Zeitpunkt noch die Hoffnung hatte, da an irgendeiner Stelle ein Ventil öffnen zu können. Mit den tatsächlichen SKUs war das schlichtweg irreführendes und dreist gelogenes "Marketing".
Da kann sich ein Scott auch noch 50x hinstellen und sagen "das machen wir nicht mehr". Jeder Hersteller präsentiert seine Produkte bestmöglich. Wenn man das aber so macht, dass das nicht nur "bestmöglich" ist mit irgendwelchen speziellen Szenarien (wie es NV mit FG handhabt vs. kein FG), dann gibt's da auch keine Entschuldigung für. Dann hält man einfach mal die Füße still und präsentiert nur das, was man auch liefern wird.
Langlay
2023-06-14, 18:46:28
Und wieder einer der diesen bodenlosen Schwachsinn wiederholt.
Bei WQHD ist die 7900XTX bei fast gleicher TDP 46% schneller, bei UHD 44%, 6800XT vs. 7900XT gilt ähnliches. Man denke sich die bescheuerten Namen bei RDNA3 weg und vergleiche mit der Vorgängergeneration und du hast einen völlig normalen Performancesprung in der Generation.
https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/2/
Es gab schon einige Generationen, auch bei NV, bei denen es keine 40% waren. RDNA3 ist eine völlig normale Iteration. Diese Schlechtgerede ist albern und lächerlich. Ada ist energieeffizienter, das stellt keiner in Frage. Das heißt aber nicht, dass man dauernd RDNA3 schlechtreden muss.
Ich hab halt andere Daten genommen. Und die 6950XT mit der 7900XTX verglichen. Mit der 6900XT biste zwar bei 40+% Mehrleistung dafür säuft die Karte dann auch fast 20% mehr.
https://i.imgur.com/qBL7hDY.jpg
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/3/
Ändert halt nichts an der Aussage. Selbst im Vergleich zu RDNA2 sieht RDNA 3 nicht wirklich gut aus. Wenn du RDNA3 ggü. Ada vergleichst fühlt sich das an als ob AMD eine Generation hinterher ist.
Iscaran
2023-06-14, 19:50:01
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/3/
AMD hatte doch mit der RX 6900 verglichen oder irre ich mich da? Bezogen auf diese von AMD gewählte Referenz kommen doch bei 6900 XT ?> 7900 XTX 50% P/W raus?:confused:
Der_Korken
2023-06-14, 20:38:43
AMD hatte doch mit der RX 6900 verglichen oder irre ich mich da? Bezogen auf diese von AMD gewählte Referenz kommen doch bei 6900 XT ?> 7900 XTX 50% P/W raus?:confused:
Wenn überhaupt kommen 50% P aber nicht 50% P/W raus, aber eigentlich noch nicht mal das (zumindest im PCGH-Index).
amdfanuwe
2023-06-14, 22:52:28
Hatten wir doch schon mal
84249
nein
Musst schon dieselbe Konfiguration wie AMD verwenden:
81709
Also eine 7900XTX auf 300W TBP eingestellt erreicht bei den getesteten Spielen im Schnitt ~50% mehr FPS gegenüber einer 6900XT.
Langlay
2023-06-14, 23:21:39
Hatten wir doch schon mal
84249
Blöd nur das in der Realität die 7900XTX selbst mit 355W keine 50% mehr FPS liefert als ne 300W 6900XT.
https://i.imgur.com/eDU5WAb.jpg
Ich hab halt andere Daten genommen. Und die 6950XT mit der 7900XTX verglichen. Mit der 6900XT biste zwar bei 40+% Mehrleistung dafür säuft die Karte dann auch fast 20% mehr.
https://i.imgur.com/qBL7hDY.jpg
https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/Tests/Radeon-7900-XTX-7900-XT-Test-Benchmark-Review-1409055/3/
Ändert halt nichts an der Aussage. Selbst im Vergleich zu RDNA2 sieht RDNA 3 nicht wirklich gut aus. Wenn du RDNA3 ggü. Ada vergleichst fühlt sich das an als ob AMD eine Generation hinterher ist.
Ich wusste dass dieser bescheuerte Äpfel mit Birnen Vergleich kommt... es ist einfach hoffnungslos mir dir...
6800XT -> 7900XT
6950XT -> 7900XTX
6900XT ist nur ne Stromsparvariante der 6950XT, das Teil hat die gleiche TBP wie ne 6800XT. Würde auch mit der XTX gehen, dann hättest du ein Äquivalent, das ebenfalls effizienter wäre. Hört endlich auf andauernd Äpfel mit Birnen zu vergleichen.
Na ja, die 7700XT wird denke ich hier die Zweifel beseitigen. RDNA3 ist roundabout 40% besser als RDNA2 in allen Lebenslagen, bei Rosinen deutlich besser, sofern keine CPU-Limitierung vorliegt. Das ist weniger als die versprochenen 50%, aber das hatten wir ja auch schon ein paar mal.
Langlay
2023-06-14, 23:35:55
Ich wusste dass dieser bescheuerte Äpfel mit Birnen Vergleich kommt... es ist einfach hoffnungslos mir dir...
Denn fettmakierten Teil gebe ich gerne zurück.
Den Vergleich mit der 300W 6900XT hab ich mir nicht ausgesucht. Dass war das Feld das AMD sich zum Sterben ausgesucht hat.
https://abload.de/img/bild_2023-06-14_22532j8clm.png
(Ich nehm hier einfach mal das Bild von amdfanuwe in lesbar eingeblendet)
Und die 6900XT ist nicht die Stromsparvariante sondern die 6950XT ist einfach der Refresh der 6900XT. Die 6950XT kam 18 Monate nach der 6900XT auf den Markt.
AMD hat dort einfach gelogen das sich die Balken biegen, das sollte eigentlich jedem ohne tiefrote Brille klar sein.
Mir doch scheissegal, was AMD da macht :freak:
Ich sag nur, ihr redet den Kram fürn Arsch schlechter als er ist.
vinacis_vivids
2023-06-14, 23:40:23
Hier sind neuere Werte, ausgehend von der preiswerten 6800XT. Da ist der Sprung +64% ganz angenehm auf die 7900XTX. Die Taktraten bei CB sind recht niedrig mit 2,15Ghz bei der 6800XT und 2,36Ghz bei der 7900XTX.
https://abload.de/img/screenshot_20230614_2ohcdl.jpg
Korvaun
2023-06-15, 12:19:53
AMD ist da aber selber Schuld. Wer nur Namen vergleicht kommt halt zwangsläufig zu der Ansicht "miese Steigerung von RDNA2->3". Wenn die 7900xt als 7800xt bzw. die 7900xtx als 7900xt gekommen wären (und auch gleich etwas günstiger) gäbs viel weniger Stress...
Korrekt.
Hätte die XTX nur XT und die 7900XT 7800XT geheißen, hätte keiner gemeckert.
Der_Korken
2023-06-15, 13:36:02
Korrekt.
Hätte die XTX nur XT und die 7900XT 7800XT geheißen, hätte keiner gemeckert.
Nö, da mir die Namen egal sind, hätte ich trotzdem gemeckert.
Es scheint sich ein wenig was getan zu haben seit Release. Im aktuellen Parcours kommt die 7900XTX auf +38% Perf/W [1], während es vorigen Parcours und älteren Treibern nur +30% Perf/W waren [2].
Man sieht in Link [2] aber auch sehr schön, dass die 6800XT die Ineffizienteste N21-Karte ist und die 7900XTX die effizienteste N31-Karte. Gegenüber der 6900XT war die 7900XTX gerademal mickrige 17% effizienter. Im neuen Parcour ist nur die hochgeprügelte 6950XT drin. Ich schätze gegen die 6900XT wären es heute vielleicht +25% Perf/W.
Von den versprochenen +50% (afaik sogar +54% in der Präsi) ist das immer noch weit entfernt. Außerdem läuft die 7900XTX schon mit extrem niedrigen Spannungen von 900mV, d.h. der Betriebspunkt ist schon näher am Sweetspot dran als bei den N21-Modellen, sonst würde es noch schlechter aussehen. Um aus der 7900XTX eine technisch gute Karte zu machen, müsste sie ihre jetzige Leistung ohne Undervolting-Tricks bei max. 300W schaffen und die 7900XT bei max. 250W.
Wo ich gerade das Bild von vinacis_vivids sehe: N31 hat exakt 60% mehr CUs als N32. Bei perfekter Skalierung von Leistung und Verbrauch müsste N32XT ca. 3% schneller als eine 6800XT sein und dabei 222W verbrauchen. Wenn jetzt in Gerüchten genannt wird, dass ein voller N32 250W oder gar 285W verbrauchen soll und das bei (wie man anhand von Igors Review abschätzen kann) max. 6800XT-Leistung, dann ist das für einen Fullnode-Vorteil einfach richtig schlecht. Man kann es nicht anders sagen.
[1] https://www.computerbase.de/2023-05/nvidia-geforce-amd-radeon-benchmark-test-2023/3/#abschnitt_energieeffizienz_in_fps_pro_watt
[2] https://www.computerbase.de/2023-04/nvidia-geforce-rtx-4070-fe-review-test/3/#abschnitt_energieeffizienz_in_fps_pro_watt
DrFreaK666
2023-06-15, 14:13:36
...und das bei (wie man anhand von Igors Review abschätzen kann) max. 6800XT-Leistung...
Laut Igor ist die kalkulierte 7800XT schneller als eine 6900XT
https://abload.de/img/11-qhd-fpsl9cqr.png (https://abload.de/image.php?img=11-qhd-fpsl9cqr.png)
Der_Korken
2023-06-15, 14:27:31
Laut Igor ist die kalkulierte 7800XT schneller als eine 6900XT
Weil Igor eine 7800XT auf N31-Basis mit 70CUs unterstellt. Ich sprach von N22XT (60 CUs), wie auch immer das zugehörige 7000er Modell heißen mag. Außerdem verbrauchte das getestete Modell bereits 240W für knapp über 6800XT-Leistung. Das ist minimal weniger Perf/W als die 7900XTX (siehe meine 222W oben und auch das Diagramm von Igor auf Seite 5).
dildo4u
2023-06-15, 14:37:08
6700XT sind schon bei 230, 250 für +50% Leistung wären ok.
Eine Karte wie die 6800 wirds nicht geben Die Size muss runter Takt rauf.
reaperrr
2023-06-15, 18:10:34
Wo ich gerade das Bild von vinacis_vivids sehe: N31 hat exakt 60% mehr CUs als N32. Bei perfekter Skalierung von Leistung und Verbrauch müsste N32XT ca. 3% schneller als eine 6800XT sein und dabei 222W verbrauchen. Wenn jetzt in Gerüchten genannt wird, dass ein voller N32 250W oder gar 285W verbrauchen soll und das bei (wie man anhand von Igors Review abschätzen kann) max. 6800XT-Leistung, dann ist das für einen Fullnode-Vorteil einfach richtig schlecht. Man kann es nicht anders sagen.
Die Leistung skaliert nie linear mit der Einheitenzahl, weder bei AMD noch NV noch Intel.
Auch nicht mit Chiptakt, aber mit CU/SM/Slice-Zahl halt noch weniger.
N32 hat zudem nur 3 SE mit je zwei Arrays, und je 1 zusätzlichen WGP/2 CUs je Array. Das bedeutet vermutlich eine leicht schlechtere Auslastung je SE bei Vollausbau.
Raster- und Geometrie-Einheiten hat N32 damit nur halb so viele wie N31, ich meine dass auch die ROP-Zahl inzwischen an die SE und nicht mehr an L2/SI gekoppelt ist.
Die IPC von N32XTX könnte daher teilweise auch bei nur ~55% von N31XTX liegen, wenn Raster-, Geometrie- oder Pixeldurchsatz eine Rolle spielen.
Da N32 gegenüber der 6800 - anders als N31 - auch kaum Bandbreitenvorteil und nur halb so viel IF$ hat, wird die IPC von N32 gerade in höheren Auflösungen kaum über N21XL liegen, und N32 unter Last rund 15-20% höher als eine 6800XT takten müssen, um die vielleicht knapp zu erreichen.
Wenn das Takt-/Spannungsverhalten von N32 ungefähr N31 entspricht, wird das gar nicht so leicht.
Außerdem würde ich davon ausgehen, dass AMD den N32-Vollausbau zugunsten möglichst hoher Ausbeute in Sachen Voltage nicht so stark selektiert wie N31XTX, also z.B. bis auf 950mV oder gar 1V geht, um mit möglichst vielen Chips innerhalb einer noch gerade so kühlbaren TDP einen möglichst hohen Takt und langen Balken hinzukriegen, da man in Perf/W so oder so keine Chance hat und sich nur über die rohe Raster-Perf (+ Speichermenge) auf einen passablen Preis und die gewünschte Marge retten kann.
DrFreaK666
2023-06-16, 17:17:12
Es geht voran
"ASRock Radeon RX 7800 XT graphics card with 16GB VRAM spotted at EEC"
https://videocardz.com/newz/asrock-radeon-rx-7800-xt-graphics-card-with-16gb-vram-spotted-at-eec
Igor ging ja von einer 7800W aus. Die XT hat aber mMn ein paar W mehr und schnelleren Speicher. Die wird schon ca. auf 6950XT bis maximal 3090 rauskommen. Die 7700XT auf N32-Basis dürfte der 6800XT sehr nahe kommen. Eine 7800 war sicherlich mal geplant, dürfte aber aufgrund der doch eher moderaten Preise und hohen Speicheranforderungen mMn nicht mehr kommen. AMDs Marketing wirbt ja mit 16GB ab <$500, der ursprüngliche Plan war aber mal mMn das Alleinstellungsmerkmal der 7800 mit 16GB. Das dürfte jetzt auf die 7700er durchsickern und macht die 7800 non-XT überflüssig.
Ursprünglich dürfte das mal so ausgesehen haben:
7900XTX $999 24GB
7900XT $899 20GB
7800XT $749 16GB
7800 (60CU) $649 16GB
7700XT (54CU) $549 12GB
7700 (42CU) $449 12GB
7600XT (32CU) $349 8GB
7600 (28CU) $299 8GB
Daraus wurde mMn
7900XTX $999
7900XT $899 (ruscht sicherlich noch auf $849)
7800XT $699 16GB
7700XT (60CU) $549 16GB (Ersatz für die 6800XT)
7700 (45CU) $449 16GB (Ersatz für die 6800)
7600XT (36CU) $369 12GB (Ersatz für die 6750XT)
7600 (32CU) $269 8GB (Ersatz für die 6700)
DrFreaK666
2023-06-16, 23:04:29
Hab das Video nicht gesehen, aber ich poste es trotzdem mal
3inaulOkQB4
Denniss
2023-06-17, 00:25:27
Warum sollte man sich irgendeinen Schwachsinn von einem umbekannten YTler ansehen?
KarlKastor
2023-06-17, 07:13:34
7600XT mit 36 CU und 12 GB?
Also Navi 32? Wie kommt man auf so einen Käse?
reaperrr
2023-06-17, 17:34:46
7600XT mit 36 CU und 12 GB?
Also Navi 32? Wie kommt man auf so einen Käse?
Wenn man glaubt, dass die Ausbeute bei N32 schlecht genug ist, dass AMD eine SKU braucht bei der eine komplette ShaderEngine (N32 hat ja nur 3) und zusätzlich noch 1 WGP je verbleibender SE deaktiviert werden muss.
Was ich stark bezweifle, N5 sollte inzwischen ausgereift genug sein, dass die meisten GCDs mindestens 7700er Specs schaffen.
Nicht zwangsläufig alle, aber wegen 5-10% halbtoter Chips eine extra SKU, die kaum Marge abwirft? Um dann viele eigentlich 7700-taugliche GCDs in diese 7600XT stecken zu müssen, um die Nachfrage nach einer GPU zu bedienen, die nicht wahnsinnig viel schneller, aber viel teurer in der Herstellung ist als die 7600?
Klingt etwas abwegig. Aber sag niemals nie...
Man muss bei N31 und N32 auch bedenken, dass man nicht nur einzelne WGPs salvaged, sondern komplette SEs. Ein N31 hat 6x8WGPs. N31XT deaktiviert nur 1 WGP pro Pipeline (6x7), N31XL dann eine komplette SE, also 5x7 = 70CUs.
Bei N32 muss man ähnliches kalkulieren.
N32XT hat 3x10WGPs, mit wenig salvage 3*9WGPs (54CUs), mehr salvage 3x7WGPs (42CUs) und eine deaktivierte SE dann 2*9WGPs = 36CUs oder 2x 10WGPs = 40CUs. So kommt man auf entsprechende Produkte.
6*8WGPs (96CUs) 7900XTX
6*7WGPs (84CUs) 7900XT
5*7WGPs (70CUs) 7800XT 1SE gesalvaged
3*10WGPs (60CUs) 7800
3*9WGPs (54CUs) 7700XT (hiervon eine 16GB-Variante macht ne 7800 non-XT überflüssig)
3*7WGPs (42CUs) 7700
2*9WGPs (36CUs) 7600XT 1SE gesalvaged
dürfte also alles so aussehen.
N23 und N22 haben je nur 2 SEs, das lohnte ich nicht zu salvagen, aber von N21 hat man mit der 6800 eine SE gesalvaged.
KarlKastor
2023-06-21, 01:54:56
dürfte also alles so aussehen.
N23 und N22 haben je nur 2 SEs, das lohnte ich nicht zu salvagen, aber von N21 hat man mit der 6800 eine SE gesalvaged.
N32 hat 3 SE da lohnt das auch nicht. Wann wurde zuletzt 1/3 des Chips weggeschmissen? Gab es imho noch nie. Vor allem bei einem Volumen Modell.
vinacis_vivids
2023-06-21, 02:31:29
N32 hat gerade mal 200mm² GCD und ersetzt damit den N21 mit 521mm² leistungsmäßig. Das ist der wahre Gewinn für AMD. Von 521mm² auf effektiv 200mm² sind eine enorme Steigerung der Produktionsrate und effektive Kostensenkung. Die Leistung holt AMD nahezu komplett aus der uArch raus, was sehr bemerkenswert ist. Nicht nur wird beim Die gespart, sondern das Board wird auch einfacher und billiger.
Mit N32 kann AMD in der Mittelklasse trotz der GPU-Flaute die Kosten gering halten und bei der Preistreiberei von Huang dennoch Gewinn machen. Auch die Stückzahl muss noch wesentlich erhöht werden, falls AMD auch fürs Notebook einen auf Verbrauch optimierten N32 bringt, wäre das ein super Durchbruch im Bereich mobile Gaming. N32 ist die Cash-Cow für alles und gibs AMD auch Flexibilität am Markt, der ja wegwandert von stationären Desktop hin zu mobilen Gaming.
Die Leistung einer 6800XT bis 6900XT im Bereich Notebook und dabei bezahlbar zu sein, ist absolut TOP-Leistung von AMD. Werde ich wohl mit einem Kauf belohnen inkl. AMD CPU(APU).
Der Sprung von 6700M / 6800M XT / 6850M XT, welche alle auf N22@335mm² basieren auf 7700M / 7800M XT/ 7850M XT mit N32@200mm² GCD wird signifikant sein. RDNA3 mit hohem Takt presst noch mehr Leistung aus 1440p raus als die Konkurrenz und ist zudem günstiger. Bestückt mit 16GB VRAM am Notebook lässt es sich deutlich besser verkaufen, auch in höherpreisigen Bereichen von >3000€ pro Notebook.
amdfanuwe
2023-06-21, 02:39:44
N32 hat 3 SE da lohnt das auch nicht.wann würde zuletzt 1/3 des Chips weggeschmissen? Gab es imho noch nie. Vor allem bei einem Volumen Modell.
Seh ich auch so. Es fallen ein paar Chips an mit einem Fehler in einer SE, dürfte aber nicht die Masse sein.
Die gibt es dann als Mobile Sondermodell für Medion oder so.
Oder als etwas unattraktive 7700, damit die Nachfrage nicht zu hoch wird wie die 6700.
Meine Liste sähe eher so aus:
6*8WGPs (96CUs) 7900XTX
6*7WGPs (84CUs) 7900XT
5*8WGPs (80CUs) 7900 1SE gesalvaged
3*10WGPs (60CUs) 7800XT
3*9WGPs (54CUs) 7800
3*8WGPs (48CUs) 7700XT
2*10WGPs (40CUs) 7700 1SE gesalvaged
Über den Takt kann AMD auch noch selektieren und damit den gewünschten Leistungspunkt der SKU bestimmen.
Die Varianten mit 1SE gesalvaged dürften auch niedrig takten, da dort dann noch die Chips die für die anderen SKUs den Takt nicht erreichen, verbaut werden. Letztendlich soll ja möglichst alles verwertet werden.
Ich bin mal gespannt auf die Speicherbestückung der 7700(XT). Da kann AMD ja mit 12 oder 16GB flexibel sein bei N32.
N32 hat 3 SE da lohnt das auch nicht.wann würde zuletzt 1/3 des Chips weggeschmissen? Gab es imho noch nie. Vor allem bei einem Volumen Modell.
Bitte was?
basix
2023-06-21, 08:57:24
Ein 36...40 CU N32 wäre prinzipiell denkbar. Aber ich glaube nicht daran, dass man <48 CU gehen wird. Für was? Das Ding ist nur 200mm2 gross. Und da nur 3x SE ist zusätzlich die Wahrscheinlichkeit reduziert, dass global auf SE Ebene was kaputt geht. Das SE Frontend ist winzig, 3x davon sind ~10% Chipfläche (das Frontend einer einzelnen SE ist ~7mm2 gross). Da wird man nicht viel Yield gewinnen.
AMD wird mehr sparen, wenn sie ein MCD weglassen und auf 12 GByte gehen.
amdfanuwe
2023-06-21, 09:34:10
AMD wird mehr sparen, wenn sie ein MCD weglassen und auf 12 GByte gehen.
Da spart der Kunde, aber nicht AMD.
Was hat zudem ein Defekt im SE mit dem SI zu tun?
Das SE Frontend mag winzig sein, da sind aber gewiss noch kritische Strukturen im SA die bei einem Defekt zu einem Totalausfall der SE führen.
Jeder Chip der verkauft werden kann trägt zum Umsatz und Gewinn bei. Besser als die Abzuschreiben.
Und da sind genügend Mathematiker bei AMD beschäftigt, die sich damit beschäftigen was sich lohnt und was nicht.
Hier aus dem Bauch heraus ohne konkrete Zahlen zu Yield, verwendbare Chips, Verkaufspreise etc. zu kennen AMD sagen zu wollen, was sich lohnt und was nicht, ist doch unsinnig.
Wir können nur spekulieren, welche Möglichkeiten AMD hat.
basix
2023-06-21, 09:55:55
N32 sollte ~85% Yield aufweisen (Takt usw. nicht inkludiert). Bei 10% Anteil des SE-Frontend würde man gerade mal +1.5% Yield gewinnen, wenn man eine SE deaktiviert. Bei gleichzeitig massiv reduziertem Verkaufspreis dieser SKU. Ich glaube nicht, dass sich das lohnt.
Andere kritische Strukturen kann sein. Ich denke aber, dass hier eine gewisse Redundanz eingeplant ist, dass dies bei "single-point-of-failure" Strukturen weniger oft passiert (z.B. einen Bus 260bit anstatt 256bit breit machen).
Und bei 1x MCD weniger "spart" definitiv auch AMD. Es geht darum, dass man eine SKU günstiger anbieten kann und trotzdem eine hohe Marge beibehält. Ein Dummy MCD (falls es das gibt) und weniger Speicher haben mehr Potential die SKU Marge beizubehalten, wenn man sie günstiger anbieten will. Und eine 48 CU SKU wird typ. eine höhere Marge einfahren als bei nur 40 CU, weil der Chip halt einfach schneller ist. Mit 48 CU + 12 GByte wird AMD mehr verdienen als 40 CU + 12 GByte. +1.5% Yield Vorteil wird diese Differenz niemals ausgleichen können. Das macht nur in einem einzigen Szenario Sinn: Wenn man zu wenige Chips herstellen kann und einfach alles was man produziert verkaufen will.
Es wurden Chips schon weit mehr deaktiviert. Wenn AMD den Yield so streng ansetzt, dass die 7700XT ne gewisse Energieeffizienz erreichen müssen, dann hat man ne Menge Ausschuss der anderweitig weg muss. Zudem denke ich, dass der Yield bei RDNA3 zwar von der Defektrate nicht schlecht ist, aber von der Enegieffizienz durch Leckströme beschissen.
basix
2023-06-21, 10:04:00
Bei N32 ist das mit der "schlechten" Effizienz noch nicht bewiesen ;) Der kommt immerhin sehr spät und wer weiss, evtl. hat AMD N32 in dieser hinsicht gefixt (Takt vs. Verbrauch in Spielen)
Exxtreme
2023-06-21, 10:08:01
Bei N32 ist das mit der "schlechten" Effizienz noch nicht bewiesen ;) Der kommt immerhin sehr spät und wer weiss, evtl. hat AMD N32 in dieser hinsicht gefixt (Takt vs. Verbrauch in Spielen)
Ich erwarte da keine Wunder was die Effizienz angeht. RDNA3 ist so eine Art umfangreicher RDNA2-Refresh, zumindest was den spieletauglichen Teil der Architektur angeht. Abseits der Spiele gibt es durchaus größere Verbesserungen, ja.
amdfanuwe
2023-06-21, 11:10:40
N32 sollte ~85% Yield aufweisen (Takt usw. nicht inkludiert). Bei 10% Anteil des SE-Frontend würde man gerade mal +1.5% Yield gewinnen, wenn man eine SE deaktiviert. Bei gleichzeitig massiv reduziertem Verkaufspreis dieser SKU. Ich glaube nicht, dass sich das lohnt.
Glauben ist nicht gleich wissen.
AMD weiß ob sich das lohnt oder nicht, die wissen es. Und ich hab schon Projekte gesehen, da sollte ein Ingenieur sehen, ob er noch 1 oder 2 Cent durch andere Bauteile einsparen kann. Kommt auf die Stückzahl drauf an, ob sich das lohnt.
Vielleicht lohnt es sich nicht alleine Chips mit einer Defekten SE zu sammeln.
Lohnt nicht mit einem defektem SI zu sammeln.
Lohnt nicht niedrig Taktenden oder zu hohem Verbrauch zu sammeln.
Also alles, was nicht im "normalem" SKU verwendbar ist.
Es lohnt sich aber vielleicht all diesen Ausschuss zu sammeln und in einem entsprechendem salvage Chip zu verarbeiten.
Da tragen die 1,5% Defekt in SE-Chips schon einiges zu dieser Gruppe bei.
Ob es gemacht wird? Das rechnet sich AMD schon aus, ob sich das lohnt.
BlacKi
2023-06-21, 11:29:29
Bei N32 ist das mit der "schlechten" Effizienz noch nicht bewiesen ;) Der kommt immerhin sehr spät und wer weiss, evtl. hat AMD N32 in dieser hinsicht gefixt (Takt vs. Verbrauch in Spielen)
ich frage mich, ob die verdoppelung der shader bei rdna3 die effizienz killt.
wenn ich navi10 vs vega10 vergleiche (ja, anderer prozess) dann fällt mir auf, das die karte nicht einfach nur weniger verbraucht, sondern trotz 25% weniger fp32 leistung 15% schneller ist.
macht amd mit rdna3 denselben fehler den man vor rdna1/2 schon gemacht hat?
Exxtreme
2023-06-21, 11:39:53
ich frage mich, ob die verdoppelung der shader bei rdna3 die effizienz killt.
Ja und nein. Es ist so, Shader an sich sind sehr ineffizient im Vergleich zu spezialisierter Hardware. Und da AMD sehr viel mit Shadern emuliert, ist das der Effizienz nicht sehr zuträglich. Solche eher ineffizienten Designentscheidungen haben sie auch noch woanders. Z.B. benutzen sie die aufgemotzte TMUs um einige Raytracing-Bearbeitungsschritte zu machen. Obwohl TMUs eigentlich für Texturfilterung zuständig sind etc.
Aber gut, das hat Tradition bei AMD, dass sie Bestehendes erweitern anstatt spezialisierte Hardware einzubauen. Hat Vor- und Nachteile. Der Nachteil ist, dass es nicht sehr effizient ist. Der Vorteil ist, dass man sehr flexibel ist und man die Hardware besser auslasten kann.
davidzo
2023-06-21, 11:55:00
Aber gut, das hat Tradition bei AMD, dass sie Bestehendes erweitern anstatt spezialisierte Hardware einzubauen. Hat Vor- und Nachteile. Der Nachteil ist, dass es nicht sehr effizient ist. Der Vorteil ist, dass man sehr flexibel ist und man die Hardware besser auslasten kann.
Bei nvidia aber auch. Z.b. bei Kepler vs Fermi. Letzterer hat pro Shadereinheit viel mehr Leistung extrahiert und einen komplexen hardware scheduler. Mit Kepler hat man den Scheduler rausgeschmissen, die shadereinheiten vereinfacht, die Clockdomain entfernt. Skalierte schlechter pro Einheit, hatte aber aber auch ein vielfaches mehr Rohleistung ohne dass die Transistorenzahl so massiv anstieg. Wenn fixed function hardware immer die bessere Wahl wäre, dann sind wir schon bei G80 falsch abgebogen und man wäre bei Vertex- und Pixelshader geblieben.
Unified Hardware ist aber eben viel besser auslastbar und skaliert in fast jedem Szenario. Das problem an fixed function hardware ist dass diese entweder nicht voll ausgelastet werden oder auf der anderen Seite schnell einmal ein eigenes Bottleneck bildet. Wenn also der Workload einseitig ist, muss man dafür wieder einen neuen Chip auflegen der die hardware anders skaliert.
Die schlechtere CPU-Skalierung bei aktuellen nvidia GPUs zeigt dass auch nvidia noch vieles in Software macht, was man auch in hardware schneller oder effizienter machen könnte.
macht amd mit rdna3 denselben fehler den man vor rdna1/2 schon gemacht hat?
Ich glaube AMD macht denselben Fehler den sie schon bei Fiji mit hBCC, bei Vega mit dem draw stream binning rasterizer etc. gemacht haben: Die Hardwareauslastung von angepasster Software abhängig zu machen, die aber zum Launch noch nicht verfügbar ist oder unausgereift oder deren Hardware nur theoretisch funktioniert weil vor der Massenfertigung nicht ausreichend getestet.
Wenn ich mir durchlese wie schwierig es für Chips and cheese war bei RDNA3 "dual issue" zu triggern und welche Anpassungen am Code es benötigt, dann würde ich mich nicht wundern wenn die Leistung die wir bisher sehen einfach nur auf die Single issue Rohleistung und die diversen kleinen Verbesserungen bei Registern, RT-pipe etc. zurückgehen. Da ist noch kein Dual Issue dabei, weil niemand seine Software angepasst hat. Die Rohleistung ist in Wirklichkeit die Hälfte.
Und dass die Software da nochmal aufholt sehe ich schwarz. Da man bereits so lange in Verzug ist würde es sich für RDNA3 kaum lohnen erst jetzt das richtige SDK und die richtigen Enwticklertools bereit zu stellen um Dual Issue breiter auszurollen. Die meisten Games in denen wir vergleichen sind eh schon gelauncht und würden wegen sowas nicht mehr gepatcht. Stattdessen müssen AMDs ingenieure sich jetzt auf RDN3.5 und 4 konzentrieren damit so ein Fiasko nicht nochmal passiert. Wenn es dort wieder Softwareabhängigkeiten gibt, dann müssen die Entwickler heute noch die Tools für RDNA4 erhalten, damit der Benchmarkparkour für eine 2024 entsprechend optimiert ist.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.