Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
Exxtreme
2022-10-05, 10:06:40
Verzeih mir bitte meine Unkenntnis, aber warum schließt du von der Anzahl der Zuschauer auf Twitch auf die Anzahl der aktiven Spieler dieses Spiels oder eines beliebigen Spiels? Ich wäre dir dankbar, wenn du meine Verständnislücke mit nachvollziehbaren Fakten auffüllen könntest, auch wenn dieser Faden der Spekulation gewidmet ist und die Frage nicht die 4000er Serie betrifft. Vielen Dank!
Btw, ich schaue bei manchem Spiel(er) gerne zu, würde es aber selbst nie spielen. Viele Spiele sind zum Zuschauen gut geeignet, aber selbst spielen, nein Danke! Da spiele ich lieber anderes.
Wieviele Leute das Spiel spielen das bekommt man nicht raus, ohne ein Mitarbeiter bei ActivisionBlizzard zu sein. Es gibt aber Warteschlangen, die gehen in die 30.000 und diese Twitch-Zuschauerzahlen. Das sind halt doch Indikatoren, die recht gut korrelieren sollten. Also so unbeliebt ist das Spiel wohl nicht. Und Nvidia würde wohl auch dieses Spiel nicht aussuchen um mit Benchmarks zu prahlen.
Troyan
2022-10-05, 10:07:28
Aber sicher nicht Faktor 4 oder mehr gegenüber Samsung 8nm um diese Preise zu rechtfertigen.
Natürlich. Befasse dich mich mal den Preisen von TSMC gegenüber den älteren Prozessen.
Deine komplette Unwissenheit nervt nur noch.
Diese ganzen Codenamen und Namensanpassung sind nichts anderes als eine Rechtfertigung einfach sehr viel Geld abzugreifen. Eigentlich ist der AD 103 ein AD104 und alle Nummern dürften eine Stufe heruntergestuft gehören (also 104 -> eigentlich 106 usw.). Und dass eine 4080 12GB 4080 heißt und sogar noch ein kleinerer Chip ist, ist einfach nur dreist, mehr nicht.
Also findest du die Verarsche von AMD mit Zen4 auch abstoßend? Immerhin verkaufen die 140mm^2 für mehr Geld als 240mm^2 bei Zen2. Komischerweise hört man von dir bei AMD nichts? Wieso eigentlich? Robin Hood unterscheidet zwischen AMD-Reichen und nVidia-Reichen?
Sardaukar.nsn
2022-10-05, 10:13:34
Diese ganzen Codenamen und Namensanpassung sind nichts anderes als eine Rechtfertigung einfach sehr viel Geld abzugreifen. Eigentlich ist der AD 103 ein AD104 und alle Nummern dürften eine Stufe heruntergestuft gehören (also 104 -> eigentlich 106 usw.). Und dass eine 4080 12GB 4080 heißt und sogar noch ein kleinerer Chip ist, ist einfach nur dreist, mehr nicht.
pdUXdZFeKEA
Exxtreme
2022-10-05, 10:14:37
Also findest du die Verarsche von AMD mit Zen4 auch abstoßend? Immerhin verkaufen die 140mm^2 für mehr Geld als 240mm^2 bei Zen2. Komischerweise hört man von dir bei AMD nichts? Wieso eigentlich? Robin Hood unterscheidet zwischen AMD-Reichen und nVidia-Reichen?
Es geht um die Namensgebung und nicht um irgendwelche Herstellungsprozesse oder Chipfläche. :rolleyes: Und die Namensgebung finde ich auch unmöglich. Sowas Dreistes hat AMD noch nie gemacht. Das ist so als ob sie einem 6-Kerner und einem 8-Kerner die gleiche Modellnummer geben würden. Da würden die Leute auch auf die Barikaden gehen.
Ach ja, man sollte nicht vergessen, dass Nvidia das Aussehen der Verpackung ebenfalls vorschreibt. Und da könnte es passieren, dass der einzige Unterschied nur die RAM-Angabe ist obwohl da auch noch ein anderer Chip drunter ist.
Neurosphere
2022-10-05, 10:28:51
Wenns wirklich so kommt und die RT Leistung wieder so weit zurückliegt bleibt für mich jedenfalls wieder nur Nvidia. Zocke gerade wieder intensiver Cyberpunk und das ist mit RT einfach ein ganz anderes Spiel. Auch Control & DL2 will man eigentlich nicht mehr anders zocken...
Naja so weit liegt sie auch nicht unbedingt zurück. Die 6950XT ist ungefähr auf dem Niveau einer 3080. Zwar damit klar schlechter als die 3090ti, aber auch nicht auf Turing Niveau wie damals beim Start und auch häufig so weitergetragen.
unl34shed
2022-10-05, 10:42:36
Natürlich. Befasse dich mich mal den Preisen von TSMC gegenüber den älteren Prozessen.
Na wenn ich so unwissend bin, dann hast du bestimmt belastbare Quellen dazu, also bitte...
Deine komplette Unwissenheit nervt nur noch.
Glashaus und so
Exxtreme
2022-10-05, 10:42:46
Naja so weit liegt sie auch nicht unbedingt zurück. Die 6950XT ist ungefähr auf dem Niveau einer 3080. Zwar damit klar schlechter als die 3090ti, aber auch nicht auf Turing Niveau wie damals beim Start und auch häufig so weitergetragen.
Ja, aber Lovelace ist halt wieder eine ganz andere Hausnummer als die RTX 30xx-Serie was RT angeht. Wenn sich RDNA3 mit dem Vorgänger misst dann wäre das schon arg peinlich.
Troyan
2022-10-05, 10:43:36
Es geht um die Namensgebung und nicht um irgendwelche Herstellungsprozesse oder Chipfläche. :rolleyes: Und die Namensgebung finde ich auch unmöglich. Sowas Dreistes hat AMD noch nie gemacht. Das ist so als ob sie einem 6-Kerner und einem 8-Kerner die gleiche Modellnummer geben würden. Da würden die Leute auch auf die Barikaden gehen.
Das ergibt kein Sinn. RTX4080 12GB hat 40 TFLOPs, 3090TI hat auch 40 TFLOPs.
2700X hatte 8 Kerne bei 214mm^2 für $329. 7700X hat eine Größe von ~150mm^2 (ohne igpu) für $399.
Hört man nichts von HOT.
Na wenn ich so unwissend bin, dann hast du bestimmt belastbare Quellen dazu, also bitte...
Glashaus und so
Hier: https://cset.georgetown.edu/wp-content/uploads/AI-Chips%E2%80%94What-They-Are-and-Why-They-Matter.pdf
Jetzt bist du dran. Sollte für dich ja ein Klacks sein mit Quellen zu belegen, dass die Kosten für TSMC 5nm nicht viel höher sind.
Exxtreme
2022-10-05, 10:53:35
Das ergibt kein Sinn. RTX4080 12GB hat 40 TFLOPs, 3090TI hat auch 40 TFLOPs.
2700X hatte 8 Kerne bei 214mm^2 für $329. 7700X hat eine Größe von ~150mm^2 (ohne igpu) für $399.
Hört man nichts von HOT.
Natürlich ergibt das einen Sinn. Der 2700X hat 8 Kerne und der 7700X ebenfalls. Die haben nicht einen 6-Kerner genommen und den 7700X genannt obwohl ein 6-Kern-Zen4 möglicherweise hier und da schneller wäre.
Und genau sowas hat Nvidia aber gemacht. Und deshalb regen sich die Leute über die Namensgebung auf.
Badesalz
2022-10-05, 11:18:49
Spider-Man ist neu, hat nVidia auf deren Seite weggelassen. Kann auch kein DLSS 3 sein, da Spider-Man in 1080p CPU-limitiert ist...Soll damit also realistischer sein als Valhalla oder Division2?
The_Invisible
2022-10-05, 11:32:53
Naja so weit liegt sie auch nicht unbedingt zurück. Die 6950XT ist ungefähr auf dem Niveau einer 3080. Zwar damit klar schlechter als die 3090ti, aber auch nicht auf Turing Niveau wie damals beim Start und auch häufig so weitergetragen.
In RT intensiven Spielen liegt sie leider doch sehr weit zurück, da muss sie dann schon oft an einer 3070 knabbern: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/Raytracing-Benchmarks-Vergleich-AMD-oder-Nvidia-1375343/2/
Exxtreme
2022-10-05, 11:58:09
In RT intensiven Spielen liegt sie leider doch sehr weit zurück, da muss sie dann schon oft an einer 3070 knabbern: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Specials/Raytracing-Benchmarks-Vergleich-AMD-oder-Nvidia-1375343/2/
Wobei der Artikel schon bissl älter ist. Kann sein, dass sich da treibermäßig einiges getan hat.
Neurosphere
2022-10-05, 12:02:35
Ja da hat sich einiges getan. In dem Test ist die 6950XT auch nicht mit dabei.
https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_uhd
In 4k auf RT avg. Sind die Karten ziemlich gleich.
Badesalz
2022-10-05, 12:04:52
@Exxtreme
Ich möchte das, auch wenn aktuell leicht green/red-biased, trotzdem nicht groß gelten sehen.
Leute die auf ein Spiel warten, holen es sich in der ersten Woche nach der Veröffentlichung. Eine Treiberoptimierung 2 Monate später... Verstehst.
Ich halte diese ganze Treiberoptimierungen sowieso für die Pest :mad: Das ist grundsätzlich der falsche Weg.
Und nicht selten auch der Weg Quali runterzusetzen an Stellen die man vermeindlich kaum bemerkt. Da hat AMD aber eh noch eine ganze Menge von NV zu lernen...
edit:
Gemeint sind natürlich Optimierungen pro Spiel. Keine allgemeinen die jedem Spiel weiterhelfen.
arcanum
2022-10-05, 12:13:27
naja, sobald mehr als nur RT schatten in einem spiel genutzt werden liegt RDNA2 schon deutlich hinter Ampere. bei den ganzen sparimplementierungen ist der unterschied zu rasterized only noch weniger erkennbar.
Spider-Man ist neu, hat nVidia auf deren Seite weggelassen. Kann auch kein DLSS 3 sein, da Spider-Man in 1080p CPU-limitiert ist...
gerade damit wirbt doch nvidia und hier im forum gab es auch schon posts mit kaputtgerenderten zwischenbildbern aus spider-man.
Neurosphere
2022-10-05, 12:14:52
naja, sobald mehr als nur RT schatten in einem spiel genutzt werden liegt RDNA2 schon deutlich hinter Ampere. bei den ganzen sparimplementierungen ist der unterschied zu rasterized only noch weniger erkennbar.
Hast du auch ein Beispiel zu der Behauptung die nicht von Anno dazumal ist?
arcanum
2022-10-05, 12:18:40
Hast du auch ein Beispiel zu der Behauptung die nicht von Anno dazumal ist?
schau dir doch einfach die spiele im verlinkten CB artikel an die RT beleuchtung mit mehreren bounces nutzen - dort ist Ampere nicht selten 30% und mehr schneller als das RDNA2 pendant. als tipp wo du hinschauen musst: Doom, DL2, CP2077, Metro Exodus.
hier sogar ein recht aktueller artikel vom RDNA2 refresh release:
https://www.pcgameshardware.de/Radeon-RX-6950-XT-Grafikkarte-278358/Tests/6950-XT-6750-XT-6650-XT-Test-Benchmark-Vergleich-1394222/2/
in den genannten spielen wird RDNA2 mit RT regelrecht zerstört aber das weiß man als AMD nutzer natürlich nicht, weil man die finger vom RT schalter lässt in den meisten spielen (außer es handelt sich um PS5 ports die dank RDNA2 natürlich auch RT spar-implementierungen nutzen).
Troyan
2022-10-05, 12:25:25
Natürlich ergibt das einen Sinn. Der 2700X hat 8 Kerne und der 7700X ebenfalls. Die haben nicht einen 6-Kerner genommen und den 7700X genannt obwohl ein 6-Kern-Zen4 möglicherweise hier und da schneller wäre.
Und genau sowas hat Nvidia aber gemacht. Und deshalb regen sich die Leute über die Namensgebung auf.
Weil das Namensschema vollkommen egal ist - es zählt am Ende Leistung, Stromverbrauch und Preis.
Zen4 ist auch nicht murks, weil die CPU 7700X heißt. Zen4 ist murks, weil Stromverbrauch und Preis nicht zur Leistung passen.
Die RTX4080 12GB hat z.B. 35% mehr Transistoren als die 3090TI. Die RTX3070 hatte minimal weniger als die 2080TI (ja Karten nicht Chips, i know).
Gibt doch null Schema bei nVidia.
The_Invisible
2022-10-05, 12:35:08
Wobei der Artikel schon bissl älter ist. Kann sein, dass sich da treibermäßig einiges getan hat.
Ne auch nicht besser, eher schlechter durch die neuen RT Games: https://www.pcgameshardware.de/Radeon-RX-6950-XT-Grafikkarte-278358/Tests/6950-XT-6750-XT-6650-XT-Test-Benchmark-Vergleich-1394222/2/#BenchmarkCollection_1394222_2166
edit: aso oben schon gepostet aber gut...
Neurosphere
2022-10-05, 12:38:47
Stimmt schon das RDNA2 in den von dir genannten Titeln relativ schlecht abschneidet, generell hat AMD es trotzdem geschafft über die Treiber noch einiges in der RT Disziplin rauszuholen. Generell bricht RDNA2 durch RT erwartbar stärker ein. Trotzdem ist der Ansatz ohne fixes functions nicht unbedingt der falsche Weg.
Edit, hab deinen pcgh Artikel nicht gesehen, bezog mich nur auf den von CB. Und ich bin kein AMD GPU Nutzer...
Exxtreme
2022-10-05, 12:47:14
Weil das Namensschema vollkommen egal ist - es zählt am Ende Leistung, Stromverbrauch und Preis.
Das ist Ansichtssache. Und etliche Leute stört das, dass man zwei komplett unterschiedliche Grafikkarten mit gleichem Namen bekommt. Zumal der gleiche Name suggeriert, dass sie ähnlich schnell sind solange der RAM ausreicht. Und das ist nicht der Fall. Die 12 GB-Version ist praktisch immer langsamer. Selbst dann wenn der RAM nicht voll ist.
Zen4 ist auch nicht murks, weil die CPU 7700X heißt. Zen4 ist murks, weil Stromverbrauch und Preis nicht zur Leistung passen.
Den Stromverbrauch kann man deckeln wenn man unbedingt will. Und ja, zu teuer ist der sicherlich. Kann aber sein, dass sich das ändert. Und wer AVX512 braucht, für den ist diese CPU eher nicht zu teuer.
Die RTX4080 12GB hat z.B. 35% mehr Transistoren als die 3090TI. Die RTX3070 hatte minimal weniger als die 2080TI (ja Karten nicht Chips, i know).
Gibt doch null Schema bei nVidia.
Nur interessiert einen Kunden die Transistorzahl eher nicht. Und schon gar nicht als Ausrede um hohe Preise zu verlangen.
Badesalz
2022-10-05, 12:58:08
Stimmt schon das RDNA2 in den von dir genannten Titeln relativ schlecht abschneidet, generell hat AMD es trotzdem geschafft über die Treiber noch einiges in der RT Disziplin rauszuholen.
Ich find das dafür, daß es für AMD 1st gen RT ist, wie bei NV die 2000er, echt mal nicht schlecht.
Absolut auf die Zahlen gesehen ist das natürlich was anderes. Da sollte man klar schauen wieviel man wofür bezahlt. Kann man denn aus sowas überhaupt ein Streitthema machen? :rolleyes: Oder bin ich wieder in einer der unzähligen Forenblasen?
@Troyan
Beim 7700X passt die Leistung nicht zum Stromverbrauch? Gegenüber? Oder wie bildet man sich dazu die Meinung?
Tesseract
2022-10-05, 12:58:20
Was ein Blödsinn. GCD + MCDs gibt es nur im High-End bei RDNA3, nämlich bei N31 + N32. N33 ist monolithisch.
danke für das ungewollte indiz dafür dass ich recht habe. AMD war offenbar von anfag an klar dass das konzept schon beim mid-range N32 grenzwertig ist. :rolleyes:
Adam D.
2022-10-05, 12:58:32
Das ist Ansichtssache. Und etliche Leute stört das, dass man zwei komplett unterschiedliche Grafikkarten mit gleichem Namen bekommt. Zumal der gleiche Name suggeriert, dass sie ähnlich schnell sind solange der RAM ausreicht. Und das ist nicht der Fall. Die 12 GB-Version ist praktisch immer langsamer. Selbst dann wenn der RAM nicht voll ist.
Ich versteh nicht ganz, warum wir diese "Diskussion" führen - wir drehen uns doch im Kreis. Troyan und Dural würden noch irgendwelche Zahlen finden, um 3999€ für die 5070 rechtzufertigen.
Man muss sich einfach nur die OW2-Zahlen von Nvidia anschauen, um die Absurdität der Namensgebung und Preispolitik zu veranschaulichen.
Cubitus
2022-10-05, 13:01:41
Stimmt schon das RDNA2 in den von dir genannten Titeln relativ schlecht abschneidet, generell hat AMD es trotzdem geschafft über die Treiber noch einiges in der RT Disziplin rauszuholen. Generell bricht RDNA2 durch RT erwartbar stärker ein. Trotzdem ist der Ansatz ohne fixes functions nicht unbedingt der falsche Weg.
Edit, hab deinen pcgh Artikel nicht gesehen, bezog mich nur auf den von CB. Und ich bin kein AMD GPU Nutzer...
Die Frage ist eben, will man RT-Features nutzen.
Eine ordentliche auf RT-basierende Beleuchtung ist leider geil..
besonders wenn es flüssig läuft.
Wer sich das weg -oder schönreden kann, für den ist AMD interessant.
Gibt ja auch Spieler die juggt dass Null und erkennen zwischen den Beleuchtungen auch kein Unterschied.
Neurosphere
2022-10-05, 13:05:21
Ich find das dasfür, daß es für AMD 1st gen RT ist, wie bei NV die 2000er, fnde ich das echt mal nicht schlecht.
Absolut auf die Zahlen gesehen ist das natürlich was anderes. Da sollte man klar schauen wieviel man wofür bezahlt. Kann man denn aus sowas überhaupt ein Streitthema machen? :rolleyes: Oder bin ich wieder in einer der unzähligen Forenblasen?
@Troyan
Beim 7700X passt die Leistung nicht zum Stromverbrauch? Gegenüber? Oder wie bildet man sich dazu die Meinung?
Liegt vermutlich einfach am Threads.
Badesalz
2022-10-05, 13:06:39
danke für das ungewollte indiz dafür dass ich recht habe. AMD war offenbar von anfag an klar dass das konzept schon beim mid-range N32 grenzwertig ist. :rolleyes:
Ja. So ist das manchmal mit den Indizienprozessen... Könnte es nicht einfacher sein, daß sowas für den Marktsegment der N33 garnicht nötig ist? Den indizierten Holzweg verstehe ich ja noch. Den Zusammenhang mit der daraus resultierenden Grenzwertigkeit beim N32 krieg ich aber alleine nicht gebacken. Kannste da kurz mithelfen?
Neurosphere
2022-10-05, 13:09:53
Die Frage ist eben, will man RT-Features nutzen.
Eine ordentliche auf RT-basierende Beleuchtung ist leider geil..
besonders wenn es flüssig läuft.
Wer sich das weg -oder schönreden kann, für den ist AMD interessant.
Gibt ja auch Spieler die juggt dass Null und erkennen zwischen den Beleuchtungen auch kein Unterschied.
Ich finde RT sieht man deutlich, aber zwischen den oberen Qualitätsstufen gibt es häufig nur noch einen Leistungs- aber keinen visuellen Qualitätsunterschied mehr. Man nehme die 2077 Demo von NV für den neuen Uber RT-Mode. Man sieht da nur Unterschiede am framecounter, was halt völliger Schwachsinn ist weil ich dann DLSS nutzen muss, also ein Feature das mit ziemlicher Sicherheit einige Nachteile mitbringt, nur um wieder spielbare Frames zu erreichen...
Troyan
2022-10-05, 13:12:47
Das ist Ansichtssache. Und etliche Leute stört das, dass man zwei komplett unterschiedliche Grafikkarten mit gleichem Namen bekommt. Zumal der gleiche Name suggeriert, dass sie ähnlich schnell sind solange der RAM ausreicht. Und das ist nicht der Fall. Die 12 GB-Version ist praktisch immer langsamer. Selbst dann wenn der RAM nicht voll ist.
Das ist doch garnicht die große Diskussion. Das Thema ist seit dem Launch durch.
Nur interessiert einen Kunden die Transistorzahl eher nicht. Und schon gar nicht als Ausrede um hohe Preise zu verlangen.
Aber die Chipgröße? :eek:
Bitte, die Leute hetzen hier, weil nVidia einen 300mm^2 Chip für $899 verkaufen will. Das dieser Chip jedoch mehr Transistoren als GA102 hat, soll dann belanglos sein?!
Man sucht sich einfach Punkte, um sie zum Hetzen zu verwenden. Im Grunde ist der physikalische Chip doch egal, sondern einzig das Produkt am Ende zum Preispunkt xy entscheidet.
unl34shed
2022-10-05, 13:19:37
Hier: https://cset.georgetown.edu/wp-content/uploads/AI-Chips%E2%80%94What-They-Are-and-Why-They-Matter.pdf
Jetzt bist du dran. Sollte für dich ja ein Klacks sein mit Quellen zu belegen, dass die Kosten für TSMC 5nm nicht viel höher sind.
Einfach eine 72 Seiten PDF hinrotzen ohne speziell auf etwas darin Bezug zu nehmen, ist eine sehr schlechte Angewohnheit, solltest du mal dran arbeiten ;)
Wie belastbar die Zahlen von April 2020 Ende 2022 sind, ist fraglich. Damals waren 5nm noch frisch und entsprechend teuer. Heute sieht das Verhältnis zwischen 10nm(8nm) und 5nm Sicherheit anders aus.
Tesseract
2022-10-05, 13:21:45
Könnte es nicht einfacher sein, daß sowas für den Marktsegment der N33 garnicht nötig ist?
wo soll da der unterschied sein? man hat bereits die chiplets, man will die chiplets verwenden. mehr chiplets bedeutet mehr binningmöglichkeiten bedeutet bessere karten. N33 wäre alternativ scheinbar ein 3-chiplet-design, also so viel wie die "großen" consumer-CPUs, und hört sich am papier absolut vernünftig an, macht man aber bewusst nicht.
Troyan
2022-10-05, 13:22:37
Einfach eine 72 Seiten PDF hinrotzen ohne speziell auf etwas darin Bezug zu nehmen, ist eine sehr schlechte Angewohnheit, solltest du mal dran arbeiten ;)
Wie belastbar die Zahlen von April 2020 Ende 2022 sind, ist fraglich. Damals waren 5nm noch frisch und entsprechend teuer. Heute sieht das Verhältnis zwischen 10nm(8nm) und 5nm Sicherheit anders aus.
Ich beweise dir nicht die Realität. Die Erde ist keine Scheibe, daher muss ich es auch nicht beweisen.
Ich sehe in deiner Antwort keine Gegenbeweise. Also können wir schlussendlich zusammenfassen: Du hast keine Ahnung.
Dachte eigentlich, du hättest etwas aus der "aber in der Realität spiegelt sich nichts in Pfützen" Unsinn gelernt. :rolleyes:
Exxtreme
2022-10-05, 13:30:30
Das ist doch garnicht die große Diskussion. Das Thema ist seit dem Launch durch.
Eben doch. Das stört die Leute halt. Und da kannst du machen was du willst. Zumal sie das nicht das erste Mal machen. Die GF4MX war auch nur eine GF2,5.
Aber die Chipgröße? :eek:
Bitte, die Leute hetzen hier, weil nVidia einen 300mm^2 Chip für $899 verkaufen will. Das dieser Chip jedoch mehr Transistoren als GA102 hat, soll dann belanglos sein?!
Man sucht sich einfach Punkte, um sie zum Hetzen zu verwenden. Im Grunde ist der physikalische Chip doch egal, sondern einzig das Produkt am Ende zum Preispunkt xy entscheidet.
Diese Chipgröße interessiert eventuell die Hersteller aber nicht die Kunden. Von großen Chip hat der Kunde nichts. Der sieht ihn nicht einmal weil der Chip unter dem Kühler ist.
Troyan
2022-10-05, 13:33:53
Äh, die GF4 MX hatte ein komplett anderes Featureset. die 4080 12GB liefert dir weniger Leistung anstatt nur weniger Ram. Das ist nichts anderes wie Autofirmen, die z.B. an der Batterie auch die Motorleistung koppeln.
Ist unschön für den Kunden, da er aufmerksamer sein muss, aber weit von der GF4 MX entfernt.
unl34shed
2022-10-05, 13:35:25
Ich beweise dir nicht die Realität. Die Erde ist keine Scheibe, daher muss ich es auch nicht beweisen.
Ich sehe in deiner Antwort keine Gegenbeweise. Also können wir schlussendlich zusammenfassen: Du hast keine Ahnung.
Und ich sehe in deiner Antwort keine Beweise, die einen Preisauschlag von 500$ MSRP bei der 4080 12GB zu einer 3060 ti rechtfertigen. Ja, 5nm wurde etwas teurer, das steht außer Frage, aber nicht in dem Maße um die Preise von Nvidia zu rechtfertigen.
Da DU aber immer die Preise schönredest und auf die gestiegenen Kosten von 5nm verweist, habe ich nach belastbarten Zahlen gefragt, die diese These untermauern. Da DU aber anscheinend auch keine hast, hast du also genausowenig Ahnung.
Dachte eigentlich, du hättest etwas aus der "aber in der Realität spiegelt sich nichts in Pfützen" Unsinn gelernt. :rolleyes:
Doch habe etwas daraus gelernt, dass du nicht lesen kannst. Wo habe ich das behauptet? Bitte ein Quote wo ich das geschrieben habe oder lass endlich diese dämliche Unterstellung.
Troyan
2022-10-05, 13:46:37
Und ich sehe in deiner Antwort keine Beweise, die einen Preisauschlag von 500$ MSRP bei der 4080 12GB zu einer 3060 ti rechtfertigen.
Du kommst auf die Ignore Flateathler. Das Dokument beschreibt aus Sicht der Research-Firma die Entwicklung der Kosten der Fertigungsprozesse und dann wird hier behauptet "es gäbe keine Beweise". Nur für dich: Laut dem Dokument reduzieren sich die Kosten von 16nm auf 5nm um gerademal 22% pro Transistor. Mach einen Dreisatz, was es für die Kosten eines Chips bedeutet, der 5,2x mehr Transistoren als GP104 und an deinem Beispiel 2,6x mehr Transistoren als GA104 besitzt (hier muss ein zweiter Dreisatz angelegt werden, weil der Schritt von Samsung 10nm auf TSMC 5nm sogar mit einem Unternehmenswechsel verbunden ist).
Damit auch ende. Unglaublich, die Realität so hart zu verweigern. :eek:
Exxtreme
2022-10-05, 13:47:58
Ist unschön für den Kunden, da er aufmerksamer sein muss,
Genau das meinen wird doch. :) Hätten sie das Ding 4070TI genannt dann hätten weit weniger Leute ein Problem damit gehabt.
Und ja, das Featureset der GF4MX war anders. Und trotzdem war der Name sehr doof weil das Ding weniger konnte als eine GF3.
Meridian12
2022-10-05, 13:55:01
Genau das meinen wird doch. :) Hätten sie das Ding 4070TI genannt dann hätten weit weniger Leute ein Problem damit gehabt.
.
Denke doch. Denn eine 4070 für 1100 Euro anzubieten hätte auch zu massiven Beschwerden geführt.
Und die Karte 4080 zu nennen basiert ja rein auf die geforderte Summe.
NVIDIA sagte, die Karte soll 849 Dollar kosten ohne Steuern. Als 4070 nimmt uns das keiner ab, aber als 4080 werden alle happy sein :D
So ungefähr wahrscheinlich.
FastAndy
2022-10-05, 13:56:40
Mit was ihr euch allem bei einer Grafikkarte beschäftigt und in die haare kriegt. Jeden nimmt wohl die Trennung von Julian und Bibi unterschiedlich mit.
vinacis_vivids
2022-10-05, 13:57:05
AMD geht den viel ökonomischeren Weg insbesondere bei RT die Ressourcen zu schonen bei bestmöglicher Optik. Auch im Hinblick auf die RT Nutzung bei Konsolen.
Nvidia geht den Weg möglichst viele Einheiten zu bauen, die dann bei Nichtnutzung viel Energie verschwenden um besonders teure Hardware zu verkaufen. Es geht bei NV nicht nur gegen die Konkurrenz, sondern auch gegen die eigenen alten Karten, die massenhaft auf der Halde liegen.
Erinnert mich stark an die Diskussion um Tessellation und Hairworks. Beides von NV gepushte Effekte, die mehr oder weniger über die Zeit verpufft sind.
Ich denke AMD wird RT im Treiberschalter einbauen um die fps-Einbrüche zu minimieren, weil die von NV finanzierten Spieleentwickler den höchstmöglichen RT-Schalten einbauen werden. Es heißt dann "AMD-optimiert" und gut ist. Ab einem gewissen Faktor gibt es einfach nur noch abnehmenden Grenznutzen. Bei Tessellation und Hairworks war es Faktor 16 so das Limit des sichtbaren, NV nutzte immer Faktor 64. Entwickler damals wie heute CD-Project.
Finde es nur eigenartig, dass CD-Project nicht auf AMD optimiert, wahrscheinlich fehlt ihnen das Know-How und die Man-Power. Konsolen und Steam-Deck nutzen ebenfalls RDNA uArch, da soll auch CP2077 laufen.
Die Engines von Ubisoft oder EA (Frostbite) optimieren für beide GPU-Hersteller.
Mittlerweile erwarte ich auch von erfahrenen/professionellen Testern, dass diese Erkenntnisse mit einfließen und die Ergebnisse aktualisiert werden.
aceCrasher
2022-10-05, 14:07:48
Mit was ihr euch allem bei einer Grafikkarte beschäftigt und in die haare kriegt. Jeden nimmt wohl die Trennung von Julian und Bibi unterschiedlich mit.
Beschwerst du dich wirklich darüber dass Leute, in einem Hardware-Forum, im Grafikkarten-Thread, sich mit Grafikkarten beschäftigen? :confused:
Exxtreme
2022-10-05, 14:18:53
Denke doch. Denn eine 4070 für 1100 Euro anzubieten hätte auch zu massiven Beschwerden geführt.
Und die Karte 4080 zu nennen basiert ja rein auf die geforderte Summe.
Das passt aber auch nicht. Denn eine Nicht-Titan für über 2.000€ haben sie noch nie gehabt. Von daher, 4070TI wäre schon i.O. gewesen.
AMD geht den viel ökonomischeren Weg insbesondere bei RT die Ressourcen zu schonen bei bestmöglicher Optik. Auch im Hinblick auf die RT Nutzung bei Konsolen.
Nvidia geht den Weg möglichst viele Einheiten zu bauen, die dann bei Nichtnutzung viel Energie verschwenden um besonders teure Hardware zu verkaufen. Es geht bei NV nicht nur gegen die Konkurrenz, sondern auch gegen die eigenen alten Karten, die massenhaft auf der Halde liegen.
Einheiten, die nicht benutzt werden, fressen keinen/kaum Strom. Ich gehe davon aus, dass Lovelace sehr sparsam sein wird wenn die Spiele kein RT benutzen.
Ich denke AMD wird RT im Treiberschalter einbauen um die fps-Einbrüche zu minimieren, weil die von NV finanzierten Spieleentwickler den höchstmöglichen RT-Schalten einbauen werden. Es heißt dann "AMD-optimiert" und gut ist. Ab einem gewissen Faktor gibt es einfach nur noch abnehmenden Grenznutzen. Bei Tessellation und Hairworks war es Faktor 16 so das Limit des sichtbaren, NV nutzte immer Faktor 64. Entwickler damals wie heute CD-Project.
Finde es nur eigenartig, dass CD-Project nicht auf AMD optimiert, wahrscheinlich fehlt ihnen das Know-How und die Man-Power. Konsolen und Steam-Deck nutzen ebenfalls RDNA uArch, da soll auch CP2077 laufen.
Die Engines von Ubisoft oder EA (Frostbite) optimieren für beide GPU-Hersteller.
Mittlerweile erwarte ich auch von erfahrenen/professionellen Testern, dass diese Erkenntnisse mit einfließen und die Ergebnisse aktualisiert werden.
Am besten wäre wenn überhaupt nicht für einzelne Hersteller optimiert werden würde. Wie realistisch das ist, das weiss ich nicht. Und AMD könnte auch mal die RT-Leistung ordentlich steigern. Sie wollen aber offenbar nicht. Und ja, der RT-Ansatz über Shader ist flexibler. Der ist aber doof wenn ein Spiel sowohl massiv die Shader wie auch RT benutzt. Mit dedizierter RT-Hardware hast du das Problem eher nicht.
Tomahawk
2022-10-05, 14:21:43
AMD war bei der Namensgebung auch nicht immer besser. Die Radeon HD 6870 war langsamer als die HD 5870. Immerhin war sie günstiger.
Tesseract
2022-10-05, 14:26:21
RT in shadern ist genau so sinnvoll wie texturfilterung in shadern, nämlich garnicht. deswegen macht das (bis auf den legacy modus für pascal) niemand, auch AMD nicht.
Badesalz
2022-10-05, 14:36:09
wo soll da der unterschied sein?Die als nötig angepeilte Leistung? Oder was sonst? Ein 3-Chiplet Design für die N33 macht soviel Sinn wie Chiplet-Design damals beim 3100. Konnte man sich halt auch sparen, so ein Abfallprodukt. In dem Segment bei der Leistung nimmt man entweder lieber gleich APUs oder den 3300X (der ja nur bisschen schlechtes P/L hatte, aber sonst für seine Möglichkeiten mit B-Dies wie Sau abging).
N33 ist anscheinend stark überarbeiteter N21. Weil sowas diesmal noch reicht. Es soll angeblich an der 6900(XT) kratzen und dafür braucht AMD noch keine Chiplets. Den Fehler wie beim 3100 hat man diesmal eben nicht wiederholt.
Und dann fühlt sich auch keiner bemitleidend mit seiner 7600/7700 (XT) durch halbkaputte N32 Chips :tongue:
unl34shed
2022-10-05, 14:36:11
Du kommst auf die Ignore Flateathler.
Mal wieder eine haltlose Unterstellung. Es kann keine flache Erde geben, weil sonst die Katzen alles runtergeschmissen hätten.:rolleyes:
Aber so kann man natürlich der unangenehmen Frage mit den Pfützen aus dem Weg gehen.
Das Dokument beschreibt aus Sicht der Research-Firma die Entwicklung der Kosten der Fertigungsprozesse und dann wird hier behauptet "es gäbe keine Beweise".
Und wieder einmal nicht richtig gelesen. Ich bestreite nicht, dass 5nm teurer wurde. Aber eben nicht in dem Maße, wie du es hier hinstellen willst. Und ich stelle die Frage, wie aktuell die Daten aus der PDF von April 2020 noch im Oktober 2022 sind.
Zu deinem Dreisatz, warum GP104 und nicht TU104? Auch macht der Grafikchip nur einen Teil der Kosten einer Grafikkarte aus.
Ausgehen von Tabelle 9 Zeile 8 kostet ein 600mm² Chip in 5nm 238$ -> <120$ für AD104 (Yield und Verschnitt noch garnicht berücksichtig).
Wie gesagt, rechtfertigt das keinen Preisaufschlag von 500$.
Und woher die 22% genau aus dem dokument hast :confused:
Ex3cut3r
2022-10-05, 14:45:03
Beschwerst du dich wirklich darüber dass Leute, in einem Hardware-Forum, im Grafikkarten-Thread, sich mit Grafikkarten beschäftigen? :confused:
Ja, laut ihm einfach Kaufen. Ist wohl gesponsert, der gute Kerl.
Badesalz
2022-10-05, 14:51:12
Das Dokument […]Da mir der Ausgang dessen völlig schnuppe ist, wäre es doch interessant, ob sich das so ähnlich beim Zen4 widerspiegelt...
Andron
2022-10-05, 14:57:15
AMD geht den viel ökonomischeren Weg insbesondere bei RT die Ressourcen zu schonen bei bestmöglicher Optik. Auch im Hinblick auf die RT Nutzung bei Konsolen.
Nvidia geht den Weg möglichst viele Einheiten zu bauen, die dann bei Nichtnutzung viel Energie verschwenden um besonders teure Hardware zu verkaufen. Es geht bei NV nicht nur gegen die Konkurrenz, sondern auch gegen die eigenen alten Karten, die massenhaft auf der Halde liegen.
Das ist quatsch, AMD hat nicht den ökonomischsten Weg in Sachen RTRT gewählt, sondern den, der bei RDNA 2 und den Konsolen Ablegern technisch möglich war.
Man muss in Sachen Raytracing auch vergleichbare GPUs gegenüberstellen, und da ist eine RTX 3070(Ti) bei hoher RT Last oftmals auf Navi 21 Niveau und teilweise effizienter, bei unter 400mm^2 Samsung 8nm.
Erinnert mich stark an die Diskussion um Tessellation und Hairworks. Beides von NV gepushte Effekte, die mehr oder weniger über die Zeit verpufft sind.
Ich denke AMD wird RT im Treiberschalter einbauen um die fps-Einbrüche zu minimieren, weil die von NV finanzierten Spieleentwickler den höchstmöglichen RT-Schalten einbauen werden. Es heißt dann "AMD-optimiert" und gut ist. Ab einem gewissen Faktor gibt es einfach nur noch abnehmenden Grenznutzen. Bei Tessellation und Hairworks war es Faktor 16 so das Limit des sichtbaren, NV nutzte immer Faktor 64. Entwickler damals wie heute CD-Project.
RTRT leidet derzeit auf jeder Hardware unter der viel zu geringen Leistung und der daraus resultierenden Strahlenknappheit. Eine weitere Reduzierung des Raycounts ist da wohl die schlechteste aller Ideen. Von "abnehmenden Grenznutzen" sind wir noch viele Jahre entfernt.
Das Tessellationsbeispiel ist auch faktisch falsch. Auch Faktor 64 kann einen sichtbaren Unterschied machen, es kommt auf viele Parameter an. In TW3 konnte man mit einer Begrenzung auf 16X zwar wirklich kaum Unterschiede ausmachen, pauschalisieren lässt sich das dennoch nicht.
Nvidia hat es bei gesponserten Titeln vlt. wirklich ausgenutzt, dass AMD bei hoher Tessellationslast einbricht, deswegen sind höhere Faktoren aber nicht automatisch sinnlos.
FastAndy
2022-10-05, 15:02:41
Wenn ich eure hitzige Diskussion, ob die karte nun 600 oder 599,98mm² Chipfläche hat, oder N12 bzw N547 als Vorgänger (lol wtf) unterbrechen darf, hier Infos von bequiet zu dem neuen standard:
https://www.bequiet.com/de/insidebequiet/32
werd mein neues NT wohl retournieren und direkt ein neues mit so einem Stecker kaufen sobald verfügbar. Hoffe das dauert nicht so lange. Kann das nicht selbst und muss mir jemanden holen dafür.
Badesalz
2022-10-05, 15:07:34
Danke für die Unterbrechung, aber das war grad der uninteressanteste Beitrag seit mind. 3 Seiten ;)
Troyan
2022-10-05, 15:11:17
Genau das meinen wird doch. :) Hätten sie das Ding 4070TI genannt dann hätten weit weniger Leute ein Problem damit gehabt.
Und ja, das Featureset der GF4MX war anders. Und trotzdem war der Name sehr doof weil das Ding weniger konnte als eine GF3.
Ja, aber viele Postings wegen dem Thema würdest du im Elektro-Auto schreiben? Hyundai macht es exakt identisch: https://konfigurator.hyundai.de/configure/ioniq-5/46/V2/183/trims/146/motors
Tesla hat mal Model 3 Fahrzeuge mit verschiedenen Batteriearten verkauft...
Ich denke, jeder weiß es jetzt.
Tesseract
2022-10-05, 15:18:32
@Badesalz: AMD könnte alle drei varienten, N31, N32 und N33, locker als monolithische chips rausbringen. der große vorteil von chiplets ist - wie schon geschrieben - binning und yield. ein chiplet über mehrere produkte hinweg verwenden zu können ist ein enormer vorteil, nicht nur für den einzelnen SKU sondern für die ganze serie und insbesondere den top dog der die besten bins abbekommt. die tatsache dass AMD den kleinsten chip von anfang an monolithisch geplant hat (und damit indirekt die anderen beiden abwertet weil die binning-auswahl viel kleiner ist) zeigt dass sie fix davon ausgehen dass der overhead bei der kleinsten variante die vorteile klar überwiegt und das is für N32 ein eher ernüchterndes zeichen.
FastAndy
2022-10-05, 15:19:00
Die FE kann nur 600w ;(
https://www.igorslab.de/wp-content/uploads/2022/10/Power.jpg
und ist damit bei mir schon mal raus
Badesalz
2022-10-05, 15:22:16
@Troyan
Whatabout oder wie?
Wenn man die Welt besser machen will muss man halt irgendwo anfangen. Auf 3DC im Thread über RT40 ist das imho kein goldener Weg dafür, bei Tesla anzufangen. Oder doch?
Hat Siemens nicht auch was auf diesem Kerbholz? Kraus-Maffei vielleicht? Die NASA?
@Tesseract
Zwar nicht in der identisch gleichen Form, aber hatten wir die Diskussionen so ähnlich nicht schon beim Zen1? Ich weiß immernoch nicht warum genau N33 die anderen abwertet und warum das grad für die N32 besonders schlecht ist. Die Karten werden, wohl, alle die angepeilte Leistung haben. Da ja eben die N33 eh schon vom Anfang an so geplant war wie sie kommt. Wo genau ist jetzt das Problem? Muss sich etwa der User nach dem Kauf mit dem Bining plagen?
Ok, ich erkenne ja an, daß du jetzt eine für dich tolle Idee hast :wink: Findest du sie aber wirklich so gut um sie ins Feld zu führen? Für mich sieht die eher nach "händeringend" aus...
Troyan
2022-10-05, 15:29:51
Dann mach sie besser - nur nicht dauernd mit der selben Aussage. Das müsstest du doch auch irgendwie mal verstehen? Jeder weiß es, dass die Karten sich unterscheiden. Kann jeder sehen, der auf die Seite bei nVidia geht - wie auch bei Hyundai.
Bei Computerbase gibt es schöne Slider für die Größen der Karten: https://www.computerbase.de/2022-10/geforce-rtx-4090-fe-und-tuf-bilder-zum-ad102-flaggschiff-von-asus-und-nvidia/
Big Boy, big Boy.
Virtual
2022-10-05, 15:33:21
Wieviele Leute das Spiel spielen das bekommt man nicht raus, ohne ein Mitarbeiter bei ActivisionBlizzard zu sein. Es gibt aber Warteschlangen, die gehen in die 30.000 und diese Twitch-Zuschauerzahlen. Das sind halt doch Indikatoren, die recht gut korrelieren sollten. Also so unbeliebt ist das Spiel wohl nicht. Und Nvidia würde wohl auch dieses Spiel nicht aussuchen um mit Benchmarks zu prahlen.
OK, keine Frage, unbeliebt ist das Spiel sicher nicht. Ob nun eher bei Zuschauern auf Twitch (belegt) oder tatsächlich auch bei der Zahl der aktiven Spieler (Annahme) wissen wir nicht. Die Indikatoren müssen nicht zwangsweise korrelieren, dein Konjunktiv ist schon angebracht.
Stellt sich nun noch die Frage, ob die große Zuschauerzahl auf Twitch das erhöhte Framelimit (400 -> 600 ) auch tatsächlich sehen kann. Also mein Monitor/Fernseher gibt das nicht her, aber vielleicht ja deiner. Nvidias NVENC wird sicherlich die 507 FPS bei 1440p an Twitch senden, damit alle Zuschauer mit passendem Monitor/Fernseher in den Genuß der 507 FPS kommen können.
Tja, NVidia prahlt mit Zahlen, die außer einer unbekannten Zahl an aktiven Spielern kein Twitch Zuschauer auf seinem Bildschirm wahrnehmen kann. Hoffentlich ist das kein schlechtes Vorzeichen für DLSS 3.0, hoffentlich kann man das auch ohne Schmerzen im relevanten Intervall von 30-60 Frames genießen. Ich feier hier mal noch nicht ab, nur weil NVidia so geschickt zu "prahlen" weiß, ich warte lieber auf aussagekräfte und nachvollziehbare Resultate menschlichen Forscherdrangs. Jedem ist es natürlich freigestellt zum Hype beizutragen oder auch völlig überzogene Preise zu bezahlen.
Badesalz
2022-10-05, 15:37:49
Dann mach sie besser - nur nicht dauernd mit der selben Aussage.Ja natürlich. Wir können ja über alles reden. Soviel sogar, daß wir bald vergessen haben um was es am Anfang ging. Versuch mal. Leute die 10 Sachen gleichzeitig anfangen und keine vernünftig bis zu Ende machen hab ich auf dem Job genug :usweet: Solche Tipps braucht mir nicht irgendein Forist geben. Ich weiß wie man damit umgeht... :up:
Big Boy, big Boy.Sieht eher nach Konishiki Yasokichi aus als nach Dwayne Johnson.
Den 4x 8pin Adapter find ich aber schon recht beeindruckend :uup: Es läuft so wie wir das schon bei RT30 gesagt habe: Das wird keine gutes Ende nehmen.
edit:
Hatten wir das nicht schon mit den BigBoys?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13127937&postcount=6697
=Floi=
2022-10-05, 15:38:16
Fläche kostet nunmal auf 5nm. Der Abstand existiert, weil es kein Sinn macht bei 450mm^2 aufzuhören. Dann kann man gleich an die Grenzen gehen.
Die Skalierung in den nVidia-Zahlen von OW2 sieht eigentlich ziemlich gut aus. 4090 ist gegenüber der 4080 12GB 72% schneller bei 58% mehr Strom. Schaut man sich die 4080 12GB gegenüber der 3070 an, dann skaliert die 3090TI deutlich schlechter gegenüber der 3070TI: ~50% Mehrleistung für 58% mehr Strom.
Du nimmst schon die DLSS 3 benchmarks. Das ist murks.
Das argument mit den "teuren" chips nehme ich NV nicht mehr ab. Die wollen weiterhin über 65% marge fahren. Um jeden preis.
Irgendwann ist es auch mal zu viel.
dargo
2022-10-05, 15:39:15
@Badesalz: AMD könnte alle drei varienten, N31, N32 und N33, locker als monolithische chips rausbringen.
Klar... die Kunden sind auch sowas von heiß drauf 2000€ für eine Gaming-Graka zu bezahlen. ;D
Tesseract
2022-10-05, 15:48:20
Ich weiß immernoch nicht warum genau N33 die anderen abwertet und warum das grad für die N32 besonders schlecht ist.
der overhead vom chipletdesign bei RDNA3 ist eine unbekannte die außer AMD noch niemand kennt. N33 als monolit gibt einen einblick. am ungünstigsten ist das konsequenterweise für die kleinste chiplet-variante da diese dem punkt ab dem chiplets keinen sinn mehr machen am nächsten ist. oder anders gesagt: chiplets sollten immer besser werden je komplexer das design wird.
Ex3cut3r
2022-10-05, 15:52:54
der overhead vom chipletdesign bei RDNA3 ist eine unbekannte die außer AMD noch niemand kennt. N33 als monolit gibt einen einblick. am ungünstigsten ist das konsequenterweise für die kleinste chiplet-variante da diese dem punkt ab dem chiplets keinen sinn mehr machen am nächsten ist. oder anders gesagt: chiplets sollten immer besser werden je komplexer das design wird.
Meinst du nicht, AMD weiß schon selber, wann der richtige Zeitpunkt für sie gekommen ist bei Chiplets auch für GPUs einzusetzen? Du tuts irgendwie so, als ob RDNA 3 schelchter als RDNA 2 wird. :freak:
Wir wissen stand jetzt nix.
Exxtreme
2022-10-05, 15:53:13
Stellt sich nun noch die Frage, ob die große Zuschauerzahl auf Twitch das erhöhte Framelimit (400 -> 600 ) auch tatsächlich sehen kann. Also mein Monitor/Fernseher gibt das nicht her, aber vielleicht ja deiner. Nvidias NVENC wird sicherlich die 507 FPS bei 1440p an Twitch senden, damit alle Zuschauer mit passendem Monitor/Fernseher in den Genuß der 507 FPS kommen können.
Twitch geht glaub nur bis zu ~60 Hz. Die 400 Hz wirst du im Stream nicht sehen. Die Datenmenge wäre auch Wahnsinn was man da übertragen werden müsste. Und ja, mein Monitor packt auch keine 600 Hz, bei 240 ist Schluss. Aber das ist eh' ein Bereich wo es mich nicht mehr juckt. :)
Meinst du nicht, AMD weiß schon selber, wann der richtige Zeitpunkt für sie gekommen ist bei Chiplets auch für GPUs einzusetzen? Du tuts irgendwie so, als ob RDNA 3 schelchter als RDNA 2 wird. :freak:
Wir wissen stand jetzt nix.
Also ich kann das nicht herauslesen, dass RDNA3 schlechter sein soll. :)
Badesalz
2022-10-05, 15:56:01
@Tesseract
Ej…. Nochmal. Den Overhead beim 3100 sah man ja. Gegenüber dem 3300x. Sahen wir alle. Und da sollte man zufrieden sein, daß sie das beim N33 nicht so gemacht haben. GENAU das gleiche lief wegen Chiplets bei Zen1 ab. Die ersten Generation muss man da eben noch irgendwie durch. Wir sind nun beim Zen4 wie auch dem 5800X3D. Wo ist denn das Problem? Daß AMD sowas wie den 3100 nicht als GPU an die Leute bringen wollte? Sollte das wen traurig machen??
Erstens.
Zweitens, sagt DAS überhaupt nichts aus wie der Overhead dem N32 zusetzt. Der wird so schnell sein wie vom Anfang an angepeilt. Und bei den 8000er ist das Thema auch wieder erledigt, da es da auch den N43 in Chiplet geben wird.
Warum reden wir über diesen Quark also überhaupt? Ich sehe hier nichts außer Binsenweisheiten. Die dazu noch im falschen Thread aufgetragen werden... Ich habs dir schon durch die Bluemn gesagt. Deine tolle Idee ist keine.
Troyan
2022-10-05, 15:58:28
nVidias eigenes Unboxing Video der Founders Edition:https://www.youtube.com/watch?v=2VNZCvUqDcA
Muss sagen, dass sieht richtig schick aus. Immerhin passt nun die Größe auch zum Preis.
Megamember
2022-10-05, 15:59:46
Unboxing verschiedener Marken. Holy shit sind das Klopper.
NgbQupKmjQ0
Dural
2022-10-05, 16:03:52
Chiplets ist kaum billiger, ich halte das für eine glatte Lüge.
Chiplets ist vor allem eines, flexibel und dadurch einfacher. Mit einem einzigen Design kann man praktisch das ganze Spektrum abdecken. Komischerweise nutz AMD genau diesen Vorteil bei Navi 3 ja nicht, für mich schon ein klares Eingeständnis das es halt doch nicht so gut funktioniert.
Witzig finde ich ja dass praktisch jeder Chiplets in den Himmel lobbt, jedoch zeigen doch gerade die AMD CPUs die massiven schwächen bei Temperatur und Skalierung über alle Kerne.
Troyan
2022-10-05, 16:04:00
Vergleich mit der 3090 FE: https://youtu.be/Y1l_G1pPwhY?t=151
Kürzer, schmaler, dafür 3 Slots und somit höher.
Badesalz
2022-10-05, 16:04:23
Du denkst jeden Tag abends nach dem die Lachkrämpfe sich wieder gelegt haben, das war wohl jetzt die Spitze. Doller wirds wohl echt nicht.
Dann stehst du am nächsten Tag auf... und der Grakahersteller aka Chiphersteller, macht SELBST unboxing Videos! :biggrin:
edit:
Wir haben eigentlich garkeine passenden Smileys für sowas =)
fondness
2022-10-05, 16:10:15
@Badesalz: AMD könnte alle drei varienten, N31, N32 und N33, locker als monolithische chips rausbringen. der große vorteil von chiplets ist - wie schon geschrieben - binning und yield. ein chiplet über mehrere produkte hinweg verwenden zu können ist ein enormer vorteil, nicht nur für den einzelnen SKU sondern für die ganze serie und insbesondere den top dog der die besten bins abbekommt. die tatsache dass AMD den kleinsten chip von anfang an monolithisch geplant hat (und damit indirekt die anderen beiden abwertet weil die binning-auswahl viel kleiner ist) zeigt dass sie fix davon ausgehen dass der overhead bei der kleinsten variante die vorteile klar überwiegt und das is für N32 ein eher ernüchterndes zeichen.
Das ergibt keinen Sinn, was will man denn binnen? Die Cache und Speicherinterface Chiplets? LOL. Shader hat jeder ein eigenes Die. Damit wird auch nichts abgewertet. Es geht natürlich bei den GPUs primär um Kosten. 5nm ist extrem teuer und es macht einen gewaltigen Unterschied, ob ich ein 300mm² oder ein 500mm²+ Die damit fertige. Bei N33 geht man gleich auf 6nm, weil man den kostengünstig anbieten will. Das war ja auch der Grund, warum Nvidia zu Samsung gewechselt ist. Jetzt braucht man TSMC wohl wieder um konkurrenzfähig zu sein und nimmt die hohen Kosten in Kauf.
DrFreaK666
2022-10-05, 16:13:53
Ja, aber viele Postings wegen dem Thema würdest du im Elektro-Auto schreiben? Hyundai macht es exakt identisch: https://konfigurator.hyundai.de/configure/ioniq-5/46/V2/183/trims/146/motors
Tesla hat mal Model 3 Fahrzeuge mit verschiedenen Batteriearten verkauft...
Ich denke, jeder weiß es jetzt.
Also wenn man ein E-Auto mit größerer Batterie kauft, dann hat das Auto automatisch auch mehr kW. Danke für die Info
Troyan
2022-10-05, 16:16:23
Also wenn man ein E-Auto mit größerer Batterie kauft, dann hat das Auto automatisch auch mehr kW. Danke für die Info
Stimmt, weil der Motor ja an der Batterie hängt. ;D
vinacis_vivids
2022-10-05, 16:18:57
@Tesseract
Das dümmste was AMD machen kann ist NV nachahmen und solche riesigen Monolitischen Chips zu bauen. Ich glaube dir fehlen da auch gewisse technische Kenntnisse was die Langzeitstrategie bei AMD angeht.
Die RDNA3 uArch dient auch zur Verbreitung im mobilen Bereich, wo Perf/Watt absolut King ist.
Badesalz
2022-10-05, 16:19:52
@Dural
Du hast eigentlich Recht. Es ist der einfachere Weg schneller zu sein. Klarer als mit Aldebaran kann man das nicht darstellen. Wann war AMD sonst das letzte mal NV eine ganze Generation voraus? Weil, H100 wird sie nicht einholen. (ja, Aldebaran ist eben mit dem großen Schwerpunkt FP64 designt).
jedoch zeigen doch gerade die AMD CPUs die massiven schwächen bei Temperatur und Skalierung über alle Kerne.Heißt das jetzt irgendwie, daß du das grob nur den ersten halben Tag verfolgt hast, als Zen4 rauskam? Oder was meinst du?
Auch schon davor, scheint mir ein 5800X3D ziemlich gut zu skalieren. Geschweige Perf/Watt. Der ist nochmals die Steigerung eines Chiplet-Designs ;) und spätestens damit sind die Blauen auch mal (ausnahmsweise) pulverisiert worden.
Wie dürftig kann das also sein?
@vinacis_vivids
Langsam... Monolithisch ist IMMER schnicker. Wir sind aber aktuell an einer Grenze der Komplexität und den Möglichkeiten der Herstellungsprozesse angelangt, wo monolitisch eben zu sowas wie den 1200er führte. Oder RT40. Oder auch bald 13000er.
Man muss also irgendwann den Ansatz überdenken, um weiter zu kommen. Am besten rechtszeitig...
DrFreaK666
2022-10-05, 16:20:38
Stimmt, weil der Motor ja an der Batterie hängt. ;D
Hast nicht verstanden, was ich damit sagen wollte
=Floi=
2022-10-05, 16:20:57
Das ergibt kein Sinn. RTX4080 12GB hat 40 TFLOPs, 3090TI hat auch 40 TFLOPs.
2700X hatte 8 Kerne bei 214mm^2 für $329. 7700X hat eine Größe von ~150mm^2 (ohne igpu) für $399.
Und wo verkauft AMD den 7700X ohne GPU? :rolleyes:
WTF mal wieder. Irgendwo zählt auch performance und die liefert Zen 4.
Bei NV muss man einfach mal die 4000er serie untereinander vergleichen und dann passen die karten nicht mehr zusammen. Die abstufungen sind viel zu groß.
Die 4000serie ist nicht nur teuer, sondern einfach auch unrund. Um den preis erwarte ich mehr wie ein 192bit speicherinterface.
Chiplets ist kaum billiger, ich halte das für eine glatte Lüge.
Chiplets ist vor allem eines, flexibel und dadurch einfacher. Mit einem einzigen Design kann man praktisch das ganze Spektrum abdecken.
Das hebelt dann auch den preis...
Durch die skalierbarkeit braucht man viel weniger unterschiedliche chips. Du kann auch viel einfacher auf den markt reagieren.
Der Epic ist dann die goldgrube schlechthin.
dargo
2022-10-05, 16:31:10
Meinst du nicht, AMD weiß schon selber, wann der richtige Zeitpunkt für sie gekommen ist bei Chiplets auch für GPUs einzusetzen? Du tuts irgendwie so, als ob RDNA 3 schelchter als RDNA 2 wird. :freak:
Wir wissen stand jetzt nix.
Witzigerweise erwähnt er den Overhead bei Nvidia bei Ampere und Lovelace nicht was die ganzen Luftnummer-TFLOPs betrifft. ;)
Tesseract
2022-10-05, 16:34:20
Das ergibt keinen Sinn, was will man denn binnen? Die Cache und Speicherinterface Chiplets?
natürlich, was denn sonst? jeder komplexere chip mit strikten anforderungen an signalintegrität und spannung wird gebinnt. erstens werden die chiplets ziemlich sicher synchron mit der gleichen spannung betrieben und zweitens gibt es sicher SKUs mit unterschiedlich schnellem GDDR und dafür wird es garantiert gebinnte zusammenpassende chiplets geben. yield ist hier verhältnismäßig natürlich ein größerer faktor als bei monolithischen chips.
Badesalz
2022-10-05, 16:34:27
Warum reden wir hier überhaupt soviel über AMD? :frown: Das mit den Chiplets…
Als Intel das Zepter noch hatte, redeten alle - auch wir - von dem mehr oder weniger langsamen Untergang von x86-64. Was aber auch nicht auf irgendeinem 3DC-Mist gewachsen ist. Alle sahen es bald kommen. Und redeten über die alten Zöpfe, der völlig veraltete Architektur, gleichartige Platformen, von der Ineffizienz/der Skalierung, gelegentlich noch über das A20-Gate :usweet: usw. usw. usw.
Dann kamen die Epycs. Im Chiplet-Design. Übrigens gelehrt von IBM. Nicht nur, aber größtenteils. Und die Diskussionen von oben, was ist heute damit?
(IBM, denen verdankt AMD genauso viel also wie damals schon Intel)
@Tesseract
Immernoch nein. Wie in #6814 bereits. Das wird auch langsam langweilig...
Langlay
2022-10-05, 16:37:17
Twitch geht glaub nur bis zu ~60 Hz. Die 400 Hz wirst du im Stream nicht sehen. Die Datenmenge wäre auch Wahnsinn was man da übertragen werden müsste.
Du kannst auch mehr als 60FPS auf Twitch streamen, das Problem bei Twitch ist die Bandbreite, du kannst quasi nur 6Mbit Bitrate nutzen und bei den Spielen wo man durch die mehr FPS einen Vorteil hatte sieht das halt selbst in 720p grütze aus. Also wenn man nicht gerade Hearthstone in 720p120 streamen will, isset es auf Twitch eher sinnlos 120 FPS zu streamen.
Gecko_0815
2022-10-05, 16:56:26
Ich habe das alte Seasonic Kabel auf den 12 Pin Stecker für die 3090. Sehe ich das richtig, das das Kabel bei den 4090 ern nur für 150 W taugt, da die beiden Grounds bzw. die 4 zusätzlichen Pins fehlen?
why_me
2022-10-05, 16:57:43
Ja, brauchst ein neues, das die 4 zusätzlichen Pins hat.
BlacKi
2022-10-05, 17:23:57
Diese ganzen Codenamen und Namensanpassung sind nichts anderes als eine Rechtfertigung einfach sehr viel Geld abzugreifen.
ist natürlich kompletter bullshit. als ob die 12gb karte billiger wäre wenn sie 4070 heißen würde. der preis ist so gewählt, damit man die alten karten weiter ohne rießige verluste weiterverkaufen kann. und die 3070 hat schon mal +-1000€ gekostet, schocken tut man damit niemanden mehr. in einigen monaten wenn die alte gen wegverkauft ist, kommt dann der refresh, mit besserer p/€, genau wie bei turing damals, nur etwas früher.
FastAndy
2022-10-05, 17:26:42
verliebt :love2: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition-custom-designs-unboxing/3.html
kann man die irgendwo vorbestellen, jemand was gesehen?
Meridian12
2022-10-05, 17:41:48
verliebt :love2: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition-custom-designs-unboxing/3.html
kann man die irgendwo vorbestellen, jemand was gesehen?
Von vorne ist die ganz schön hässlich. Hat den Lock von einem Trainingsanzug aus den 80ern :D
Die angeblichen Tests am 5.10 kommen die noch, weil erst ab zB 18 Uhr Amerikanischer Zeit (also 6pm) erlaubt oder war das Blödsinn geschwafelt von einigen hier im Forum?
PS: 35cm Karte mit 2.5kg. Sorry, dümmer gehts bald nicht mehr. Die 5xxx dann 40cm und 4 kg?
Cubitus
2022-10-05, 17:41:56
verliebt :love2: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition-custom-designs-unboxing/3.html
kann man die irgendwo vorbestellen, jemand was gesehen?
Vor dem 12.10 15 Uhr geht wohl leider nix..
Pro-Shop, NBB oder Caseking listen zumindest.
Mir gefällt die Aorus Master ganz gut, Strix würde auch passen.
Gerne auch wieder ne TUF OC
Badesalz
2022-10-05, 17:43:24
kann man die irgendwo vorbestellen, jemand was gesehen?Jetzt erzähl bloß DU kriegst keine?? :|
Sardaukar.nsn
2022-10-05, 17:51:36
verliebt :love2: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition-custom-designs-unboxing/3.html
kann man die irgendwo vorbestellen, jemand was gesehen?
Hat mir erst nicht so gut gefallen, aber jetzt mit den Detail Bildern... schon gut gemacht. Ist auch 500g schwerer als andere Karten.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition-custom-designs-unboxing/images/asus-card3.jpg
Die Frostbite läuft weiterhin unter dem Radar. Sehr gut :cool:
bbott
2022-10-05, 17:57:10
chiplets sind definitiv eine unsicherheit für RDNA3, besonders auf den mittelklassekarten. im absoluten high-end wo monolithische chips sich dem reticle limit nähern und yields schlecht werden klar ein skalierungsvorteil, aber sie haben ganz klar auch einen overhead der auf GPUs wahrscheinlich größer ist als auf CPUs weil der interconnect nicht latenzkritisch sondern bandbreitenkritisch ist was ihn potenziell fett macht. falls es stimmt dass der inifnity cache auf dem OID sitzt müssen da ganz schöne datenraten durch die interconnects, das frisst transistoren und bei jedem transfer energie. vorteile durch binning bei chiplets (weniger salvage, besser spannungskurve) müssen diesen nachteil erst mal überkommen bevor sie anfangen ein vorteil zu sein.
könnte durchaus sein, dass RDNA3 zur neuen fury wird wo fortschrittliche technologie die im HPC-bereich enorme vorteile bringt diese im "kleinen" rahmen nicht so auspielen kann wie erwartet.
Ja vor allem, weil es schon sein Fury Chiplet CPU gibt den Ryzen 5800X3D!
dargo
2022-10-05, 17:58:36
Der8auer scheint ja voll begeistert von dem spannenden Unboxing zu sein. ;D
3-inoBzDueU
Sardaukar.nsn
2022-10-05, 17:58:40
Falls jemand so verrückt sein sollte...
Y1l_G1pPwhY
bbott
2022-10-05, 18:07:14
Und ja, das Featureset der GF4MX war anders. Und trotzdem war der Name sehr doof weil das Ding weniger konnte als eine GF3.
Die GF4 MX war eine beschnittene GF2, wenn es wenigstens seine GF3 gewesen wäre :freak:
Die 8800 zur 9800 und dann zur 250 zumachen, war auch nice.
Si|encer
2022-10-05, 18:16:13
Da haben schon 100000 Youtuber die 4090 im Einsatz und No info leaked im Netz durch wie schnell die Karten ohne DLSS3 sind ? :freak:
Sardaukar.nsn
2022-10-05, 18:20:29
Da haben schon 100000 Youtuber die 4090 im Einsatz und No info leaked im Netz durch wie schnell die Karten ohne DLSS3 sind ? :freak:
Weiß man doch...
https://i.imgur.com/Q98HkUa.jpg
3090 = in etwa 4080 12GB
DavChrFen
2022-10-05, 18:29:13
Vielleicht erhalten nur seriöse/ die großen einen Treiber vorab und die typischen Youtuber nicht?
robbitop
2022-10-05, 18:29:36
Die GF4 MX war eine beschnittene GF2, wenn es wenigstens seine GF3 gewesen wäre :freak:
Die 8800 zur 9800 und dann zur 250 zumachen, war auch nice.
Die Geforce 4 MX war nicht nur eine beschnittene Geforce 2. Sie hatte immerhin schon die lightspeed memory architecture aus der Geforce 4. Also Z Buffer Kompression, Hirarchial Z Culling etc. Und MSAA Support. Das Ding hat iirc jede Geforce 2 zum Frühstück verspeist. Aber halt keine programmierbare Shader.
Spring
2022-10-05, 18:34:36
Hier bekommt man ja feelings wie damals, als sich ow und aths noch wg der BQ von den Treibern von nv und ATi in die Wolle bekommen haben.
ASUS GeForce RTX 4090 STRIX 2,504 kg
https://i.gifer.com/J19Y.gif
Sardaukar.nsn
2022-10-05, 18:44:34
Einer der interessanteren Unboxings, mit Kritik wird nicht gespart.
3-inoBzDueU
Spring
2022-10-05, 18:49:48
Einer der interessanteren Unboxings, mit Kritik wird nicht gespart.
https://youtu.be/3-inoBzDueU
Sogar er ist pissed. Das sagt doch alles.
prinz_valium_2
2022-10-05, 18:53:42
Zotac
Gaming GeForce RTX 4090 AMP! Extreme Airo: 2,279 Euros
Gaming GeForce RTX 4090 Trinity OC: 2,199 Euros
Gaming GeForce RTX 4090 Trinity: 2,169 Euros
2000€ weniger pro Karte, wäre das absolut okay.
FastAndy
2022-10-05, 19:18:24
DAnke für das video. die aorus, Mashallah! :eek:
ist ja auch so ein klopper. find ich stark
jetzt bin ich hin und hergerissen :biggrin:
welche karte hat denn den größten kühler davon? gewicht sollte auch eher ein vorteil sein
Badesalz
2022-10-05, 19:21:51
13 Heatpipes. Guck einfach, ob die andere nicht 12 oder doch 14 hat...
Hier bekommt man ja feelings wie damals, als sich ow und aths noch wg der BQ von den Treibern von nv und ATi in die Wolle bekommen haben.Du erinnerst dich noch daran? ;)
Ex3cut3r
2022-10-05, 19:34:09
DAnke für das video. die aorus, Mashallah! :eek:
ist ja auch so ein klopper. find ich stark
jetzt bin ich hin und hergerissen :biggrin:
welche karte hat denn den größten kühler davon? gewicht sollte auch eher ein vorteil sein
Bei dir läuft es es doch schon wie bei der 3090 auf eine Manli Billig Version von Amazon aus...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12673433&postcount=3384
Snoopy69
2022-10-05, 19:47:44
Wie "winzig" die 4090FE wirkt :ulol:
https://www.computerbase.de/forum/attachments/hjukhgjk-png.1267289/
https://www.computerbase.de/forum/attachments/ghjvhj-png.1267291/
NgbQupKmjQ0
FastAndy
2022-10-05, 19:52:11
ja :smile:
https://i.redd.it/2kw2f2ex8sp91.png
weiß nicht ob das schon verlinkt wurde.
demnach wäre die die größte karte die aurus, falls da keine fehlen.
schaut euch die mal gegen die 4090 an:
https://abload.de/img/ggshtfni.jpg (https://abload.de/image.php?img=ggshtfni.jpg)
:eek::eek::eek:
heißt nun natürlich nicht, dass der kühler am besten ist. den platz hab ich aber sowieso (Enthoo Elite).
die strix ist da eher im mittelfeld was die größe angeht. fand die bei der 3090 aber super (hab die noch drin).
Timolol
2022-10-05, 19:53:06
So ein Heizkörper hat in nem Gehäuse eigentlich rein garnix mehr zu suchen. So ein Klopper kannst doch so hinstellen. "Slot" für nen Mainboard und SSd, Netzteil drunter. Fertig...
Bin mal gespannt obs auch Single Slot Lösungen mit 250mm Länge wie bei der 3090 gibt.
FastAndy
2022-10-05, 19:59:03
So ein Heizkörper hat in nem Gehäuse eigentlich rein garnix mehr zu suchen. So ein Klopper kannst doch so hinstellen. "Slot" für nen Mainboard und SSd, Netzteil drunter. Fertig...
Bin mal gespannt obs auch Single Slot Lösungen mit 250mm Länge wie bei der 3090 gibt.
heizkörper? die heizt auch nicht mehr wie eine FE, wenn beide die gleiche wattzahl ziehen dürfen. zumindest nach meiner verständnis
Timolol
2022-10-05, 20:02:06
heizkörper? die heizt auch nicht mehr wie eine FE, wenn beide die gleiche wattzahl ziehen dürfen. zumindest nach meiner verständnis
Schon. Deswegen ist die Founders auch das "beste" Design.
Snoopy69
2022-10-05, 20:06:34
heißt nun natürlich nicht, dass der kühler am besten ist. den platz hab ich aber sowieso (Enthoo Elite).
die strix ist da eher im mittelfeld was die größe angeht. fand die bei der 3090 aber super (hab die noch drin).
Besser, als die FE wird die Gigabyte schon kühlen
Macht aber wenig Sinn, wenn die FE schon nicht drosselt bzw. wenn kein OC betrieben wird
Wie 2020 ist die FE wieder die schönste Luftkarte :up:
(hab aber Wakü :rolleyes: )
Neurosphere
2022-10-05, 20:17:37
Wakü drauf und gut. Ich hoffe das recht bald Blöcke für die OC Karten kommen. Dann noch gucken was AMD liefert und ab dafür.
Meridian12
2022-10-05, 20:32:20
Spätestens bei der 6090 wird das Motherboard mit CPU und RAM IN die Grafikkarte eingebaut :D
Timolol
2022-10-05, 20:38:46
Spätestens bei der 6090 wird das Motherboard mit CPU und RAM IN die Grafikkarte eingebaut :D
Und dann mit Wetterfestem Montagekit für die Außenfassade. Dann brauchst nur den Monitor und USB Gedöhns in der Wand einstecken...
basix
2022-10-05, 20:39:29
Bei der FE hat man den Vorteil, dass ein Teil hinten zum Gehäuse rausgeht. Weiss man eigentlich, wie viel das ist? Also wie warm es im Rest des Gehäuses wird verglichen mit Partnerkarten und Triple Axial?
Snoopy69
2022-10-05, 20:39:49
@Neurosphere
Hab gestern auf Verdacht hin einen Ref-Block bei ALC bestellt
https://www.alphacool.com/shop/grafikkarten-wasserkuehler/nvidia-fullsize/30435/alphacool-eisblock-aurora-acryl-gpx-n-rtx-4090-reference-mit-backplate
Für Zotac gibt es auch schon Blöcke. Ein paar Shops in DE und einige bei AliExpress verkaufen auch schon welche. Kommen aber frühstestens ab 26.10
Sardaukar.nsn
2022-10-05, 20:48:59
Wakü drauf und gut. Ich hoffe das recht bald Blöcke für die OC Karten kommen. Dann noch gucken was AMD liefert und ab dafür.
Ganz so sorglos ist man in der Wakü-Szene auch nicht mehr. Der Verlust von EVGA ist schon deutlich zu spüren. Zuletzt war das die einzige Firma die den Kühler Umbau inkl Garantie erlaubt hat.
Auch wenn es sich die Kunden leisten können, eine Strix kaufen und den bombastischen Luftkühler quasi wegwerfen stößt auch vielen echt sauer auf.
Meiner Meinung nach müssten wir zu einem Markt wie bei den den CPUs kommen. Wo es ein breites Angebot an "tray" CPUs gibt und der Kunde sucht sich dann einen Kühler der Wahl aus.
Nvidia bietet die 4090 FE für 1950€ an. Warum denn nicht eine nackte\tray GPU auf Referenz PCB für 1800€ und der Kunde kümmert sich um die Kühlung. So wie beim CPU.
Neurosphere
2022-10-05, 20:51:10
Ganz so sorglos ist man in der Wakü-Szene auch nicht mehr. Der Verlust von EVGA ist schon deutlich zu spüren. Zuletzt war das die einzige Firma die den Kühler Umbau inkl Garantie erlaubt hat.
Auch wenn es sich die Kunden leisten können, eine Strix kaufen und den bombastischen Luftkühler quasi wegwerfen stößt auch vielen echt sauer auf.
Meiner Meinung nach müssten wir zu einem Markt wie bei den den CPUs kommen. Wo es ein breites Angebot an "tray" CPUs gibt und der Kunde sucht sich dann einen Kühler der Wahl aus.
AFAIK erlauben Asus und Zotac das auch. MSI und GB bin ich mir nicht ganz sicher.
Snoopy69
2022-10-05, 20:52:12
ASMR für Männer :freak:
Oxcc-KNygHA
basix
2022-10-05, 21:03:16
ASMR für Männer :freak:
https://youtu.be/Oxcc-KNygHA
:D
wolik
2022-10-05, 21:04:08
Nvidia bietet die 4090 FE für 1950€ an. Warum denn nicht eine nackte\tray GPU auf Referenz PCB für 1800€ und der Kunde kümmert sich um die Kühlung. So wie beim CPU.
Weil das ist 0,001% Kundschaft? Mit Garantieproblemen ( Kühlung wird Kundensache)
Bis jetzt geht kein "Yotuber" auf Garantie ein. Und das ist das wichtigste Kriterium von allen. Ich spreche aus Erfahrung. Für Reparatur oder (nicht weniger wichtig) Wiederverkauf.
Und bisher ist Auros Master mit 4 Jahren definitiv mein Favorit (ich spiele mit dem Gedanken, dass ich mit der 4090 (wie mit der 3900X) keine "andere" Karte brauche).
Strix wird kaum mehr Übertaktung als FE (5%?) für 100 Watt mehr Verbrauch? bitten. Außerdem ziemlich unattraktives Design. Einfach ein Brett aus 80 :)
TUF ist toll, und ich denke die ist mit 3 Jahren Garantie ( info gibts derzeit nichts), aber nicht über 2200 Euro.
Ich werde mehrere Karten bei mehreren Anbietern kaufen. (Es gab schon eine Stornierung, weil Verkäufer, ASUS, Karte nicht liefern konnte)
Und ich will auf jeden Fall am 13-14.10 mein wichtigstes Hobby zelebrieren. :)
Timolol
2022-10-05, 21:26:37
Und ich will auf jeden Fall am 13-14.10 mein wichtigstes Hobby zelebrieren. :)
Auf Retropornos sich den Aal massieren?
Snoopy69
2022-10-05, 21:37:30
Ich werde mehrere Karten bei mehreren Anbietern kaufen. (Es gab schon eine Stornierung, weil Verkäufer, ASUS, Karte nicht liefern konnte)
Und ich will auf jeden Fall am 13-14.10 mein wichtigstes Hobby zelebrieren. :)
Musst nur Geduld haben. Ich musste auf meine Strix ganze 4 Monate warten. Die mussten liefern, da Vorkasse :wink:
wolik
2022-10-05, 21:55:58
Auf Retropornos sich den Aal massieren?
Aal? :confused:
Musst nur Geduld haben. Ich musste auf meine Strix ganze 4 Monate warten. Die mussten liefern, da Vorkasse :wink:
Wie schon gesagt. Gekauft (versucht) werden FE / Auros Master / Strix oder TUF.
Eine davon bleibt im Rechner.
Bei FE:
++ Preis
+ 600 Watt BIOS (Igor Info)
- 2 Jahre Garantie
+ 3 Jahre Garantie
Snoopy69
2022-10-05, 22:21:39
Oh, hat NV von 3 auf 2 Jahre reduziert?
https://www.hardwareluxx.de/community/attachments/1663423968554-png.793566/
wolik
2022-10-05, 22:37:11
Oh, hat NV von 3 auf 2 Jahre reduziert?
https://www.hardwareluxx.de/community/attachments/1663423968554-png.793566/
Thx!
FE:
+ 3 Jahre Garantie
https://www.nvidia.com/de-de/support/warranty/
Thunderburne
2022-10-05, 22:42:24
Bei Gigabyte geschaut erweiterbar bei registrieren auf 4Jahre!
Nazar
2022-10-05, 22:50:43
Ja, aber viele Postings wegen dem Thema würdest du im Elektro-Auto schreiben? Hyundai macht es exakt identisch: https://konfigurator.hyundai.de/configure/ioniq-5/46/V2/183/trims/146/motors
Tesla hat mal Model 3 Fahrzeuge mit verschiedenen Batteriearten verkauft...
Ich denke, jeder weiß es jetzt.
Wie kann man nur so extrem unbedarft sein? :rolleyes:
Seit wann kann man sich seine Grafikkarte beim Kauf zusammenstellen?
Denn genau das macht man, wenn man ein Auto kauft, selbst bei einem elektrischen!
Die GPU: Ada 103-4
CUDA Einheiten
VRAM
etc.
Also was für selten dämliche Vergleiche wirst du noch aus dem Hut zaubern, um zu beweisen, dass du absolut !!!!keine!!!! Ahnung davon hast, von dem was du hier schreibst!? :freak:
Neurosphere
2022-10-06, 07:45:48
https://www.chiphell.com/thread-2448461-1-1.html
Testergebnisse einer 4080 (vermutlich) 16GB.
Sardaukar.nsn
2022-10-06, 08:32:27
Bei Galaxus kann man die Strix schon kaufen. Mit leichtem Preisaufschlag: https://www.galaxus.de/de/s1/product/asus-rog-strix-geforce-rtx-4090-oc-edition-24-gb-grafikkarte-22557847?supplier=2705624
Haben im anderen Forum aber tatsächlich welche gemacht: https://i.imgur.com/khNk0r0.jpeg
Ansonsten vielleicht noch interessant. Optimus PC mit Wasserkühler für Strix und TUF. https://imgur.com/a/uCM9dLU
dargo
2022-10-06, 08:32:52
https://www.chiphell.com/thread-2448461-1-1.html
Testergebnisse einer 4080 (vermutlich) 16GB.
Ziemlich ernüchternd im Rasterizer. Wenn ich es richtig verstehe wurde da bei RotTR DLSS-Q verwendet und in SotTR nativ 4k? Das würde für SotTR bedeuten die 4080 16GB ist gerade mal 50% schneller als die 6800XT.
https://abload.de/thumb/shadowofthetombraidernkcmk.png (https://abload.de/image.php?img=shadowofthetombraidernkcmk.png)
Und das bei 320W @4nm oder sogar etwas mehr je nachdem ob FE oder Custom?
Edit:
Oder wurde mit RT-Schatten gemessen? In dem Fall würde es besser für Ada aussehen.
Ach verdammt... falsche Sprache. :D
Jetzt verstehe ich es. Das erste Spiel ist nicht RotTR sondern RDR2. :freak: Erster Test von RDR2 ohne DLSS, zweiter mit. Und SotTR wurde mit DLSS-Q in 4k gemessen.
Edit 2:
Diesmal richtig verglichen (max. Details + max. RT), ist aber nur ein relativ grober Vergleich da ich DLSS/FSR in SotTR nicht anwenden kann und somit beim DLSS-Overhead etwas raten muss.
https://abload.de/thumb/shadowofthetombraiderghigw.jpg (https://abload.de/image.php?img=shadowofthetombraiderghigw.jpg)
Wenn der DLSS-Overhead bei Ada 1ms beträgt wäre die 4080 16GB 61% schneller. Bei 1,5ms DLSS-Overhead wären es +74%, bei 2ms + 89%.
Adam D.
2022-10-06, 08:48:59
Die Ergebnisse sehen legit aus, woher hat der Typ funktionierende Treiber?
DrFreaK666
2022-10-06, 08:52:59
Bei Galaxus kann man die Strix schon kaufen. Mit leichtem Preisaufschlag: https://www.galaxus.de/de/s1/product/asus-rog-strix-geforce-rtx-4090-oc-edition-24-gb-grafikkarte-22557847?supplier=2705624
Haben im anderen Forum aber tatsächlich welche gemacht: https://i.imgur.com/khNk0r0.jpeg
Ansonsten vielleicht noch interessant. Optimus PC mit Wasserkühler für Strix und TUF. https://imgur.com/a/uCM9dLU
3250€? Ist da ein Zahlendreher?
Cubitus
2022-10-06, 08:56:03
3250€? Ist da ein Zahlendreher?
glaube die scalpen einfach, weil Sie nur eine Karte bekommen haben ;D
DrFreaK666
2022-10-06, 09:00:29
Ohne Treiber wird man damit wenig Freude haben
dargo
2022-10-06, 09:04:51
Bei Galaxus kann man die Strix schon kaufen. Mit leichtem Preisaufschlag: https://www.galaxus.de/de/s1/product/asus-rog-strix-geforce-rtx-4090-oc-edition-24-gb-grafikkarte-22557847?supplier=2705624
3.425,40€. ;D ;D ;D Aber immerhin Versand kostenlos. :D
Sardaukar.nsn
2022-10-06, 09:14:26
Ganz interessante Nachrichten vom Igor: https://www.igorslab.de/nvidia-geforce-rtx-4090-wo-der-irrtum-mit-den-600-watt-wirklich-herkommt-und-warum-die-karten-so-riesig-sind/
Ihm zufolge wurden die Karten mit Samsung 8nm-Fertigung (wie Ampere) geplant und dann doch auf TSMC 4nm umgestellt, was den ursprünglich geplanten Stromverbrauch von 600W auf 450W reduziert hat. Dadurch sind die Kühler jetzt überdimensioniert, sollten aber die Karten entsprechend gut kühlen können und leise bleiben. Das deckt sich mit den geleakten Temperaturwerten von Mitte 50°C.
Zudem gibt es scheinbar noch ordentlich Overclocking Potential. Bei wwcftech konnte man wohl mit 3 GHz die TFLOPs auf 100 bringen, was +20% OC wären.
Cubitus
2022-10-06, 09:15:28
Ohne Treiber wird man damit wenig Freude haben
Damals in der Force-Ware konntest du mit einem Text-Editor einfach die ID der GPU in eine Liste eintragen :freak:
Exxtreme
2022-10-06, 09:22:49
Damals in der Force-Ware konntest du mit einem Text-Editor einfach die ID der GPU in eine Liste eintragen :freak:
Das funktioniert aber nur dann wenn die Treiber für Lovelace bereits im Treiberpaket intergriert sind. Sind sie es nicht dann werden sie nicht geladen oder man fängt sich BSODs beim Booten von Windows ein.
Linmoum
2022-10-06, 09:23:51
Ganz interessant Nachrichten vom Igor: https://www.igorslab.de/nvidia-geforce-rtx-4090-wo-der-irrtum-mit-den-600-watt-wirklich-herkommt-und-warum-die-karten-so-riesig-sind/
Ihm zufolge wurden die Karten mit Samsung 8nm-Fertigung (wie Ampere) geplant und dann doch auf TSMC 4nm umgestellt, was den ursprünglich geplanten Stromverbrauch von 600W auf 450W reduziert hat. Dadurch sind die Kühler jetzt überdimensioniert, sollten aber die Karten entsprechend gut kühlen können und leise bleiben.
Das würde auch zu den seinerzeitigen Gerüchten passen, dass Nvidia sich quasi über Nacht bei TSMC mit sehr viel Geld eingekauft hat um noch irgendwie Kapazitäten zu bekommen. Vielleicht sind die Preise ja auch deswegen so hoch und nicht wegen N5 per se. ;D
robbitop
2022-10-06, 09:24:35
Ganz interessant Nachrichten vom Igor: https://www.igorslab.de/nvidia-geforce-rtx-4090-wo-der-irrtum-mit-den-600-watt-wirklich-herkommt-und-warum-die-karten-so-riesig-sind/
Ihm zufolge wurden die Karten mit Samsung 8nm-Fertigung (wie Ampere) geplant und dann doch auf TSMC 4nm umgestellt, was den ursprünglich geplanten Stromverbrauch von 600W auf 450W reduziert hat. Dadurch sind die Kühler jetzt überdimensioniert, sollten aber die Karten entsprechend gut kühlen können und leise bleiben. Das deckt sich mit den geleakten Temperaturwerten von Mitte 50°C.
Zudem gibt es scheinbar noch ordentlich Overclocking Potential. Bei wwcftech konnte man wohl mit 3 GHz die TFLOPs auf 100 bringen, was +20% OC wären.
So ein Schwachsinn. Wundert mich dass Igor sowas schreibt. Der Fertigungsprozess ist sehr früh in der Designphase gesetzt. Die 4 nm stehen sicherlich seit 2,5-3 Jahren fest. Boards und Kühler werden in einem Bruchteil der Zeit designt.
Dazu der Blick auf die Transistoreichte: ein AD102 wäre mit der Transistorzahl in 8 nm gar nicht herstellbar.
Linmoum
2022-10-06, 09:29:06
Und wann kommuniziert das restriktive Nvidia sowas dann abschließend ggü. seinen Partnern, damit ja bloß nichts von denen nach außen dringt? ;)
unl34shed
2022-10-06, 09:30:15
So ein Schwachsinn. Wundert mich dass Igor sowas schreibt. Der Fertigungsprozess ist sehr früh in der Designphase gesetzt. Die 4 nm stehen sicherlich seit 2,5-3 Jahren fest. Boards und Kühler werden in einem Bruchteil der Zeit designt.
Dazu der Blick auf die Transistoreichte: ein AD102 wäre mit der Transistorzahl in 8 nm gar nicht herstellbar.
Genau das hab ich mir auch gedacht, und der letzte Anschnitt zu N31, WTF?
Cubitus
2022-10-06, 09:37:09
3.425,40€. ;D ;D ;D Aber immerhin Versand kostenlos. :D
Im Luxx haben bereits Nutzer zugeschlagen. :freak:
Das funktioniert aber nur dann wenn die Treiber für Lovelace bereits im Treiberpaket intergriert sind. Sind sie es nicht dann werden sie nicht geladen oder man fängt sich BSODs beim Booten von Windows ein.
Schade...
Troyan
2022-10-06, 09:37:44
Jemand mal den XeSS Test ausgeführt? Ich komme mit meiner 3090 auf 28,05 FPS bzw, 38,01 FPS. Die 4080 angeblich auf 76,50 FPS und 100,77 FPS.
Klingt irgendwie unglaublich würdig... Wobei, Raytracing soll ja schneller sein...
Ganz interessant Nachrichten vom Igor: https://www.igorslab.de/nvidia-geforce-rtx-4090-wo-der-irrtum-mit-den-600-watt-wirklich-herkommt-und-warum-die-karten-so-riesig-sind/
Ihm zufolge wurden die Karten mit Samsung 8nm-Fertigung (wie Ampere) geplant und dann doch auf TSMC 4nm umgestellt, was den ursprünglich geplanten Stromverbrauch von 600W auf 450W reduziert hat. Dadurch sind die Kühler jetzt überdimensioniert, sollten aber die Karten entsprechend gut kühlen können und leise bleiben. Das deckt sich mit den geleakten Temperaturwerten von Mitte 50°C.
Zudem gibt es scheinbar noch ordentlich Overclocking Potential. Bei wwcftech konnte man wohl mit 3 GHz die TFLOPs auf 100 bringen, was +20% OC wären.
Wie soll sowas auf 8nm möglich sein? Stimmt nicht...
Triniter
2022-10-06, 09:42:22
So ein Schwachsinn. Wundert mich dass Igor sowas schreibt. Der Fertigungsprozess ist sehr früh in der Designphase gesetzt. Die 4 nm stehen sicherlich seit 2,5-3 Jahren fest. Boards und Kühler werden in einem Bruchteil der Zeit designt.
Dazu der Blick auf die Transistoreichte: ein AD102 wäre mit der Transistorzahl in 8 nm gar nicht herstellbar.
Vor allem widerspricht er damit quasi allem was er früher immer erzählt hat. Ich bin jetzt zwar zu weit weg von der eigentlichen Chipfertigung, würde aber mal annehmen das ohne eine definierte Vorlaufzeit (und die ist sicher nicht nur ein paar Wochen) kann man keine Chips produzieren, somit muss die Entscheidung für den Chiphersteller definitiv vor dem Kühlerdesign getroffen werden.
So ein Schwachsinn. Wundert mich dass Igor sowas schreibt. Der Fertigungsprozess ist sehr früh in der Designphase gesetzt. Die 4 nm stehen sicherlich seit 2,5-3 Jahren fest. Boards und Kühler werden in einem Bruchteil der Zeit designt.
Dazu der Blick auf die Transistoreichte: ein AD102 wäre mit der Transistorzahl in 8 nm gar nicht herstellbar.
Sehe ich ähnlich. Den einfach zu wechseln geht nicht, da muss man schon teils von vorn beginnen. Ich bezweifle, dass eine Prozessänderung noch Mitte 21 möglich gewesen wäre, vielleicht irre ich mich aber auch. Allerdings muss ja was dran sein an der Story, denn er hat das ja offensichtlich von einigen Kartenherstellern. Die können natürlich auch viel BS erzählen. Aber ich vermute, dass es da einen wahren Kern gibt, aber anders als Igor da zusammenspekuliert. Diese Story scheitert ja schon daran, dass AD102 in 8LPP schlichtweg 1000mm² groß wäre...
Exxtreme
2022-10-06, 09:48:18
Wie soll sowas auf 8nm möglich sein? Stimmt nicht...
Möglich wäre es schon möglicherweise wenn man viel niedriger takten würde.
Aber ansonsten ist der Artikel von Igor echt BS. Wie richtig angemerkt, man kann den Prozess nicht einfach über Nacht wechseln ohne ein komplettes Redesign des Chips. Die Leckströme sind anders, die kritischen Pfade werden anders, das Verhalten der Transistoren wird anders etc. Bestehenden Chip einfach schrumpfen ist so nicht drin.
Linmoum
2022-10-06, 09:49:50
Er schreibt ja auch nicht, dass Nvidia einfach so den Prozess gewechselt hat. Aber wie gesagt, gerade wenn es um Partner geht ist die Frage halt, wie es mit der Kommunikation aussieht.
Ich kann mich damals bei Ampere zu Anfang noch an Kartons erinnern, auf denen 7nm als Prozess draufstand. ;)
Dural
2022-10-06, 09:51:29
Selten so ein Schwachsinn gelesen! Ada wird schon seit Jahren in 5nm (4nm) geplant, ein AD102 wäre in 8nm technisch gar nicht möglich.
Wie von mir schon immer gesagt, die 600Watt+ waren schon immer völliger Blödsinn von irgendwelchen Trolle, Wichtigtuer und Möchtegerns. Selbst eine 4090Ti mit full AD102 wird kaum sinnvoll mit 600Watt+ betrieben werden können, das wäre maximale Brechstange und ich bezweifle das das überhaupt noch sinnvoll skalieren würde. Die haben damals ja gesagt das es sogar erst ab 600Watt anfängt, und man konnte Werte bis 900Watt lesen ;D
Igor reimt sich seit Jahren irgend ein Blödsinn aus den Gerüchten zusammen und verkauft es dann als echte "Leaks" von ihm. Der hat kaum brauchbare Quellen. Am besten finde ich ja da seine PCB "Leaks", sorry aber das würde jeder 10 Jähriger noch hinbekommen... ;)
robbitop
2022-10-06, 09:53:04
Möglich wäre es schon möglicherweise wenn man viel niedriger takten würde.
AD102 würde mehr als deutlich das Flächenlimit überschreiten in 8 nm und wäre damit ~1600 mm² groß. Das ist nicht herstellbar.
Die Story bekommt natürlich nen anderen Spin, wenn man 8LPP durch 6LPP ersetzt.
Fragman
2022-10-06, 09:55:51
Diese Story scheitert ja schon daran, dass AD102 in 8LPP schlichtweg 1000mm² groß wäre...
Das erklärt dann auch die aktuellen Preise.
Bei der Gestaltung haben sie vergessen, den kleinen statt den gro0en Prozess mit in die Kalkulation aufzunehmen. :freak:
Exxtreme
2022-10-06, 09:58:11
AD102 würde mehr als deutlich das Flächenlimit überschreiten in 8 nm und wäre damit ~1600 mm² groß. Das ist nicht herstellbar.
Gleich so groß? Ja, OK. Dan ist diese Story noch mehr BS. :)
why_me
2022-10-06, 10:01:48
Logischer wäre doch, dass Nvidia nichts zur TDP gesagt hat und nur den 12Pin Stecker vorgegeben hat für das Board Design. Da mussten die AIBs dann vom schlimmsten ausgehen -> 600W.
Der Teil mit dem Abstand zwischen der "4080" und der 4080 um Platz für Navi zu lassen, ist doch totaler Schwachsin. Als ob Nvidia ihre "4080" von AMD schlagen lassen will. Da nennt man die doch eher 4060ti und 4070, damit AMD erst garnicht an die 4080 heran kommt.
Nur könnte Nvidia dann nicht >1000€ rechtfertigen und würde die Lagerbestände der 30er kanibalisieren.
Sardaukar.nsn
2022-10-06, 10:14:30
Logischer wäre doch, dass Nvidia nichts zur TDP gesagt hat und nur den 12Pin Stecker vorgegeben hat für das Board Design. Da mussten die AIBs dann vom schlimmsten ausgehen -> 600W.
Die FE hat schließlich auch das große Powerlimit bekommen.
https://i.imgur.com/aOCetZT.jpg
Wenn es nicht ausgenutzt wird, ist doch okay. Aber alle Partner müssen wohl mit einer deutlichen Steigerung gegenüber der 3090 Ti gerechnet haben, sonst wären die Kühler nicht so gewachsen.
Troyan
2022-10-06, 10:18:04
Vielleicht haben die auch einfach die Zeit genutzt vernünftige Kühllösungen zu designen. 450W ist absolutes High-End, da kann man auch das beste erwarten.
Die Asus TUF 3090TI läuft mit 52db im Gehäuse: https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/3/#abschnitt_lautstaerke__kuehlung
Triniter
2022-10-06, 10:26:13
Die Lautstärke meiner Ventus 3090 wäre durchaus ein sehr valides Argument für ein Upgrade aber nicht zu dem Preis
Neurosphere
2022-10-06, 11:12:49
Was zu der Aussage von Igor allerdings nicht passt ist das die 4080 16GB den gleichen kühler spendiert bekommt.
Es liegt eigentlich viel näher das man weniger verschiedene Versionen an Boards und kühlern vorgesehen hat und man sich beim kühler deswegen gleich an einer 4090 TI oder Titan orientiert hat
Dural
2022-10-06, 11:32:39
Die Story bekommt natürlich nen anderen Spin, wenn man 8LPP durch 6LPP ersetzt.
NV hat die 4nm Kapazitäten schon vor 2 Jahren gebucht, irgendwo hat das Jensen sogar mal gesagt.
Vor zwei Jahren hat noch gar keiner an irgendeinem Kühler oder PCB für Ada gearbeitet :rolleyes:
Ich sage sogar das die 450Watt bei der 4090 für NV schon seit sehr langer Zeit relativ fest standen: die 3090Ti war ein Versuch in diese Richtung um Erkenntnisse für Ada zu gewinnen.
Die Story ist einfach Blödsinn.
-=Popeye=-
2022-10-06, 11:33:07
Ziemlich ernüchternd im Rasterizer. Wenn ich es richtig verstehe wurde da bei RotTR DLSS-Q verwendet und in SotTR nativ 4k? Das würde für SotTR bedeuten die 4080 16GB ist gerade mal 50% schneller als die 6800XT.
https://abload.de/thumb/shadowofthetombraidernkcmk.png (https://abload.de/image.php?img=shadowofthetombraidernkcmk.png)
Und das bei 320W @4nm oder sogar etwas mehr je nachdem ob FE oder Custom?
Edit:
Oder wurde mit RT-Schatten gemessen? In dem Fall würde es besser für Ada aussehen.
Ach verdammt... falsche Sprache. :D
Jetzt verstehe ich es. Das erste Spiel ist nicht RotTR sondern RDR2. :freak: Erster Test von RDR2 ohne DLSS, zweiter mit. Und SotTR wurde mit DLSS-Q in 4k gemessen.
Edit 2:
Diesmal richtig verglichen (max. Details + max. RT), ist aber nur ein relativ grober Vergleich da ich DLSS/FSR in SotTR nicht anwenden kann und somit beim DLSS-Overhead etwas raten muss.
https://abload.de/thumb/shadowofthetombraiderghigw.jpg (https://abload.de/image.php?img=shadowofthetombraiderghigw.jpg)
Wenn der DLSS-Overhead bei Ada 1ms beträgt wäre die 4080 16GB 61% schneller. Bei 1,5ms DLSS-Overhead wären es +74%, bei 2ms + 89%.
Wieso nimmst du nicht einfach XeSS zum Vergleich, dass funktioniert prima auf einer Radeon.
https://abload.de/thumb/sottr_2022_10_06_11_09yd8w.jpg (https://abload.de/image.php?img=sottr_2022_10_06_11_09yd8w.jpg)
https://abload.de/thumb/sottr_2022_10_06_11_0iqcng.jpg (https://abload.de/image.php?img=sottr_2022_10_06_11_0iqcng.jpg)
Troyan
2022-10-06, 11:58:50
Zusammenfassung der Maße der vorgestellten Karten: https://www.reddit.com/r/sffpc/comments/xmp4s9/physical_dimensions_of_rtx_4090_models/
FE ist die kampakteste.
The_Invisible
2022-10-06, 12:03:14
Bei Galaxus kann man die Strix schon kaufen. Mit leichtem Preisaufschlag: https://www.galaxus.de/de/s1/product/asus-rog-strix-geforce-rtx-4090-oc-edition-24-gb-grafikkarte-22557847?supplier=2705624
Haben im anderen Forum aber tatsächlich welche gemacht: https://i.imgur.com/khNk0r0.jpeg
Ansonsten vielleicht noch interessant. Optimus PC mit Wasserkühler für Strix und TUF. https://imgur.com/a/uCM9dLU
Schon ausverkauft um 3,4k das Stück, NV wird jetzt schon wissen was sie beim nächsten Launch machen ;D
fondness
2022-10-06, 12:13:15
natürlich, was denn sonst? jeder komplexere chip mit strikten anforderungen an signalintegrität und spannung wird gebinnt. erstens werden die chiplets ziemlich sicher synchron mit der gleichen spannung betrieben und zweitens gibt es sicher SKUs mit unterschiedlich schnellem GDDR und dafür wird es garantiert gebinnte zusammenpassende chiplets geben. yield ist hier verhältnismäßig natürlich ein größerer faktor als bei monolithischen chips.
Ich bitte dich. Das glaubst du doch selbst nicht. Cache ist unkritisch und ein SI ebenso. Das Binning von Chiplets ist bei den CPUs ein extremer Vorteil, keine Frage. Aber so wie das GPU-Design aufgebaut ist, geht es da primär um Kosten.
Troyan
2022-10-06, 12:33:53
Mit dem geleakten AIDA Memory Copy Benchmark sieht man die Auswirkung des vergrößerten L2 Cache bei Lovelace:
RTX4080 (256bit, 22gbits/s, 64MB L2) -> 1.758.242 MB/s
RTX3070TI (256bit, 19gbits/s, 4MB L2) -> 524.456 MB/s
Nach den geleakten Firestrike und Timespy Zahlen, ist die 4080 16GB ~89% schneller. Zum Vergleich, die 3070 war im Timespy bei der Verdopplung der FP32 Leistung ~40% schneller als die 2080.
Nazar
2022-10-06, 12:47:41
Laut dieser Benchmarkserie (https://www.guru3d.com/news-story/assumed-nvidia-geforce-rtx-4080-16gb-3dmark-performance-benchmarks-leaked.html) ist die 4080 16GB gerade mal 10% schneller in TSE als meine 3090 (!!nicht!! Ti) und im Port Royal Benchmark gerade einmal 30% schneller.
Sollte es sich in den Spielen nachher ähnlich verhalten, wie damals die 3090 zur 2080 Ti, bleiben in den Spielen nicht mal mehr 7% (RZ) und 20% (RTX) über).
Sollte sich das so bewahrheiten, wird die 4080 12 GB nicht mal in der Nähe einer 3090 (!!nicht!! Ti) kommen, besonders wenn es um 4K und hoher BQ geht.
Interessant wären jetzt diese Benchmarkwerte von einer 4090FE
E: Meine 3DMark XeSS Werte:
Xess off: 57.74 FPS
XeSS on: 75.25 FPS
Performance difference: 30.3%
mksn7
2022-10-06, 12:52:23
Mit dem geleakten AIDA Memory Copy Benchmark sieht man die Auswirkung des vergrößerten L2 Cache bei Lovelace:
RTX4080 (256bit, 22gbits/s, 64MB L2) -> 1.758.242 MB/s
RTX3070TI (256bit, 19gbits/s, 4MB L2) -> 524.456 MB/s
Nach den geleakten Firestrike und Timespy Zahlen, ist die 4080 16GB ~89% schneller. Zum Vergleich, die 3070 war im Timespy bei der Verdopplung der FP32 Leistung ~40% schneller als die 2080.
Nachdem sich der Test "Memory Copy Benchmark" nennt, würde ich behaupten dass er sein Ziel verfehlt. Da hat jemand das data set nicht groß genug gewählt, sonst dürfe der cache nichts bringen.
Troyan
2022-10-06, 13:00:50
Nachdem sich der Test "Memory Copy Benchmark" nennt, würde ich behaupten dass er sein Ziel verfehlt. Da hat jemand das data set nicht groß genug gewählt, sonst dürfe der cache nichts bringen.
:confused:
Memory Copy
Measures the performance of the GPU's own device memory, effectively measuring the performance the GPU can copy data from its own device memory to another place in the same device memory. It is also called Device-to-Device Bandwidth. The CPU benchmark measures memory copy bandwidth, that is, how fast the CPU can move data in the system memory from one place to another.
https://aida64.co.uk/user-manual/tools/gpgpu-benchmark
Skaliert bei AMD z.B. mit der größe des IF Caches. Hier z.B. auch 5700XT und 6700XT: https://www.thefpsreview.com/2021/03/23/radeon-rx-6700-xt-slow-in-productivity-workstation-performance/3/
dargo
2022-10-06, 13:14:39
Im Luxx haben bereits Nutzer zugeschlagen. :freak:
Paar Verrückte gibts überall. ;)
Wieso nimmst du nicht einfach XeSS zum Vergleich, dass funktioniert prima auf einer Radeon.
https://abload.de/thumb/sottr_2022_10_06_11_09yd8w.jpg (https://abload.de/image.php?img=sottr_2022_10_06_11_09yd8w.jpg)
https://abload.de/thumb/sottr_2022_10_06_11_0iqcng.jpg (https://abload.de/image.php?img=sottr_2022_10_06_11_0iqcng.jpg)
Weil XeSS mehr Overhead hat bzw. teurer ist vs. DLSS 2.x/FSR 2.x.
dildo4u
2022-10-06, 13:25:08
Raster scheint zumindest auf der 4090 gut zu zu legen ca auf Level mit den Mainstream Karten.(Preis/Leistung)
https://youtu.be/2XiWGuEFCbE?t=190
Das ganze Zeigt aber auch wie mies der Markt im Mainstream gerade ist.
FastAndy
2022-10-06, 13:47:14
Bei Galaxus kann man die Strix schon kaufen. Mit leichtem Preisaufschlag: https://www.galaxus.de/de/s1/product/asus-rog-strix-geforce-rtx-4090-oc-edition-24-gb-grafikkarte-22557847?supplier=2705624
Haben im anderen Forum aber tatsächlich welche gemacht: https://i.imgur.com/khNk0r0.jpeg
Ansonsten vielleicht noch interessant. Optimus PC mit Wasserkühler für Strix und TUF. https://imgur.com/a/uCM9dLU
oh man, natürlich genau dann wenn ich nicht online bin :mad:
war das überhaupt seriös?
TurricanM3
2022-10-06, 13:55:06
Kannst sie mir ja abkaufen, wenn sie wirklich geliefert wird. :biggrin:
The_Invisible
2022-10-06, 14:10:18
Also doch wer von hier auch dabei :D
Bin ja gespannt wie die Verfügbarkeit wird, ähnlich Zen4 wär ja geil aber glaub nicht daran
soLofox
2022-10-06, 14:27:49
Bei Galaxus kann man die Strix schon kaufen. Mit leichtem Preisaufschlag: https://www.galaxus.de/de/s1/product/asus-rog-strix-geforce-rtx-4090-oc-edition-24-gb-grafikkarte-22557847?supplier=2705624
Haben im anderen Forum aber tatsächlich welche gemacht: https://i.imgur.com/khNk0r0.jpeg
Ansonsten vielleicht noch interessant. Optimus PC mit Wasserkühler für Strix und TUF. https://imgur.com/a/uCM9dLU
Kannst du mir nicht erzählen, das machen die Leute vielleicht um Aufmerksamkeit auf sich zu ziehen. Die Strix 4090 kann man bei NBB demnächst für 2349€ vorbestellen, welcher Depp gibt - selbst wenn er die Kohle so rumliegen hat - 1000€ just for fun mehr aus?
https://www.notebooksbilliger.de/asus+rog+strix+geforce+rtx+4090+oc+grafikkarte+781798
Ex3cut3r
2022-10-06, 14:33:26
Kannst du mir nicht erzählen, das machen die Leute vielleicht um Aufmerksamkeit auf sich zu ziehen. Die Strix 4090 kann man bei NBB demnächst für 2349€ vorbestellen, welcher Depp gibt - selbst wenn er die Kohle so rumliegen hat - 1000€ just for fun mehr aus?
https://www.notebooksbilliger.de/asus+rog+strix+geforce+rtx+4090+oc+grafikkarte+781798
Wieso Depp? Lass Sie doch, wenn Sie wollen, einen haben wir schon hier:
Kannst sie mir ja abkaufen, wenn sie wirklich geliefert wird. :biggrin:
FastAndy
2022-10-06, 14:42:31
Kannst du mir nicht erzählen, das machen die Leute vielleicht um Aufmerksamkeit auf sich zu ziehen. Die Strix 4090 kann man bei NBB demnächst für 2349€ vorbestellen, welcher Depp gibt - selbst wenn er die Kohle so rumliegen hat - 1000€ just for fun mehr aus?
https://www.notebooksbilliger.de/asus+rog+strix+geforce+rtx+4090+oc+grafikkarte+781798
was sollen diese beleidigungen immer, nur weil das geld lockerer sitzt? mir sind 1k mehr oder weniger nicht so wichtig, da bin ich ganz offen. ich hab die karte vermutlich sowieso wieder 2 jahre oder noch länger. ich hab keine lust meine zeit damit zu verschwenden, hier vor dem bildschirm zu sitzen in lauerstellung oder dann leer auszugehen. würde viel lieber auch jetzt bestellen und dann einfach die lieferung abwarten.
wolik
2022-10-06, 14:52:53
Übrigens, es gibt immer noch das Fernabsatzgesetz :wink:
Cubitus
2022-10-06, 14:56:49
Intressantes Video von Igor:
1. Die Kühler sind überdimensioniert (600 Watt) und mit 450 Watt bei der 4090, 320 Watt für die 4080 kommt man gut zurecht. Bedeutet aber dann einen schönen Spielraum für effizientes UV und leise Geräuschkulisse. :)
Vermutlich ist es dann so weit fast egal für welches Modell man sich entscheidet. Meine Präferenz ist zwar die FE, aber dennoch die Chance einen wirklichen Föhn von den Partnern zu bekommen sinkt dadurch.
2. Igor spekuliert für die kommende Navi den grünen Rahmen.
Also der neue TopDog von AMD befindet sich zwischen der 12 und 16. GB 4080 von NV.. --> bin damit d'accord habe ja vor ein paar Tagen in die gleiche Richtung spekuliert.
TobiWahnKenobi
2022-10-06, 14:59:28
d'accord
(..)
mfg
tobi
Cubitus
2022-10-06, 15:06:22
d'accord
(..)
mfg
tobi
Danke geändert, meine Rechtschreibkorrektur ist eben nicht mit der französchischen Sprache verseucht. :biggrin:
Inhaltlich stehe ich zu meiner Aussage.
Die neue AMD-GPU wird schwächer als gehypt :)
Und die 40er Generation ist leiser und nicht so durstig wie gedacht.
MiamiNice
2022-10-06, 15:06:31
Hat jemand was anders behauptet? :biggrin:
Es ist AMD, da ist immer schwächer als der Hype suggeriert und hat meist Kinderkrankheiten äh "Eigenheiten".
robbitop
2022-10-06, 15:07:46
Ich könnte mir vorstellen, dass die Geschwindigkeitsdifferenz abhängig vom Anwendungszweck ist. Rastergames kann ich mir gut vorstellen, dass N31 fast 2x N21 schafft. Da könnte man mit AD102 auf Augenhöhe liegen.
Aber wenn man sich mal anschaut, was Nvidia in die Raytracing Hardwarepipeline investiert hat und sieht von wo man mit rdna2 herkommt, ist es sehr wahrscheinlich anzunehmen, dass AMD dort in's Hintertreffen geraten wird. Ich tippe darauf, dass man mit RDNA3 in etwa vergleichbares HW RT Level von Turing/Ampere (level 3) erreicht hat, während Ada mit seinen Änderungen locker level 4 ist.
TurricanM3
2022-10-06, 15:19:15
Also die 4090 Strix OC wurde storniert und kann "nicht mehr" geliefert werden. "Nicht mehr." :rolleyes:
Irgendwie glaube ich, die hatten wenn überhaupt nur ein paar Karten für die allerersten Besteller.
NV hat die 4nm Kapazitäten schon vor 2 Jahren gebucht, irgendwo hat das Jensen sogar mal gesagt.
Vor zwei Jahren hat noch gar keiner an irgendeinem Kühler oder PCB für Ada gearbeitet :rolleyes:
Ich sage sogar das die 450Watt bei der 4090 für NV schon seit sehr langer Zeit relativ fest standen: die 3090Ti war ein Versuch in diese Richtung um Erkenntnisse für Ada zu gewinnen.
Die Story ist einfach Blödsinn.
Naaa Hopper nicht vergessen!
Irgendwann Mitte 2021 kam IIRC die Nachricht, dass NV nochmal 1,2 Mia $ oder sowas für Fertigung extra ausgegeben hat. Das würde eher zu Igors Story passen. Entweder haben wir nen ganz schönen Knick in der Logik, wie NV Grafikchips entwickelt, oder die haben einiges geändert, oder nichts davon ist wahr. Aber irgendwas muss wie gesagt dran sein, wenn Igor das direkt von den AIBs hat.
Cubitus
2022-10-06, 15:23:22
schönes Video zum FE Kühler
g4lHgSMBf80
Sardaukar.nsn
2022-10-06, 15:23:23
Cubitus war schneller ;)
Exxtreme
2022-10-06, 15:23:36
Danke geändert, meine Rechtschreibkorrektur ist eben nicht mit der französchischen Sprache verseucht. :biggrin:
Inhaltlich stehe ich zu meiner Aussage.
Die neue AMD-GPU wird schwächer als gehypt :)
Und die 40er Generation ist leiser und nicht so durstig wie gedacht.
Ich glaube nicht, dass sie GPU "schwach" wird. Sie wird aber wohl im Bereich RT komplett abgezogen werden von Lovelace. Aber gut, AMD ist hier und da immer für eine Überrschung gut. Andererseits ist der Chip nur halb so groß wie Lovelace. Da werden sie auch nicht zaubern können.
Also die 4090 Strix OC wurde storniert und kann "nicht mehr" geliefert werden. "Nicht mehr." :rolleyes:
Irgendwie glaube ich, die hatten wenn überhaupt nur ein paar Karten für die allerersten Besteller.
Sei doch froh, dass dich jemand vor dir selbst beschützt hat. X-D
Neurosphere
2022-10-06, 15:25:41
Ich könnte mir vorstellen, dass die Geschwindigkeitsdifferenz abhängig vom Anwendungszweck ist. Rastergames kann ich mir gut vorstellen, dass N31 fast 2x N21 schafft. Da könnte man mit AD102 auf Augenhöhe liegen.
Aber wenn man sich mal anschaut, was Nvidia in die Raytracing Hardwarepipeline investiert hat und sieht von wo man mit rdna2 herkommt, ist es sehr wahrscheinlich anzunehmen, dass AMD dort in's Hintertreffen geraten wird. Ich tippe darauf, dass man mit RDNA3 in etwa vergleichbares HW RT Level von Turing/Ampere (level 3) erreicht hat, während Ada mit seinen Änderungen locker level 4 ist.
Generell, ist das so?
RT sollte doch mit der Anzahl der Einheiten ziemlich gut skalieren, ich sehe jetzt nicht das man bei 144 (AD102) zu 84 (GA102) Einheiten + mehr Takt deutlich über dem Erwartbaren liegt.
Dural
2022-10-06, 15:27:27
Ihr vergesst vor allem eines: AMD muss und wird massiv Transistoren in RT investieren. Zudem brauchen sie wahrscheinlich schon für sich aus mehr Transistoren, das haben jetzt Ada und Arc ziemlich gut gezeigt.
Also die 4090 Strix OC wurde storniert und kann "nicht mehr" geliefert werden. "Nicht mehr." :rolleyes:
Irgendwie glaube ich, die hatten wenn überhaupt nur ein paar Karten für die allerersten Besteller.
Die Firma gehört zu Digitec, das war nur billiges Marketing, das passt zu denen.
Ex3cut3r
2022-10-06, 15:28:35
Danke geändert, meine Rechtschreibkorrektur ist eben nicht mit der französchischen Sprache verseucht. :biggrin:
Inhaltlich stehe ich zu meiner Aussage.
Die neue AMD-GPU wird schwächer als gehypt :)
Und die 40er Generation ist leiser und nicht so durstig wie gedacht.
Interessant, und woher schließt du das? Glaskugel? Voodoo? Regentanz? Pure Spekulation.
Ich wurde übelst lachen, wenn RDNA 3, 10 oder 5% schneller ist als Lovelace @ Raster, ohne DLSS/FSR 2.1
fondness
2022-10-06, 15:32:29
Ich könnte mir vorstellen, dass die Geschwindigkeitsdifferenz abhängig vom Anwendungszweck ist. Rastergames kann ich mir gut vorstellen, dass N31 fast 2x N21 schafft. Da könnte man mit AD102 auf Augenhöhe liegen.
Aber wenn man sich mal anschaut, was Nvidia in die Raytracing Hardwarepipeline investiert hat und sieht von wo man mit rdna2 herkommt, ist es sehr wahrscheinlich anzunehmen, dass AMD dort in's Hintertreffen geraten wird. Ich tippe darauf, dass man mit RDNA3 in etwa vergleichbares HW RT Level von Turing/Ampere (level 3) erreicht hat, während Ada mit seinen Änderungen locker level 4 ist.
Wenn N31 tatsächlich mit AD102 konkurrieren könnte, hätte NV ein ernsthaftes Problem. Schon alleine was NV an Silizium und TDP investiert liegt Minimum eine Stufe über N31 nach aktueller Spekulationslage. Von daher sollte es klar sein, dass NV vorne sein wird.
r3ptil3
2022-10-06, 15:35:10
Im Lux drehen die Leute schon durch, weil die Galaxus Bestellung storniert wurde. ;D
Wer sich ohne Miner noch verarschen lässt und gerade in den ersten 2-3 Tagen nach Release bei einigen in Gier getränkten Shops bestellt, verdient es nicht anders, wenn die selben Modelle kurz danach locker mal 500 Euro aufwärts günstiger sind.
Bei mir steht vielleicht die Strix und die Master ganz oben.
Die Suprim und die Airo könnten gute Alternativen sein.
Aber über 1700 Euro wird nicht mal daran gedacht was zu bestellen.
Bin absolut überzeugt, dass man im November/Dezember RTX 4090 Modelle für 1500 Euro kaufen kann.
Cubitus
2022-10-06, 15:37:47
Interessant, und woher schließt du das? Glaskugel? Voodoo? Regentanz? Pure Spekulation.
Ich wurde übelst lachen, wenn RDNA 3, 10 oder 5% schneller ist als Lovelace @ Raster, ohne DLSS/FSR 2.1
Als die 4090 meinst du?
Oder als 4080 16GB?
wie gesagt ich sage N31 befindet sich zwischen der 12 GB und der 16 GB Version der 4080, eher näher am 104er
Es gibt Indizien beinahe Fakten, Chipgröße und Fertigungsprozess bei AMD
und wie es Extreme schon sagte, AMD kocht auch nur mit Wasser.
Wenn N31 tatsächlich mit AD102 konkurrieren könnte, hätte NV ein ernsthaftes Problem. Schon alleine was NV an Silizium und TDP investiert liegt Minimum eine Stufe über N31 nach aktueller Spekulationslage. Von daher sollte es klar sein, dass NV vorne sein wird.
Naaa Hopper nicht vergessen!
Irgendwann Mitte 2021 kam IIRC die Nachricht, dass NV nochmal 1,2 Mia $ oder sowas für Fertigung extra ausgegeben hat. [..]
Vielleicht wollten sie die untere Hälfte des Portfolios mit Samsung 8 LPP bedienen, haben es sich dann aber anders überlegt.
Die Großen Chips wären auf dem Samsung Prozess nicht herstellbar.
r3ptil3
2022-10-06, 15:47:10
Es gibt Indizien beinahe Fakten, Chipgröße und Fertigungsprozess bei AMD
und wie es Extreme schon sagte, AMD kocht auch nur mit Wasser.
AMD ist noch ein Fragezeichen.
Man darf aber nicht vergessen, dass eine RX 6950 XT praktisch auf RTX 3090 TI Niveau ist:
https://tpucdn.com/review/amd-radeon-rx-6950-xt-reference-design/images/average-fps_3840-2160.png
Schwächer wird Navi 31 also wohl vermutlich nicht und wenn man nur mal 30-40% einrechnet, dann ist man ja schon bald in Schlagdistanz zur RTX 4090.
Was aber bei AMD den springenden Punkt ausmachen wird, ist wohl der softwaretechnische Rückstand gegenüber Nvidia. Hier wird wohl eine RX 7900 XT wohl mit 1000 - 1200 $ in den Markt geworfen.
Exxtreme
2022-10-06, 15:49:25
Interessant, und woher schließt du das? Glaskugel? Voodoo? Regentanz? Pure Spekulation.
Ich wurde übelst lachen, wenn RDNA 3, 10 oder 5% schneller ist als Lovelace @ Raster, ohne DLSS/FSR 2.1
RDNA3 wird nur halb so viele Transistoren haben wie Lovelace. Um gleichziehen zu können müsste AMD beträchtlich effizienter sein als Nvidia. Und das glaube ich nicht, dass sie das können.
Was RZ angeht werden sie wohl schon konkurrieren können, was RT angeht wohl eher nicht. Ich gehe davon aus, dass Lovelace hier Faktor 2 bis 3 schneller sein wird.
dargo
2022-10-06, 15:52:48
Andererseits ist der Chip nur halb so groß wie Lovelace. Da werden sie auch nicht zaubern können.
Woher habt ihr eigentlich immer diesen Blödsinn her? :D
FastAndy
2022-10-06, 15:55:03
Im Lux drehen die Leute schon durch, weil die Galaxus Bestellung storniert wurde. ;D
Wer sich ohne Miner noch verarschen lässt und gerade in den ersten 2-3 Tagen nach Release bei einigen in Gier getränkten Shops bestellt, verdient es nicht anders, wenn die selben Modelle kurz danach locker mal 500 Euro aufwärts günstiger sind.
Bei mir steht vielleicht die Strix und die Master ganz oben.
Die Suprim und die Airo könnten gute Alternativen sein.
Aber über 1700 Euro wird nicht mal daran gedacht was zu bestellen.
Bin absolut überzeugt, dass man im November/Dezember RTX 4090 Modelle für 1500 Euro kaufen kann.
Was hat das denn bitte mit "verarscht werden" zu tun? Glaubst du allen ernstes, dass sich die leute die das geld auf den tisch legen, nicht bewusst sind, wie schnell günstiger die karten evtl. später mal zu haben sind?:rolleyes:
es gibt genügend leute, die ein so hohes einkommen haben, dass zeit das höchste gut ist. glaub mir. ich könnte dir einige stories erzählen, die man mir aber sowieso nicht glauben würde.
ich kenne jemanden, der hat in einem mietwagen etwas vergessen, was 28k wert war. da wurden nicht mal mühen unternommen sondern das gleiche einfach noch mal gekauft. ja ausnahmen, aber evtl will sich nvidia dieser erst mal bedienen.:wink:
basix
2022-10-06, 15:55:05
RDNA3 wird nur halb so viele Transistoren haben wie Lovelace. Um gleichziehen zu können müsste AMD beträchtlich effizienter sein als Nvidia. Und das glaube ich nicht, dass sie das können.
Was RZ angeht werden sie wohl schon konkurrieren können, was RT angeht wohl eher nicht. Ich gehe davon aus, dass Lovelace hier Faktor 2 bis 3 schneller sein wird.
Ich frage mich immer: Woher zur Hölle wollt ihr den Transistor Count und RT Performance beurteilen? Gibt absolut NULL Info dazu. Und anyways: Transistoren != Performance.
Wenn Ada 3x schneller in RT als RDNA3 wird, wäre man noch schlechter als vs. Ampere. Und das bei 2nd Generation RT und AMDs Wissen, das RT stärker werden muss. Ihr seht, das passt nicht ganz zusammen ;)
r3ptil3
2022-10-06, 15:57:55
Woher habt ihr eigentlich immer diesen Blödsinn her? :D
So abwegig ist das gar nicht: 350mm² vs 608mm². Also "fast" doppelt so groß.
@FastAndy
Da geht's nicht um Zeit, sondern die Angst der "Verknappung".
Wenn jeder weiß, dass eine RTX 4090 eine Woche später für 1'500 angeboten werden würde, dann würde auch jeder eine Woche länger warten, ganz besonders wohlhabende Leute. ;)
dargo
2022-10-06, 15:58:25
Als die 4090 meinst du?
Oder als 4080 16GB?
wie gesagt ich sage N31 befindet sich zwischen der 12 GB und der 16 GB Version der 4080, eher näher am 104er
Es gibt Indizien beinahe Fakten, Chipgröße und Fertigungsprozess bei AMD
und wie es Extreme schon sagte, AMD kocht auch nur mit Wasser.
AD104 ist gerade mal 295mm² groß. N31 wird auf ca. 530mm² insgesamt kommen. :uconf3: Wenn du die Tensor Cores von Ada abziehst (die AMD ja nicht braucht) würde es mich nicht überraschen wenn N31 und AD102 mehr oder weniger auf die gleiche Größe rauskommen.
So abwegig ist das gar nicht: 350mm² vs 608mm². Also "fast" doppelt so groß.
Wie kommst du wieder auf den Blödsinn mit 350mm²? :crazy: Warum sollte bei AMD überhaupt der TopDog nur 350mm² mickrig sein wenn schon der Vorgänger 520mm² hatte? Leute ihr schmeißt hier mit Fantasiezahlen um euch, das ist nur noch zum tot lachen. ;D
Ex3cut3r
2022-10-06, 15:58:40
Woher habt ihr eigentlich immer diesen Blödsinn her? :D
Einfach mal abwarten, ich sage RNDA3 wird im Raster besser als LoveLace sein, und das in jeder Performance klasse. :biggrin:
why_me
2022-10-06, 15:59:51
Woher hast du die 350mm²? Schau das lieber noch einmal nach :wave:
r3ptil3
2022-10-06, 16:05:34
Achso, dann antwortet doch lieber mal etwas ausführlicher, anstatt nur Worthülsen zu verwenden und leere Diskussionen hier aufzublähen.
Hab gerade auch die letzten Gerüchte gelesen, stimmt: 533 mm² stehen auch im Raum.
Dann beziehen sich die 300mm² vielleicht auf die kleineren Modelle
Exxtreme
2022-10-06, 16:06:37
Woher habt ihr eigentlich immer diesen Blödsinn her? :D
Ich habe irgendwo gelesen 38 Milliarden Transistoren. Weiss aber nicht mehr so. X-D
Linmoum
2022-10-06, 16:07:01
Das ist sowieso albern. Chiplets lassen ja nicht auf magische Art und Weise Fläche verschwinden. Du hast deutlich weniger kostbare N5-Fläche in diesem Fall, aber das SI z.B. verschwindet ja deswegen nicht plötzlich komplett aus der gesamten Die-Size.
Neurosphere
2022-10-06, 16:09:17
Nur mal so nebenbei welche Gerüchte vor dem Ampere Launch rumgingen:
https://pbs.twimg.com/media/FeY18ktaUAAFcKa?format=jpg&name=large
Wir wissen wie es letzten Endes aussah. Einfach abwarten, mehr können wir eh nicht.
Troyan
2022-10-06, 16:12:47
Schau dir mal die Gerüchte von Lovelace an. 600W und geworden sind es 450W mit 3000MHz und >70%+ Mehrleistung in Rasterizing Games gegenüber 3090TI.
why_me
2022-10-06, 16:12:51
Ich habe irgendwo gelesen 38 Milliarden Transistoren. Weiss aber nicht mehr so. X-D
Kann mMn. durchaus hinkommen, aber dann nur für den GCD.
Wenn man bei AD102 den Cache, TC, memory controller und Phys rausrechnet, dürfte man auch in ähnliche Regionen kommen.
dargo
2022-10-06, 16:13:28
Achso, dann antwortet doch lieber mal etwas ausführlicher, anstatt nur Worthülsen zu verwenden und leere Diskussionen hier aufzublähen.
Hab gerade auch die letzten Gerüchte gelesen, stimmt: 533 mm² stehen auch im Raum.
Dann beziehen sich die 300mm² vielleicht auf die kleineren Modelle
Nicht ganz, die ~300mm² beziehen sich auf den GCD. Du hast aber noch 6 MCDs dabei. ;)
Ex3cut3r
2022-10-06, 16:14:15
Schau dir mal die Gerüchte von Lovelace an. 600W und geworden sind es 450W mit 3000MHz und >70%+ Mehrleistung in Rasterizing Games gegenüber 3090TI.
Die 600W bei der FE stimmen doch, wenn man das Power Limit im Afterburner maximiert. :confused:
https://abload.de/img/aocetzt3adg8.jpeg
Neurosphere
2022-10-06, 16:14:49
Schau dir mal die Gerüchte von Lovelace an. 600W und geworden sind es 450W mit 3000MHz und >70%+ Mehrleistung in Rasterizing Games gegenüber 3090TI.
Eben, Gerüchte sind Gerüchte. Es macht spaß zu spekulieren aber man kann dennoch meilenweit daneben liegen.
Troyan
2022-10-06, 16:15:15
Wenn du übertakten willst. Gibt eben der Stromanschluss her. Gab genug Leute, die sich wegen der Powerlimit-Restriktion geärgert haben (siehe 3090 und 375W).
DavChrFen
2022-10-06, 16:15:49
Die Frage ist eher, ob die Verfügbarkeit gegeben ist oder nicht. Ich hätte kein Problem einen Monat länger zu warten, wenn ich weiß, dass dann die Verfügbarkeit auch gegeben ist.
Ich für meinen Teil werde mir die Strix OC gönnen, weil ein deutscher Wasserkühlungshersteller inoffiziell da schon einen Wasserkühlungsblock in Aussicht gestellt hat. Und Seasonic hat auch ein passendes Kabel zumindest inoffiziell auch schon angekündigt.
FastAndy
2022-10-06, 16:16:16
Schau dir mal die Gerüchte von Lovelace an. 600W und geworden sind es 450W mit 3000MHz und >70%+ Mehrleistung in Rasterizing Games gegenüber 3090TI.
Wobei ich hier +70% oder gar noch mehr nicht so wirklich glauben kann. wäre fast zu schön um wahr zu sein. Wann gab es so einen krassen sprung das letzte mal? kann ich mich nicht mehr dran erinnern.
dargo
2022-10-06, 16:16:25
Schau dir mal die Gerüchte von Lovelace an. 600W und geworden sind es 450W mit 3000MHz und >70%+ Mehrleistung in Rasterizing Games gegenüber 3090TI.
Der volle AD102 ist noch gar nicht in Sicht. Der wird noch ne gute Portion drauflegen. ;)
Ex3cut3r
2022-10-06, 16:28:27
Wobei ich hier +70% oder gar noch mehr nicht so wirklich glauben kann. wäre fast zu schön um wahr zu sein. Wann gab es so einen krassen sprung das letzte mal? kann ich mich nicht mehr dran erinnern.
Die Marketingmaschine hat gesprochen. Wann gab es das letzte mal so eine Strom Verbrauchs Explosion? Kann mich nicht erinnern.
FastAndy
2022-10-06, 16:34:36
Die Marketingmaschine hat gesprochen. Wann gab es das letzte mal so eine Strom Verbrauchs Explosion? Kann mich nicht erinnern.
das mindert doch nicht die leistung? +70% sind dann immer noch +70% :confused:
Ich produziere strom über und der ist sehr günstig (Fotovoltaik)
ich spiele vielleicht ein spiel im jahr, mal am wochenende eine stunde
mehr nicht
der verbrauch ist mir sogesehen relativ egal.
Ex3cut3r
2022-10-06, 16:36:17
Natürlich mindert das den Gesamteindruck, bemerkenswert wäre die Leistung mit 250-300W. Aber der Zug ist wohl abgefahren. AMD ist hier mittlerweile immens effizienter. Und das von einem Hersteller der 2012 mit der Effizienz @ Kepler dermaßen angegeben hat.
FastAndy
2022-10-06, 16:45:05
meinen mindert das nicht, weil der verbrauch relativ irrelevant für mich ist. da wird auch sehr gerne total übertrieben in foren
wenn ich 5x vollgas im plaid gebe, schlägt sich das eher nieder X-D
Cubitus
2022-10-06, 16:48:48
Wobei ich hier +70% oder gar noch mehr nicht so wirklich glauben kann. wäre fast zu schön um wahr zu sein. Wann gab es so einen krassen sprung das letzte mal? kann ich mich nicht mehr dran erinnern.
Geforce 8800 GTX, habs iwie im Urin das die 4090 also der kleine 102er schon in die Fußstapfen des legendären G80 treten kann :)
MiamiNice
2022-10-06, 16:48:58
Schau dir mal die Gerüchte von Lovelace an. 600W und geworden sind es 450W mit 3000MHz und >70%+ Mehrleistung in Rasterizing Games gegenüber 3090TI.
Die guten Ada Karten sind noch gar nicht bekannt. Nur Müll bisher und die 3090 ist eigentlich eher ne 3080. Warten wir mal die richtigen Karten ab.
Vollausbau, 800 Watt PT, 48GB Ram. Dann kommt auch (Aufrüst)Freude auf.
TobiWahnKenobi
2022-10-06, 16:56:06
vllt. sind die geleakten benches auch von nvidia selbst und die 3000mhz ein ausreisser, der die hoffnung auf mächtig OC schüren soll. denke auch dass es erst interessant wird, wenn es von der 90er einen vollausbau gibt.
das beste ist im grunde grad der gebrauchte abverkauf von amperekarten. wer noch keine hat, wird jetzt günstig eine bekommen können und kann turing und pascal endlich in rente schicken.
etwas dümmlich wäre es, wenn jetzt alle ihre angeranzten ampere-topdogs raushauen und dann am ende wieder komplett ohne grafikkarte da sitzen.
(..)
mfg
tobi
Ravenhearth
2022-10-06, 16:56:18
2. Igor spekuliert für die kommende Navi den grünen Rahmen.
Also der neue TopDog von AMD befindet sich zwischen der 12 und 16. GB 4080 von NV.. --> bin damit d'accord habe ja vor ein paar Tagen in die gleiche Richtung spekuliert.
Damit wäre man maximal 30% schneller als die RX 6950 XT, das ist doch Quatsch. Das sollte schon N32 erreichen, wenn die hohen Taktraten stimmen.
Ich könnte mir vorstellen, dass die Geschwindigkeitsdifferenz abhängig vom Anwendungszweck ist. Rastergames kann ich mir gut vorstellen, dass N31 fast 2x N21 schafft. Da könnte man mit AD102 auf Augenhöhe liegen.
Aber wenn man sich mal anschaut, was Nvidia in die Raytracing Hardwarepipeline investiert hat und sieht von wo man mit rdna2 herkommt, ist es sehr wahrscheinlich anzunehmen, dass AMD dort in's Hintertreffen geraten wird. Ich tippe darauf, dass man mit RDNA3 in etwa vergleichbares HW RT Level von Turing/Ampere (level 3) erreicht hat, während Ada mit seinen Änderungen locker level 4 ist.
Denke ich auch. Aber selbst mit Level 3 könnte N31 in anspruchsvollen Games auf 3x RT von N21 kommen. Ada hat dort Vorteile, wo die neuen Features wie SER genutzt werden. Für Cyberpunk verspricht Nvidia ja >40% mehr Performance, hier würde N31 eher mit AD103 konkurrieren. Allerdings müssen diese Features explizit genutzt werden.
Cubitus
2022-10-06, 16:58:35
Natürlich mindert das den Gesamteindruck, bemerkenswert wäre die Leistung mit 250-300W. Aber der Zug ist wohl abgefahren. AMD ist hier mittlerweile immens effizienter. Und das von einem Hersteller der 2012 mit der Effizienz @ Kepler dermaßen angegeben hat.
https://i.imgur.com/humadjT.jpg
Nehmen wir an das ist eine 4090, betreibe etwas UV und nimm etwas Takt raus.
Dann hast du deine 300-350 Watt :biggrin:
vllt. sind die geleakten benches auch von nvidia selbst und die 3000mhz ein ausreisser, der die hoffnung auf mächtig OC schüren soll. denke auch dass es erst interessant wird, wenn es von der 90er einen vollausbau gibt.
das beste ist im grunde grad der gebrauchte abverkauf von amperekarten. wer noch keine hat, wird jetzt günstig eine bekommen können und kann turing und pascal endlich in rente schicken.
etwas dümmlich wäre es, wenn jetzt alle ihre angeranzten ampere-topdogs raushauen und dann am ende wieder komplett ohne grafikkarte da sitzen.
(..)
mfg
tobi
Sofern die Kühlung (wird es wohl) und die Voltages (wird es auch) ausreichen, sind 3000 Mhz OC schon realistisch.
Das PT ist auch großzügig dimensioniert. Die Voltage ist das, was limitieren wird. Also mehr Watt draufgeben wird dann ab einem gewissen Grad eben sinnlos.
Ex3cut3r
2022-10-06, 16:59:34
Damit wäre man maximal 30% schneller als die RX 6950 XT, das ist doch Quatsch. Das sollte schon N32 erreichen, wenn die hohen Taktraten stimmen.
Natürlich ist das Quatsch. Cubitus ist leider im Hype Mode wie ein paar andere.
https://i.imgur.com/humadjT.jpg
Nehmen wir an das ist eine 4090, betreibe etwas UV und nimm etwas Takt raus.
Dann hast du deine 300-350 Watt :biggrin:
Warum sollte man das machen? Kann Nvidia das nicht einfach in einer billigeren Version zum Normalpreis anbieten? Ich kaufe doch keinen Bugatti Divo, und drossel ihn dann per Mod auf 350 PS.
TobiWahnKenobi
2022-10-06, 17:12:06
das ist ja atm der normalpreis. wenn unsere finanzlage noch weiter eskaliert, wird der preis noch steigen. die weltliche lage ist im grunde der dritte weltkrieg. nur halt noch auf wirtschaftlicher ebene und ohne dass den massen bomben und schutt um die ohren fliegen.
(..)
mfg
tobi
Ex3cut3r
2022-10-06, 17:14:35
Schon klar, aber ich bitte dich, nützt Nvidia das nicht ein bisschen zu sehr aus? Ich mein fast 2000€ für die FE und gute Customs liegen bei 2300€ Ist das nicht ein wenig weit hergeholt?
Ich wurde gerne mal die Kosten von Nvidia für eine 4090 aufgelistet bekommen, ich wette, man ist irgendwo bei unter 1000€
Beim iPhone ist ja sehr ähnlich. Nvidia sieht sich wohl als Apple der GPUs. Wenn die Freaks nach den ersten 2 Wochen eingedeckt sind, glaube ich nicht, dass da viele zusätzlich zugreifen. Vlt. muss Nvidia im Januar schon die Preise senken, wenn die Produkte im Regal liegen bleiben sollten.
Linmoum
2022-10-06, 17:16:37
Für den schwachen Euro kann Nvidia ja nichts. Ohne den würden wir sicher bei 16xx€ liegen als UVP. Aber das ist hätte wäre wenn und aktuell nicht Realität.
r3ptil3
2022-10-06, 17:18:16
Auch in der CH jetzt erste Listungen und der Shop hat reale Preise (etwa 10-20% kann man abziehen nach 1-2 Wochen).
https://i.ibb.co/bKYwKm4/image.png
Ich bin mir mit meiner Prognose sicher: Ab November/Dezember findet man RTX 4090 Modelle für 1500-1600 Euro.
DrFreaK666
2022-10-06, 17:19:06
TSMC verdient sich sicherlich auch eine goldene Nase
MSABK
2022-10-06, 17:19:08
Bin mal gespannt auf ein Bild der 4090 neben einem Dan A4 case.:D
Ex3cut3r
2022-10-06, 17:20:43
Für den schwachen Euro kann Nvidia ja nichts. Ohne den würden wir sicher bei 16xx€ liegen als UVP. Aber das ist hätte wäre wenn und aktuell nicht Realität.
Die Inflation beträgt aktuell? 10%
Wie kommen dann bei 1600$ - 1950€ raus?
+19% Mehrwertsteuer. Sind immer noch keine 1950€
Ok, passt mit Mehrwert Steuer. (Leider)
1627,72 *19/100 = 309,27 + 1627,72 = 1936,99€
https://abload.de/img/screenshot2022-10-061nfcmv.png
FastAndy
2022-10-06, 17:21:00
die marktlage ausnutzen ist unternehmerisch das einzig richtige was man machen kann, auch wenn manche romantiker das anders sehen.
was die karten in der herstellung kosten, spielt keine rolle, sie müssen sich auch nicht rechtfertigen
das ist kein brot und wasser, sondern spielzeug
DrFreaK666
2022-10-06, 17:24:17
TSMC verdient sich sicherlich auch eine goldene Nase
TobiWahnKenobi
2022-10-06, 17:24:58
Die Inflation beträgt aktuell? 10%
Wie kommen dann bei 1600$ - 1950€ raus?
+19% Mehrwertsteuer. Sind immer noch keine 1950€
die gefühlte inflation rangiert eher richtung 40% in DE. aber du hast doch nichtmal leidensdruck. mit einer 3080Ti kannst du dich doch genüsslich zurücklehnen und falls noch nicht geschehen, stellst du ihr einfach beim nächsten geldseegen ein VRR-display gegenüber..
mit den daten und funfacts die wir bis jetzt von lovelace haben wird doch der nächste refresh noch viel spannender für einen umstieg von ampere und in zwei jahren redet von einer 4090 ohne Ti sowieso keiner mehr.. ;)
(..)
mfg
tobi
Dural
2022-10-06, 17:25:06
Auch in der CH jetzt erste Listungen und der Shop hat reale Preise (etwa 10-20% kann man abziehen nach 1-2 Wochen).
https://i.ibb.co/bKYwKm4/image.png
Ich bin mir mit meiner Prognose sicher: Ab November/Dezember findet man RTX 4090 Modelle für 1500-1600 Euro.
Nur der Franken ist halt was Wert. ;)
Ich muss ja schon lange über die Preisdiskussion schmunzeln, von Menschen die mit Euro zahlen. Wer ein bisschen Vermögen in Euro hält verliert seit Jahren Geld, da sind 1000.- mehr oder weniger völlig belanglos.
Ex3cut3r
2022-10-06, 17:29:24
die gefühlte inflation rangiert eher richtung 40% in DE. aber du hast doch nichtmal leidensdruck. mit einer 3080Ti kannst du dich doch genüsslich zurücklehnen und falls noch nicht geschehen, stellst du ihr einfach beim nächsten geldseegen ein VRR-display gegenüber..
mit den daten und funfacts die wir bis jetzt von lovelace haben wird doch der nächste refresh noch viel spannender für einen umstieg von ampere und in zwei jahren redet von einer 4090 ohne Ti sowieso keiner mehr.. ;)
(..)
mfg
tobi
Habs nachgerechnet und aufgeschlüsselt, sieht EDIT. Die Mehrwert Steuer fuckt uns leider ab.
Ja, na klar, ich plane auch keinen Kauf einer LoveLace Grafikkarte. Ein VRR Display habe ich (natürlich) schon lange.
Si|encer
2022-10-06, 17:37:39
Schon klar, aber ich bitte dich, nützt Nvidia das nicht ein bisschen zu sehr aus? Ich mein fast 2000€ für die FE und gute Customs liegen bei 2300€ Ist das nicht ein wenig weit hergeholt?
Ich wurde gerne mal die Kosten von Nvidia für eine 4090 aufgelistet bekommen, ich wette, man ist irgendwo bei unter 1000€
Beim iPhone ist ja sehr ähnlich. Nvidia sieht sich wohl als Apple der GPUs. Wenn die Freaks nach den ersten 2 Wochen eingedeckt sind, glaube ich nicht, dass da viele zusätzlich zugreifen. Vlt. muss Nvidia im Januar schon die Preise senken, wenn die Produkte im Regal liegen bleiben sollten.
Es gibt IMMER jemanden der bar jeder Vernunft utopische Preise für Hardware ausgibt, z. B. f. eine 3080TI. ;D
BlacKi
2022-10-06, 17:42:20
Die Marketingmaschine hat gesprochen. Wann gab es das letzte mal so eine Strom Verbrauchs Explosion? Kann mich nicht erinnern.2020, ist nicht so lange her.
Cubitus
2022-10-06, 17:44:30
Natürlich ist das Quatsch. Cubitus ist leider im Hype Mode wie ein paar andere.
Warum sollte man das machen? Kann Nvidia das nicht einfach in einer billigeren Version zum Normalpreis anbieten? Ich kaufe doch keinen Bugatti Divo, und drossel ihn dann per Mod auf 350 PS.
Du hast das Prinzip von UV nicht verstanden.
Natürlich kannst du mit 3000 Mhz und 400 Watt OC unterwegs sein.
Oder du spielst mit den Voltages rum und erreichst bei möglichst niedriger Voltage z.b 2800 dauerhaft unter Vollastlast, dann drosselst du die Karte vielleicht noch 5 oder 10 Prozent im PT runter und fällst bei Vollast z.b auf 2750 Mhz. Dann hast eben anstatt 407 Watt, 366 Watt, durch gutes UV sogar vielleicht nur 300-350 Watt, je nachdem wie gut der Sweetspot bei den Voltages sein wird. Bei 2750 Mhz sind das dann in der Szene anstatt 229 FPS eben 209 FPS.
Bei den hohen FPS ist das aber Shice-Egal, für dein Auge spielt es keine Rolle ob du jetzt 209 FPS oder 229 FPS hast.
Nimm an die 4090 liefert z.b auch in 3K Auflösungen, hohe FPS welche am CPU Limit kratzen.
Dann ist es egal ob du bei 3K und 100 HZ eben 185 FPS erreichst oder 165, eben weil viel Grundpower da ist.
Aber die 60-100 Watt weniger merkst du deutlicher, sowohl im Verbrauch, Wärme als auch letztendlich bei der Stromrechnung.
Falls ein Spiel trotzdem maximal fördert, kannst auch zusätzlich ein OC-Profil fahren.
Das OC Profil kannst auch mit UV ausloten, vielleicht brauchen auch die 3000 Mhz nicht die hohen Voltages wie angegeben.
Hier gilt es ausprobieren und rantasten, also PT hoch und Voltages runter und dann schauen, ob 3000 Mhz jederzeit gehalten werden können.
Vielleicht schaffst du auch nur mit deutlicher niedriger Voltage 2900 Mhz dauerhaft, spiegelt sich aber kaum in den FPS, dafür im Verbrauch und im Temp-Target.
Nur meistens lohnt sich OC erst dann wirklich, wenn du an der 60 FPS Grenze oder so kratzt, Quake 2 RTX, oder Serious Sam RTX sind so Beispiele.
Hier ein Beispiel für UV bei meiner 3090
DL2 --> maxxed out 3440p
850 MV
1890 Mhz
https://abload.de/thumb/voltagetzeuu.png (https://abload.de/image.php?img=voltagetzeuu.png)
OC-UV
1890 MHZ 351 Watt, 75 FPS
https://abload.de/thumb/uv-oc0vfg2.png (https://abload.de/image.php?img=uv-oc0vfg2.png)
UV
-20% PT. 277 Watt, 64 FPS
https://abload.de/thumb/uv-uv9qdlq.png (https://abload.de/image.php?img=uv-uv9qdlq.png)
merkst selber ;)
Troyan
2022-10-06, 17:47:13
Wobei ich hier +70% oder gar noch mehr nicht so wirklich glauben kann. wäre fast zu schön um wahr zu sein. Wann gab es so einen krassen sprung das letzte mal? kann ich mich nicht mehr dran erinnern.
In Timespy ist die 4080 anscheinend 30% schneller. Die 4090 kann 40% mehr Strom verbrauchen - ergo eigentlich auch 40% Mehrleistung. Macht 82% Mehrleistung.
Natürlich wird es einige Spiele geben, wo die Karte in 4K nicht 70% erreicht. Aber ehrlich ist das egal, da man mit so einer Karte auch mit Raytracing zockt. Und dann liegt man wohl in 4K eher bei 2x Mehrleistung. :eek:
FastAndy
2022-10-06, 17:55:40
ja das klingt doch echt saustark. statt 50fps dann 100 :eek:
wie man das so haten kann, ich verstehs nicht leute, echt nicht
ich meine beim upgrade von 2080ti auf 3090 hatte ich nicht so viel mehrleistung
allerdings teste ich das auch nicht so ausgiebig
DrFreaK666
2022-10-06, 18:01:25
... Die 4090 kann 40% mehr Strom verbrauchen - ergo eigentlich auch 40% Mehrleistung...
War schon immer so, dass die Leistung proportional steigt :rolleyes:
Snoopy69
2022-10-06, 18:41:06
Gerade bestellt :freak:
(gestern gings noch nicht)
https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284
Radeonfreak
2022-10-06, 18:52:54
Ihr bezahlt Geld für euer Kabel?
https://i.kym-cdn.com/entries/icons/original/000/028/312/will_poulter.PNG
Cyberfries
2022-10-06, 19:00:30
ja das klingt doch echt saustark. statt 50fps dann 100 :eek:
wie man das so haten kann, ich verstehs nicht leute, echt nicht
ich meine beim upgrade von 2080ti auf 3090 hatte ich nicht so viel mehrleistung
allerdings teste ich das auch nicht so ausgiebig
Respekt.
Aus Troyans +82% werden statt 91 einfach 100 Bilder pro Sekunde, womit der Zuwachs einfach mal 22% höher ist.
Und dann wird im Vergleich der Topmodelle die 2080ti bemüht. Auf die die 3090ti 71% (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022) zulegt.
Was klar mehr ist als die 63-64% (https://www.3dcenter.org/news/news-des-5-oktober-2022) die die 4090 in nVidias zuletzt ausgewählten Benchmarks gezeigt hat.
Garniert wird das dann mit: "Ich schau nicht auf die Leistung", aber dringend das nächstschnellere wollen...
Aber gut, wenn dann solche Sprüche kommen:
ich kenne jemanden, der hat in einem mietwagen etwas vergessen, was 28k wert war. da wurden nicht mal mühen unternommen sondern das gleiche einfach noch mal gekauft.
Da kann sich jeder seinen Teil dazu denken... Ich für meinen Teil bin mir sicher dass es eigentlich 34k waren.
Sardaukar.nsn
2022-10-06, 19:46:17
ja das klingt doch echt saustark. statt 50fps dann 100 :eek:
wie man das so haten kann, ich verstehs nicht leute, echt nicht
Reg dich nicht so auf, irgendwer wird immer unzufrieden sein. Das Upgrade auf die 4090 wird auf jeden Fall groß und im Falle der Strix auch 2,5kg schwer.
Corsair hat jetzt auch "das Kabel" im Shop: https://www.corsair.com/de/de/Kategorien/Produkte/Zubeh%C3%B6r-%7C-Teile/PC-Komponenten/Netzteile/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284
Gott1337
2022-10-06, 19:53:50
So ein Schwachsinn. Wundert mich dass Igor sowas schreibt. Der Fertigungsprozess ist sehr früh in der Designphase gesetzt. Die 4 nm stehen sicherlich seit 2,5-3 Jahren fest. Boards und Kühler werden in einem Bruchteil der Zeit designt.
Dazu der Blick auf die Transistoreichte: ein AD102 wäre mit der Transistorzahl in 8 nm gar nicht herstellbar.
in 8nm wäre das ding fast 2000mm² groß xD angenommen die Dichte würde sich nicht ändern. Igor schreibt öfter Blödsinn, fällt nur kaum einem auf.
Achill
2022-10-06, 19:59:16
Ihr bezahlt Geld für euer Kabel?
https://i.kym-cdn.com/entries/icons/original/000/028/312/will_poulter.PNG
Ja, man kann da nur wehleidig zusehen. GPUs bzw. Gaming-PCs sind halt immer mehr Luxus-Artikel und das nötige Drumherum kostet hat, dass ist bei anderen Sachen nicht anders. Siehe z.B. Auto, HiFi Zubehör oder Apple .. und AMD und NV haben hier auch nur indirekt eine Rolle. Die Leute waren die letzten 2 Jahr bereit diese hohen Preise zu zahlen und sie werden das auch zukünftig tun. Es sollte also nicht wundern, wenn da jeder etwas vom Kuchen abhaben will und wenn man schon keine neuen NTs an den Mann/Frau bringen kann, dann halt neue Kabel um halt Rails zu kombinieren.
Die Alternative wäre evtl. die GPU einer niedrigeren Verbrauchsklasse zu wählen, evtl. haben diese noch die alten Stecker. Hab mir noch keine Unboxing Videos angeschaut ...
FastAndy
2022-10-06, 20:03:42
Reg dich nicht so auf, irgendwer wird immer unzufrieden sein. Das Upgrade auf die 4090 wird auf jeden Fall groß und im Falle der Strix auch 2,5kg schwer.
Ach alles gut, mich regt so schnell nicuts auf, schon gar nicht irgendwelche buchstaben hier von unbekannten im netz ;)
Sehe das ganz genauso
Irgendwer meckert immer
Von demher einfach sein ding machen wie NV :up:
Snoopy69
2022-10-06, 20:10:16
Ja, man kann da nur wehleidig zusehen. GPUs bzw. Gaming-PCs sind halt immer mehr Luxus-Artikel und das nötige Drumherum kostet hat, dass ist bei anderen Sachen nicht anders. Siehe z.B. Auto, HiFi Zubehör oder Apple .. und AMD und NV haben hier auch nur indirekt eine Rolle. Die Leute waren die letzten 2 Jahr bereit diese hohen Preise zu zahlen und sie werden das auch zukünftig tun. Es sollte also nicht wundern, wenn da jeder etwas vom Kuchen abhaben will und wenn man schon keine neuen NTs an den Mann/Frau bringen kann, dann halt neue Kabel um halt Rails zu kombinieren.
Gemeint war vielleicht, dass es bei manchen NT-Herstellern, das passende Kabel umsonst gab. Man musste nur die Rechnung der FE vorweisen
K.A. wie es aktuell ist. Aber auf ein Herumgestückel oder Kabelpeitschen von AliEx, hab ich keine Lust
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.