PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41

HPVD
2020-09-25, 16:17:05
nVidia Hopper (Ampere-Nachfolger, 5nm, Ende 2021)

scheint ja noch gar keinen Thread zu Hopper zu geben -denke es ist Zeit dafür, jetzt wo Gaming Ampere sich bereits kurzgezeigt hat ;-)

Was wissen wir bisher dazu? was erwarten wir?

- nVidia hat sich die Marken 4080 bereits gesichert
- nVidia hat sich angeblich bereits für 2021 bei TSMC 5nm Fertigungskapazitäten gesichert

https://www.3dcenter.org/news/nvidia-hopper

wird es eine echte neue Generation (schon in 21)? oder eher ein Refresh von Ampere in 5nm?
oder nur ein HPC-/ Datacenter Chip in 21?

HPVD
2020-09-25, 16:30:45
wenn Hopper (erstmal) nur für Datacenter:
- HBM2e von Samsung oder Hynix
- 64GB+
- PCIe 5.0
Indizien: sie brauchen das sowieso inhouse schnellstmöglich für ihre Mellanox Netzwerkkarten
und das hier:
Ursprünglich haben IBM und Nvidia bei der Entwicklung der Host-zu-GPU Attachment-Technologie NVLink zusammengearbeitet, um Leistungsengpässe zu überwinden, die durch die unzureichenden Fähigkeiten von PCIe Gen3 verursacht werden. Während dies eine erhebliche Differenzierung gegenüber PCIe Gen3 und Gen4 ermöglichte, beschleunigte die Industrie das Tempo der PCIe-Entwicklung. Mit dem Aufkommen von PCIe Gen5 stellten sowohl IBM als auch Nvidia fest, dass PCIe nun wieder ausreichend ist, um Leistungsengpässe beim Host-zu-GPU-Attach zu beseitigen.
https://www.it-zoom.de/dv-dialog/e/power10-kommt-ohne-nvlink-aus-26467/

maximus_hertus
2020-09-25, 16:44:09
2006: G80
2008: GT200
2010: Fermi
2012: Kepler
2014: Maxwell
2016: Pascal
2018: Turing
2020: Ampere

Ich würde daher keine neue "Generation" vor 2022 erwarten, gerade da Ampere eher ein 2021 Produkt ist (ich gehe nicht von breiter Verfügbarkeit vor 2021 bzw. Ende 2020 aus).

HPVD
2020-09-25, 16:48:02
2006: G80
Ich würde daher keine neue "Generation" vor 2022 erwarten...

ich eigentlich auch nicht. Aber was machen sei dann mit den reservierten TSCM Kontingenten in 2021?

Ampere reload? Super? "Done efficient" ?

oder für Ampere mobil?

basix
2020-09-25, 16:50:20
Der HPC Chip könnte ja schon Ende 2021 kommen.

RLZ
2020-09-25, 22:38:13
Aber was machen sei dann mit den reservierten TSCM Kontingenten in 2021?
Nintendo Top Secret Project? :ucoffee:

r3ptil3
2020-09-25, 22:43:48
2006: G80
2008: GT200
2010: Fermi
2012: Kepler
2014: Maxwell
2016: Pascal
2018: Turing
2020: Ampere

Ich würde daher keine neue "Generation" vor 2022 erwarten, gerade da Ampere eher ein 2021 Produkt ist (ich gehe nicht von breiter Verfügbarkeit vor 2021 bzw. Ende 2020 aus).

Ich würde definitiv Ende 2021 mit der neuen Generation rechnen.

AMD bringt auch Navi 31 Ende 2021 und das wird ziemlich spektakulär.

woodsdog
2020-09-26, 06:43:31
Ich würde definitiv Ende 2021 mit der neuen Generation rechnen.

AMD bringt auch Navi 31 Ende 2021 und das wird ziemlich spektakulär.

Das ist bereits grob in einem Jahr. Du glaubst doch nicht ernsthaft das Ampere nur 1 Jahr lang auf dem Markt sein wird... :freak:

HOT
2020-09-26, 09:29:50
Denke auch, Hopper wird wie der AM100 erst mal nur ne Datacenter GPU in N5P oder sowas ein und wird in 2022 erscheinen. Die Consumergeneration dürfte auf 2023 festgelegt sein, weil man ja offenbar jetzt erst mal 7nm-Refreshes von GA103 und GA102 vorbereitet würd ich mal schätzen.

Denniss
2020-09-26, 10:47:32
Ich halte es für durchaus möglich daß Nvidia einen Ampere-Refresh in Samsung 7nm EUV einschieben wird becor da irgendwas als MCM kommt.

Raff
2020-09-26, 10:55:16
Ich halte es für durchaus möglich daß Nvidia einen Ampere-Refresh in Samsung 7nm EUV einschieben wird becor da irgendwas als MCM kommt.

Sorry für den Spam, aber ich musste gerade heftig schmunzeln. Denniss schreibt über Hopper - ein moderner Easy-Rider-Moment! :biggrin:

MfG
Raff

Effe
2020-09-26, 12:24:02
Sorry für den Spam, aber ich musste gerade heftig schmunzeln. Denniss schreibt über Hopper - ein moderner Easy-Rider-Moment! :biggrin:

MfG
Raff
Reporter der Herzen - beim aktuellen Launch eher Apokalypse, now...
http://4.bp.blogspot.com/-8bFCNqW-SlE/TjGMSKuwX1I/AAAAAAAAArQ/QynATRd9oqc/s1600/apocalypse_now_dennis_hopper.jpg
Gibts eigentlich eine NV-Roadmap bzw irgendwelche Performance-Versprechen visualisiert?

why_me
2020-09-26, 12:28:09
ich eigentlich auch nicht. Aber was machen sei dann mit den reservierten TSCM Kontingenten in 2021?

ARM Server CPU? Nur so eine Idee.

Leonidas
2020-09-26, 15:09:19
Gibts eigentlich eine NV-Roadmap bzw irgendwelche Performance-Versprechen visualisiert?


Leider seit Ewigkeiten nicht mehr.

ChaosTM
2020-09-26, 15:12:34
Sorry für den Spam, aber ich musste gerade heftig schmunzeln. Denniss schreibt über Hopper - ein moderner Easy-Rider-Moment! :biggrin:

MfG
Raff


:biggrin:




Wie heiß eigentlich die darauf folgende Gen. Fonda ? ^^

Leonidas
2020-10-19, 14:13:28
https://twitter.com/Underfox3/status/1317821015314006017

In MICRO2020, researchers presented LADM, a holistic locality-aware data management system designed to operate on massive logical GPUs composed of multiple discrete devices, which are themselves composed of chiplets.
https://www.microarch.org/micro53/papers/738300b022.pdf

https://pbs.twimg.com/media/EknWyPEXIAAXZ9G?format=jpg&name=large

AffenJack
2020-11-05, 18:48:11
Scheint als hätte H100 sein Tapeout gehabt:

NVIDIA A100 is no longer the largest chip ever made by Jensen now.

Wird im Supercomputerbereich verdammt interessant Ende nächstes Jahr. H100 vs Mi200 vs Ponte Vecchio.
3x MCM/Chiplet Designs.

Dural
2020-11-06, 14:30:16
Macht keinen sinn, oder wie so sollte eine 5nm GPU noch mal grösser werden? Vor allem die 800mm2 schon kaum zu toppen sind.

Oder er meint damit die Anzahl der Transistoren, da würde es definitiv passen.

BlacKi
2020-11-06, 14:39:30
Macht keinen sinn, oder wie so sollte eine 5nm GPU noch mal grösser werden? Vor allem die 800mm2 schon kaum zu toppen sind.

Oder er meint damit die Anzahl der Transistoren, da würde es definitiv passen.
MCM so wie affenjack schon schrieb.

ZeXes
2020-11-15, 12:15:49
Keine Ahnung warum in der Überschrift "Ende 2021" steht, aber Hopper wird niemals in 2021 rauskommen.

Gehe von aus das 2021 ein RTX 3000 Super Refresh mit mehr VRAM rauskommt, aber eine neue Grafikkartengeneration?

Never.

Ich denke NVIDIA bleibt seinem 2 jährigen Rhythmus treu und wir werden im Herbst 2022 die Karten in der Hand halten können.

Fertigung wird diesmal mit ziemlicher Sicherheit 5nm von TSMC sein. NVIDIA scheint ja mit Samsungs Fertigung nicht wirklich zufrieden zu sein.

=Floi=
2020-11-15, 12:28:47
man könnte NV zum handeln zwingen.

Daredevil
2020-11-15, 12:31:43
Heute wird Nvidia aber zumindest deutlich mehr angegriffen, wie noch vor zwei Jahren.
AMD, Intel und Apple machen sich im (Notebook)GPU Bereich breit und AMD schiebt Ampere vermutlich von der Tischkante.

Da kann man vielleicht mal einen Gang höher schalten, sofern das geht. ^^

ZeXes
2020-11-15, 12:39:37
Bezweifle ich doch stark. Das einzige Problem was NVIDIA gegen die neuen RX6800 Karten hat ist der zu geringe VRAM. Leistungstechnisch werden die Grafikkarten von AMD u. NVIDIA nicht viel auseinander liegen. NVIDIA hat zudem den Vorteil, dass man am Markt viel präsenter ist, als AMD und die Kunden eher zu NVIDIA Grafikkarten greifen, als zum AMD Pendant.

Deshalb wird es sehr bald eine Super Generation als Folge auf die AMD Karten geben. Das dürfte es für NVIDIA dann aber auch gewesen sein in 2021, schließlich wird auch AMD im High-End ein Jahr Pause einlegen und aller Voraussicht nach 2022 mit RDNA3 nachlegen.

davidzo
2020-11-15, 12:39:59
Keine Ahnung warum in der Überschrift "Ende 2021" steht, aber Hopper wird niemals in 2021 rauskommen.

Gehe von aus das 2021 ein RTX 3000 Super Refresh mit mehr VRAM rauskommt, aber eine neue Grafikkartengeneration?

Never.

Ich denke NVIDIA bleibt seinem 2 jährigen Rhythmus treu und wir werden im Herbst 2022 die Karten in der Hand halten können.

Fertigung wird diesmal mit ziemlicher Sicherheit 5nm von TSMC sein. NVIDIA scheint ja mit Samsungs Fertigung nicht wirklich zufrieden zu sein.


Vielleicht liest du einfach mal den Thread bevor du hier was über die Überschrift monierst?

Hopper ist zuerst einmal ein HPC/Datacenter Chip. Und da liegen die Releasezyklen anders, zum Teil über ein ganzes Jahr auseinander.

GP100 kam im April, Gaming Pascal erst im Juni 2016.
Volta kam auch im Mai 2017, die Gamer-Architektur "Turing" erst September 2018.
A100 kam im Mai 2020, Gaming Ampere erst im September.

Ein Launch des Datacenter Chips noch in 2021 und die Gamingserie erst im Frühjahr 2022 würde durchaus zu nvidia passen.

ZeXes
2020-11-15, 12:52:27
Hopper ist zuerst einmal ein HPC/Datacenter Chip. Und da liegen die Releasezyklen anders, zum Teil über ein ganzes Jahr auseinander.


Das ist mir schon klar.

Trotz allem wird NVIDIA seiner 2 jährigen Releasefenster treu bleiben..

Frühjahr 2022 HPC, Herbst 2022 Gaming.

Ganz einfach, alles andere sind für mich Träumereien.

davidzo
2020-11-15, 15:53:22
Das ist mir schon klar.

Trotz allem wird NVIDIA seiner 2 jährigen Releasefenster treu bleiben..

Frühjahr 2022 HPC, Herbst 2022 Gaming.

Ganz einfach, alles andere sind für mich Träumereien.

Zoll dass du dazu eine Meinung hast, aber hast du auch Quellen?

Das Hopper wohl noch in 2021 kommt wurde bereits im Mai durch Digitimes geleakt.
https://twitter.com/chiakokhua/status/1257685298118451200
Damals ging die Kunde herum wie unzufrieden Nvidia mit dem Samsung prozess war und sich deshalb für Hopper bereits große Teile von TSMCs 2021er N5 Produktion gesichert hat. Die Möglichkeit dass damit "Ende 21" gemeint ist und die chips dann doch erst 22 launchen halte ich für einen sehr sehr dünnen Strohhalm. Wahrscheinlicher ist d sogar dass H100 in 21 kommt und H102, 104, 106 dann in 22.

=Floi=
2020-11-20, 02:13:06
Bin gespannt, wie sich längerfristig das rennen um DP ausgeht. NV geht ja eher in richtung tensor cores und beschleunigt dort alles extrem.

-/\-CruNcher-/\-
2020-11-20, 06:55:12
Nintendo Top Secret Project? :ucoffee:
Denke mal das wird definitiv kommen und auch Prestige Projekt um den nächsten Tegra nach ihrer ARM Aquisition zu Präsentieren

Die Tegra APU bekommt mehr Gewichtung gegen AMDs APU und Intels , ein erneuter versuch ein comeback auch schon daher um ganz viele thin clients für Nvidias Cloud ready zu machen.

Ob sie vieleicht nochmal das Nvidia Phone versuchen bleibt wohl abzuwarten, jensen hat sein versagen dort wohl nie so richtig akzeptiert ;)

Zumindestens kann er sich jetzt erstmal einbilden das er eine Nividia IP in der Hand hält und endlich eine Rolle spielt ;)

HOT
2020-11-20, 08:35:28
Zoll dass du dazu eine Meinung hast, aber hast du auch Quellen?

Das Hopper wohl noch in 2021 kommt wurde bereits im Mai durch Digitimes geleakt.
https://twitter.com/chiakokhua/status/1257685298118451200
Damals ging die Kunde herum wie unzufrieden Nvidia mit dem Samsung prozess war und sich deshalb für Hopper bereits große Teile von TSMCs 2021er N5 Produktion gesichert hat. Die Möglichkeit dass damit "Ende 21" gemeint ist und die chips dann doch erst 22 launchen halte ich für einen sehr sehr dünnen Strohhalm. Wahrscheinlicher ist d sogar dass H100 in 21 kommt und H102, 104, 106 dann in 22.
Dazu braucht er keine Quellen, die Releasezeiträume werden nicht kürzer werden können, da die Kosten steigen, das ist einfach klar, oder man ist ein Träumer.
Hopper HPC ist ne andere Kiste, den kann NV so schnell wie möglich bringen in N5 (Entwicklung dauert allerdings seine Zeit, also wird Anfang 22 schon gut zutreffen), aber die Customer-Designs brauchen wie üblich ihre 2 Jahre, alles andere ist pure Illusion, da von einem früheren Release auszugehen. Ampere ist doch auch gut, es gibt keinen Grund irgendwas zu überstürzen.
Ich geh auch davon aus, dass N5 für Hopper auch zutreffen wird, aber wieder nicht für die Customer Desings. Hier wird NV auf N6 oder 5/6LPP (5LPP ist für Samsung ein 7LPP mit mehr EUV) gehen, wie die Jahre zuvor, auf den Sparprozess was Kosten angeht. Allerdings gehe ich davon aus, dass auch RDNA3 auf N6 landen wird. N5 ist irre teuer und steigert bei SRAM die Kosten pro mm² sogar, man wird mit dem Riesen-Cache auf N5 erst mal wenig wirtschaftlich sein mMn. Aber auch ohne IS haben GPUs sehr viel SRAM, das ist also ein generelles Problem. Daneben fährt NV mit der Strategie, den wirtschaftlichen Prozess zu nehmen sehr gut seit Turing. Das wird man nicht ändern.
Für GPUs scheint eine sehr gute Anpassung auf den etablierten Prozess eine wesentlich wichtigere Rolle zu spielen, als eine möglichst schnelle Adaption des neuesten Prozesses, daher ist das auch ganz gut so.

Leonidas
2020-12-26, 08:57:54
Hopper womöglich reine Compute-Architektur, Gaming-Chips kommen monolitisch unter dem möglichen Codenamen "Lovelace":
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-18-dezember-2020

ChaosTM
2020-12-26, 09:22:29
Das ist mir schon klar.

Trotz allem wird NVIDIA seiner 2 jährigen Releasefenster treu bleiben..

Frühjahr 2022 HPC, Herbst 2022 Gaming.

Ganz einfach, alles andere sind für mich Träumereien.


RDNA3 könnte sie zwingen früher herauszukommen. Falls das wieder die versprochenen 50% Effizienz drauflegt, muss NV handeln.
Ob ein TSMC Ampere Refersh das kontern kann ist fraglich aber möglich..

Piefkee
2020-12-26, 09:48:39
RDNA3 könnte sie zwingen früher herauszukommen. Falls das wieder die versprochenen 50% Effizienz drauflegt, muss NV handeln.
Ob ein TSMC Ampere Refersh das kontern kann ist fraglich aber möglich..

Refresh „Design X“ von foundrey „X“ auf foundrey „Y“ ist technisch wie legal nicht möglich. Wenn Nv mit der Gaming GPU wieder zurück von Samsung auf TSMC möchte wird das auch mit einen komplett neuen Chip schwer werden, legal gesehen. Normalerweise und gerade bei leading edge gibt es ziemlich heftige NDA‘s. Diese beinhalten meisten das ein Design Team das einen Prozess „z.b. TSMC 5nm“ gesehen hat oder das PDK hat, mindestens 3 Jahre nicht an einen Prozess von Samsung arbeiten darf.

Genau deshalb darf Nv den A100 bei TSMC produzieren, weil dieser DIE von einen anderen Design Team entwickelt wurde. Und ein anderes Team an Gaming ampere bei Samsung entwickelt hat.

Bei 5nm oder 3nm wo teilweise an EUV beziehungsweise GAA zum Einsatz kommen wird die Thematik noch schlimmet

HOT
2020-12-26, 10:21:51
RDNA3 könnte sie zwingen früher herauszukommen. Falls das wieder die versprochenen 50% Effizienz drauflegt, muss NV handeln.
Ob ein TSMC Ampere Refersh das kontern kann ist fraglich aber möglich..
1.) es gibt definitiv keinen TSMC-Ampere-Refresh, das ist purer BS. Das Thema hatte wir schon oft genug. Piefkee hat das doch gut ausgearbeitet und du hättest den Refresh rein zeitlich von Anfang an planen müssen, was extrem unwahrscheinlich ist.
2.) Es kommt nix früher raus, das geht schlichtweg nicht, du kämst immer automatisch in die Lieferproblematik, denn die Entwicklung lässt sich schlichtweg nicht beschleunigen, es sei denn, die Qualität ist dir nicht so wichtig ;).


Aber wir wissen jetzt, dass diese Generation Lovelace heißt und relativ sicher in einem angepassten 5LPP-Prozess erscheinen wird bei Samsung.

Leonidas
2020-12-28, 11:54:26
nVidias NextGen-Chip "AD102" tritt womöglich mit gleich 144 Shader-Clustern an
https://www.3dcenter.org/news/geruechtekueche-nvidias-nextgen-chip-ad102-tritt-womoeglich-mit-gleich-144-shader-clustern

ChaosTM
2020-12-28, 12:31:06
Lovelace ist großartig gewählt. Der Name der berühmtesten Pornodarstellerin der Geschichte :D

WedgeAntilles
2020-12-28, 12:59:00
Passend zur Sex-Box jetzt den Porn-Chip - solange die Leistung sexy ist, nix dagegen ;D

rentex
2020-12-28, 15:07:32
Für die jüngere Generation:
https://de.m.wikipedia.org/wiki/Linda_Lovelace

;-)

MiamiNice
2020-12-28, 15:58:10
NV kommt doch jetzt schon mit der Produktion nicht nach. Wie schlimm mag das noch werden wenn die Pornokarten an untervögelte Nerds verticken :)

BlacKi
2020-12-28, 16:02:20
tatsächlich glaube ich das wir mit dem thema kapazitätsprobleme noch lange probleme haben werden.

Sunrise
2020-12-28, 16:10:11
Jensen hat da einfach in den sauren Apfel gebissen, man kann es irgendwie verstehen, vor allem jetzt, wenn TSMC auch aufgrund des stetig immer stärker werdenen Interesses auch höhere Preise ankündigt. Das mag zwar für sehr sehr große Kunden geringe Auswirkunge haben, aber ich denke in Zeiten, in welchen Apple TSMCs Haupt-Arbeitgeber geworden ist, und das auch kein sichtbares Ende nehmen wird, muss man Alternativen ausloten, sonst ändert sich nichts. Dass Samsung leider auch nicht gerade klein ist, ist die Krux, aber wie war das noch mit Pest und Cholera...

Insofern sind wir zwar am Schimpfen, dass man mit TSMC wohl bessere GPUs liefern könnte, nur was bringt uns das, wenn absolut nur tröpfchenweise Mengen ankommen. Da baut man eben immer weiter in die Breite, steigert möglichst den Takt nichtmehr und nutzt primär nur noch Fläche. Nebenbei hat man ja Konkurrenz und muss preislich wieder gegenhalten.

ZeXes
2020-12-28, 16:42:04
Ich finde es gut, dass NVIDIA auf Samsung setzt. Ein Monopol von TSMC im High End muss mit allen Mitteln vermieden werden.

Ich schätze das Samsung in den nächsten Jahren zu TSMC aufschließen wird, die mit ihrer Produktion fast gar nicht mehr hinterher kommen.

Spätestens wenn Samsung GAA zum laufen gebracht hat, ist es ein offenes rennen und da wird es dann nicht mehr so wichtig sein, ob nun NVIDIA bei TSMC oder bei Samsung fertigen lassen wird.

Zu Lovelace kann ich nur sagen... sollten die Zahlen stimmen und NVIDIA die Leistung auf die Straße bringen können, was sie bisher fast immer gut geschafft haben, dann werden wir mit der RTX 4090 eine Grafikkarte sehen, die bei 8K die 60FPS gut halten wird.

Die Monitorhersteller haben nun noch weniger als 2 Jahre, um ihre ersten High End 8K Monitore aufm Markt zu platzieren.

Spannende Zeiten mit geiler Hardware. So, wie ich es Liebe.

basix
2020-12-28, 17:19:35
Zu Lovelace kann ich nur sagen... sollten die Zahlen stimmen und NVIDIA die Leistung auf die Straße bringen können, was sie bisher fast immer gut geschafft haben, dann werden wir mit der RTX 4090 eine Grafikkarte sehen, die bei 8K die 60FPS gut halten wird.

Mit DLSS @ Performance Mode vielleicht ja ;) Mit RT und den NextGen Konsolen steigen auch die Anforderungen. Bei Spielen, welche heute schon mit nativ >4k/60fps laufen, könnte es auch mit nativ 8K/60fps klappen.

_shorty_
2020-12-28, 21:31:28
Mal ne offtopic Frage, an welchen Wissenschaftsvertreter ist denn hopper eigentlich angelehnt? Grace Hopper?

ZeXes
2020-12-28, 22:18:40
Mal ne offtopic Frage, an welchen Wissenschaftsvertreter ist denn hopper eigentlich angelehnt? Grace Hopper?

Mit höchster Wahrscheinlichkeit ja:

https://old.reddit.com/r/nvidia/comments/klo1y1/nvidia_ad102_lovelace_gpu_rumored_to_offer_up_to/gha5djj/

NVIDIA scheint die ganzen Codenamen bei der GTC2018 "geleakt" zu haben.

basix
2020-12-28, 22:33:04
Mit höchster Wahrscheinlichkeit ja:

https://old.reddit.com/r/nvidia/comments/klo1y1/nvidia_ad102_lovelace_gpu_rumored_to_offer_up_to/gha5djj/

NVIDIA scheint die ganzen Codenamen bei der GTC2018 "geleakt" zu haben.

Nicht nur wahrscheinlich, es ist so ;)

Bei AD102 frage ich mich gerade: Was ist "AD"? Ampere Dual? Einfach "Ada Lovelace" wäre doch zu einfach :D

-/\-CruNcher-/\-
2020-12-29, 05:22:02
Lovelace ist großartig gewählt. Der Name der berühmtesten Pornodarstellerin der Geschichte :D


Eher die andere Richtung

Nvidia boostet alle Female Demos (wobei man da echt drüber diskutieren kann und teils auch sollte).
Nvidia gibt ihrer nächsten GPU den Codename einer historischen doch wichtigen aber auch teils umstrittenen Mathematikerin.

Das sind schon interessante Zeichen die Nvidia hier setzt.

Also ich weiß ja nicht ob das PR hier nicht schon Plant "Lovelace" is for you Gamer Girls Unite "Green is for you Girls, we hear you"
Auch gesehen auf der anderen Lovelace ihrer umstrittenen History, immerhin war es Lovelace die auf die andere Seite dieser Industrie auch aufmerksam gemacht hat und ihre Schattenseiten, das war genauso historisch als das, was Ada Lovelace in ihrer Zeit dargestellt hat.
Und du solltest dir mal diese Industrie anschauen und sehen was gerade teils mit ihr passiert und was sich durch COVID noch deutlich beschleunigt hat.

Auf Jedenfall werden sie etwas Historisches gegen AMD/Intel/Apple brauchen diesmal und Jensen plannt doch schon historische sachen gerade.

maximus_hertus
2020-12-29, 09:16:19
Zu Lovelace kann ich nur sagen... sollten die Zahlen stimmen und NVIDIA die Leistung auf die Straße bringen können, was sie bisher fast immer gut geschafft haben, dann werden wir mit der RTX 4090 eine Grafikkarte sehen, die bei 8K die 60FPS gut halten wird.

Die Monitorhersteller haben nun noch weniger als 2 Jahre, um ihre ersten High End 8K Monitore aufm Markt zu platzieren.

Spannende Zeiten mit geiler Hardware. So, wie ich es Liebe.

Die 3090 schafft nichtmal 60 fps in 4K (überall) und die „4090“ soll mit weit weniger als einer doppelten Rohleistung dann 8K mit 60 fps schaffen?

Ab 2021 kommen dann die Next-Gen Games mit Anforderungen ähnlich Cyberpunk. Allerdings leider wohl nur selten mit DLSS Support und damit wird es für eine 3090 schwierig, die 60 fps in 4K zu schaffen. Für 8K wird man viel mehr Rohleistung brauchen als die „4090“.

-/\-CruNcher-/\-
2020-12-29, 09:35:06
Es ist genauso abwegig Cyberpunk als den Maßstab aller dinge die da kommen werden zu nehmen.
Da werden unter anderem Rockstar,Bethesda sowie Square Enix auch nochmal ein wörtchen mitreden.

WedgeAntilles
2020-12-29, 10:07:09
Bethesda
Ich gebe zu, ich musste laut lachen :biggrin:

HOT
2020-12-29, 10:27:40
8k ist lächerlich, da braucht man gar nicht zu diskutieren. AD102 wird der erste echte UHD-Chip.

ZeXes
2020-12-29, 11:09:15
Ab 2021 kommen dann die Next-Gen Games mit Anforderungen ähnlich Cyberpunk. .

Was sollen das für Titel sein?

Sowohl bei BF6, als auch FC6 gehe ich von relativ humanen Systemanforderungen aus, da man eine möglichst große Spielerschaft erreichen will und die anderen Titel die mir so für 2021 in den Sinn kommen, werden höchstwahrscheinlich an ein Cyberpunk leistungstechnisch nicht rankommen.

Am ehesten wird 2022 an der Grafikschraube gedreht. Es dauert normalerweise 1-2 Jahre bis sich die next gen Konsolen im Markt etabliert haben. Bis dahin müssen PS4/Xbox One mitgeschleppt werden.

Zumal ich davon stark ausgehe, dass Jensen und NVIDIA sich als Ziel gesetzt haben für Lovelace die erste 8K 60 FPS Grafikkarte auf den Markt platzieren zu wollen. Man hat schon jetzt die 3090 mit 8K beworben, was de facto gar nicht so falsch ist. Die Karte schafft durchaus bei vielen AAA in 8K 30 FPS. (https://www.youtube.com/watch?v=jyZbArP-Y2w)

Das nächste Ziel MÜSSEN die 60 FPS sein. Wie man die erreichen will, sei es durch starke Architekturverbesserungen in Verbindung mit einer viel höheren Shaderanzahl, durch DLSS 3.0 (welches mit hoher Wahrscheinlichkeit dann bei jedem Game eingesetzt werden kann), oder gar durch eine neue Technologie halte ich für offen zum diskutieren.

maximus_hertus
2020-12-29, 14:47:01
Dir ist schon klar, dass die miesten Spiele in deinem Youtube Video bei 8K mit mal mehr mal weniger REDUZIERTEN Details liefen?

Die RTX 3090 schafft in 4K nichtmal immer 60 fps @ avg. Z.B. im CB Parcour: 17 Spiele und immerhgin 5 mal schafft man keine 60 fps.
Bei den 0,2% Perzentil sieht es schlimmer aus: in nur 8 aus 17 Spielen werden die 60 fps gehalten. 9 mal nicht, auch wenn es das ein oder andere mal knapp ist.

Wenn man dann davon ausgeht, dass die 2022er Gen an Speilen sicherlich einiges bei den Anforderungen drauflegen, sehe ich nicht, wie eine RTX 4090 60 fps in 8K liefern soll.

HPVD
2020-12-31, 09:39:54
...
Bei den 0,2% Perzentil sieht es schlimmer aus: in nur 8 aus 17 Spielen werden die 60 fps gehalten. 9 mal nicht, auch wenn es das ein oder andere mal knapp ist.
...


nen kleines stückweit hilft besonders genau dabei SAM/Resizable BAR sobald auch NV das großflächig am Start hat...

vgl: https://www.computerbase.de/2020-12/amd-smart-access-memory-test-radeon-rx-6800/

ist schon recht beeindruckend was das großflächig bei verschiedensten Games/CPU/GPU-Generationen bringt...

iamthebear
2021-01-01, 20:25:01
Das nächste Ziel MÜSSEN die 60 FPS sein. Wie man die erreichen will, sei es durch starke Architekturverbesserungen in Verbindung mit einer viel höheren Shaderanzahl, durch DLSS 3.0 (welches mit hoher Wahrscheinlichkeit dann bei jedem Game eingesetzt werden kann), oder gar durch eine neue Technologie halte ich für offen zum diskutieren.

1.) DLSS 2.0 nutzt nicht nur einfach die einzelnen Frames als Ausgangsinformation, sondern auch die Bewegungsvektoren.

2.) Das hört sich jetzt relativ simpel an aber das Spiel muss in der Lage sein eine bestimmte Renderingauflösung zu wählen und eine andere an den Monitor auszugeben (eine Auflösung, die dieser so möglicherweise gar nicht unterstützt. Ich kann mir nicht vorstellen, wie dies mit Spielen passieren kann, die von DLSS gar keine Ahnung haben.

3.) Die weitere Entwicklung hängt stark davon ab welche Technologie AMD auf den Markt bringt. Sollte diese annähernd die Qualität von DLSS 2.0 liefern (was ich jedoch bezweifle), dann wird die auf den Konsolen implementiert und am PC ausgenommen von Nvidia sponsored Titeln wahrscheinlich nichts mehr gemacht werden und Nvidia wird die Technologie von AMD übernehmen. Am PC ist DLSS nett aber diejenigen, die es wirklich dringend brauchen sind die Konsolenspieler, da diese weniger Performance haben, jedoch durchgehend 4K Fernseher, wo man Auflösung halt sofort sieht.
Wenn AMD nichts brauchbares auf die Welt bringt (was ich mangels Tensor Cores bezweifle), dann wird wohl DLSS der Standard werden, den jeder übernimmt alleine schon um Kompatibilität zu einer größeren Palette an GPUs herzustellen. Was ich mir vorstellen kann ist, dass Nvidia die Schnittstellen noch etwas vereinfacht.

Mandalore
2021-03-24, 16:34:18
Wundert mich, dass das hier noch nicht hitzig diskutiert wurde:

https://twitter.com/kopite7kimi/status/1374619637095280643?s=21


Laut unserem extrem gut informierten Insider kopite, nutzt die diesjährige Switch Revision Ada als Architektur.

Adam D.
2021-03-24, 16:38:12
Wundert mich, dass das hier noch nicht hitzig diskutiert wurde:

https://twitter.com/kopite7kimi/status/1374619637095280643?s=21


Laut unserem extrem gut informierten Insider kopite, nutzt die diesjährige Switch Revision Ada als Architektur.
Das wäre ein für Nintendo extrem ungewöhnlicher Move. Die sind doch, was die Innereien angeht, bei Hardware-Fragen sehr konservativ.

Mandalore
2021-03-24, 16:44:59
Das wäre ein für Nintendo extrem ungewöhnlicher Move. Die sind doch, was die Innereien angeht, bei Hardware-Fragen sehr konservativ.

Ich glaube Nvidia hat es nie verkraften können aus dem Gaming Markt draußen zu sein, wie sie immer vorgemacht haben. Immerhin ist dieser mindestens seit PS4/XBOX One/ Switch explodiert durch Streaming etc.


Jetzt bietet sich indirekt durch Nintendo und vor allem DLSS es an hier wieder einen fetten Teil vom Kuchen abzugreifen.

Nintendo würde ich das auch zu 0% zutrauen, aber Nvidia könnte hier auf eigene Kosten pushen, was ja ihnen wieder zu Gute kommt nach einiger Zeit.

Was denkt ihr?

basix
2021-03-24, 17:42:05
Tegra umfasst ja nicht nur Switch. Nvidia wird den selben Chip wohl auch in anderen Geräten verbauen wollen (Shield, andere Handhelds, Tablets, etc.).

A78 + Lovelace @ 5nm Samsung wäre ein relativ kleiner Chip und somit günstig / geeignet für Nintendo ;)

Mandalore
2021-03-24, 17:53:05
Tegra umfasst ja nicht nur Switch. Nvidia wird den selben Chip wohl auch in anderen Geräten verbauen wollen (Shield, andere Handhelds, Tablets, etc.).

A78 + Lovelace @ 5nm Samsung wäre ein relativ kleiner Chip und somit günstig / geeignet für Nintendo ;)



Ich bin hier auf einem relativ alten Stand: Fertigt Samsung schon voll in 5 nm (so wie TSMC) ?

Hakim
2021-03-24, 18:46:07
Glaub für die eigenen Smartphone SoCs schon, diese exynos Dinger

Dampf
2021-03-24, 18:49:33
Ich glaube Nvidia hat es nie verkraften können aus dem Gaming Markt draußen zu sein, wie sie immer vorgemacht haben. Immerhin ist dieser mindestens seit PS4/XBOX One/ Switch explodiert durch Streaming etc.


Jetzt bietet sich indirekt durch Nintendo und vor allem DLSS es an hier wieder einen fetten Teil vom Kuchen abzugreifen.

Nintendo würde ich das auch zu 0% zutrauen, aber Nvidia könnte hier auf eigene Kosten pushen, was ja ihnen wieder zu Gute kommt nach einiger Zeit.

Was denkt ihr?

Ich denke genau das gleiche. Nvidia könnte den Chip für Nintendo ordentlich subventionieren, damit sie ihr RTX Ökosystem in den Konsolen Markt integrieren, worauf da wieder der PC profitieren wird.

Blediator16
2021-03-24, 19:44:30
Ich denke genau das gleiche. Nvidia könnte den Chip für Nintendo ordentlich subventionieren, damit sie ihr RTX Ökosystem in den Konsolen Markt integrieren, worauf da wieder der PC profitieren wird.

Wette ich dagegen. Wüsste nicht, wann Nvidia das jemals geschafft hatte :confused:

Ghost1nTh3GPU
2021-03-24, 20:06:44
Die Switch hat aktuell einen MSRP von $299. Wenn man da etwas höher geht, macht man mit 720p OLED, 100sqmm 5nm/7nm Chip und 8GB LPDDR5 wohl immernoch Gewinn.
Eher wird da Nvidia für DLSS Gegenleistung verlangen, sei es ein Mario oder Zelda Game für GeForce.;)

AffenJack
2021-03-24, 20:25:50
Glaub für die eigenen Smartphone SoCs schon, diese exynos Dinger

Qualcomms Snapdragon 888 ist auch Samsung 5nm. Wird also schon in ganz guten Mengen was produziert.

Die Switch hat aktuell einen MSRP von $299. Wenn man da etwas höher geht, macht man mit 720p OLED, 100sqmm 5nm/7nm Chip und 8GB LPDDR5 wohl immernoch Gewinn.
Eher wird da Nvidia für DLSS Gegenleistung verlangen, sei es ein Mario oder Zelda Game für GeForce.;)

Wozu so hoch gehen? Wenn es keine echte neue Gen wird, braucht man viel weniger. 60mm² ergeben bei Samsung 5nm etwa 6 Mrd Transistoren. 3x soviel wie Tegra X1, das reicht locker für nen Update und Tensor Cores. RT Cores lässt man natürlich raus. So ein Minichip ist dann auch gut, um einfach erste Erfahrungen mit dem Prozess für die großen Grafikkarten zu sammeln.

Nvidia wird gar nix verlangen für DLSS. Man will eine breite Nutzung von DLSS und ne Konsole ist perfekt dafür, dass DLSS in noch viel Engines als nur die Unreal Engine nativ integriert wird. Einfach zur Bedingung machen, dass 4k nur mit DLSS genutzt wird auf der Switch Pro. Damit würde DLSS auch auf dem PC von viel mehr Spielen genutzt werden und man hat ein Verkaufsargument gegenüber AMD/Intel.

crux2005
2021-03-24, 21:00:31
Wundert mich, dass das hier noch nicht hitzig diskutiert wurde:

https://twitter.com/kopite7kimi/status/1374619637095280643?s=21


Laut unserem extrem gut informierten Insider kopite, nutzt die diesjährige Switch Revision Ada als Architektur.

Vielleicht weil eine Hanheld Konsole hier nicht so viele interessiert. Neue, lieferbare Grafikkarten braucht die Welt. >3080 Leistung mit 16 GiB VRAM für 499 USD/€...

Ich glaube die Chancen für eine neue Gen. noch in 2021 stehen schlecht.

btw: eine GTC Keynote, zum Geburtstag, für mich... Danke ;D

NVIDIA GTC begins with a must-see keynote on April 12 at 5:30 p.m. CEST. It’s sure to be full of exciting announcements. NVIDIA’s CEO and founder Jensen Huang will share the company’s vision for computing that scales from the edge to the data center to the cloud.

https://i.imgur.com/nJJBrii.png

basix
2021-03-24, 21:35:29
8k ist lächerlich, da braucht man gar nicht zu diskutieren. AD102 wird der erste echte UHD-Chip.

8K ist aufgrund DLSS gar nicht so weit weg. Sollte AD102 2x so schnell wie GA102 werden, erreicht man bei CP2077 ziemlich genau 8K/60fps inkl. DXR Psycho. Natürlich nur mit DLSS Ultra Performance aber dessen Qualität sollte mit DLSS "3.0" eigentlich ganz gut sein und besser als 4K DLSS Quality. DLSS UP war ein Afterthought, der momentan allgemein noch etwas problembehaftet ist und auch nur >4K Sinn macht. Bei 4K ist die Renderauflösung nur 720p, was bei DLSS 2.0 für ansprechende Qualität zu niedrig ist (~1000p ist OK).

Natives 4K wird wahrscheinlich niemals "echt" fähig sein (ausser High End verschiebt sich nach 5K oder 8K). Das ist ein Moving Target Problem. Schon die Titan Maxwell war "fast" eine 4K Karte. Dann kam Pascal, Turing, Ampere. Und noch immer ist das Ziel kurz vor der Nase aber erreichen tut man es trotzdem nie.

Sunrise
2021-03-24, 21:39:59
Dann redet ihr allerdings aneinander vorbei, DLSS mit nativer Renderauflösung sollte man nicht gleichzusetzen.

Wie du schon sagst, die HW-Anforderungen sind keine Konstante. Eine pauschale Aussage ist nur für aktuelle Titel möglich.

Ampere mag da noch ein paar Reserven haben, im Endeffekt kann man aber immer nur sagen, dass 4K garkein Thema für Lovelace mehr sein sollte. Und dann schauen wir nach 2-3 Jahren wieder zurück. Ist doch immer das gleiche.

Dampf
2021-03-24, 21:53:29
Dann redet ihr allerdings aneinander vorbei, DLSS mit nativer Renderauflösung sollte man nicht gleichzusetzen.

Doch, kann und sollte man.

Neurosphere
2021-03-24, 21:59:08
Doch, kann und sollte man.

Sorry, nein kann man nicht. Auch wenn in 8k mit hoher DPI vermutlich die Unterschiede weniger deutlich sind, außer es kommen irgendwelche Fehler dazu, aber Nativ ist noch immer besser als DLSS und wird es logischerweise auch immer sein.

Sunrise
2021-03-24, 22:04:45
Doch, kann und sollte man.
Solche Einzeiler-Sätze ohne Erklärungen unterstützen nicht gerade, was du uns damit sagen willst.

Nativ ist nicht gleich DLSS, da gibt es IMHO nichts zu diskutieren.

Eventuell erläutert du dass nochmal genauer.

Mandalore
2021-03-24, 23:22:11
Solche Einzeiler-Sätze ohne Erklärungen unterstützen nicht gerade, was du uns damit sagen willst.

Nativ ist nicht gleich DLSS, da gibt es IMHO nichts zu diskutieren.

Eventuell erläutert du dass nochmal genauer.


DLSS ist tatsächlich oft schärfer und besser, aber es gibt natürlich auch die anderen Fälle. Wir sind ja relativ am Anfang.


Mit besser meine ich z.B. dass Artefakte z.B. an einem Zaun viel besser beseitigt werden als in nativer Auflösung.

Dampf
2021-03-25, 00:35:17
Sorry, nein kann man nicht. Auch wenn in 8k mit hoher DPI vermutlich die Unterschiede weniger deutlich sind, außer es kommen irgendwelche Fehler dazu, aber Nativ ist noch immer besser als DLSS und wird es logischerweise auch immer sein.

Festgefahrenes Denken, mehr ist das nicht.

Nativ ist so immer besser als DLSS wie Pferdekutschen gegenüber dem Auto.

Screemer
2021-03-25, 00:39:13
es gibt keine artefaktfreies dlss. das ist halt schlicht und ergreifen fakt.

basix
2021-03-25, 07:51:37
es gibt keine artefaktfreies dlss. das ist halt schlicht und ergreifen fakt.

Gegenfrage: Gibt es "artefaktfreies" natives Rendering?

Auch natives Rendering ist vor allem eines: Die Summe von Kompromissen. Und bei DLSS hat dieser Kompromiss (für mich ;)) die in der Summe die besseren Eigenschaften (Qualität vs. Framerate).

Und nativ ist schon lange nicht mehr so "nativ" wie man glaubt. Bei modernen Spielen gibt es viele Subsysteme für Beleuchtung, Schatten, Partikel usw. welche intern mit reduzierter Auflösung laufen. Und DLSS hat in vielen Spielen den Vorteil, dass feine Details sogar detailreicher, schärfer und temporal stabiler sind. Nicht überall und in gewissen Spielen schlecht umgesetzt, aber an vielen Orten besser. Wenn es da noch einzelne Sachen gibt, welche etwas verfälscht werden oder ein wenig Flimmern: Schade, aber kein Show Stopper. Wie gesagt, auch bei "nativem" Rendering gibt es Unschönheiten und Artefakte.

Und DLSS und Co. werden sich weiterentwickeln und diese Qualitätsmängel werden mit der Zeit immer mehr ausgemerzt. Entweder weil sich DLSS verbessert oder die Spieleentwickler DLSS besser in ihre Engine integrieren und ihren Content darauf abstimmen. Der Trend zu höheren Ausgabeauflösungen (4K) wird eine verbesserte Qualität von temporalem Upsampling weiter begünstigen (bei 1080p zu 4K hat man mehr Grund-Infos/Pixel als bei 960p zu 1440p). Natives Rendering wie wir es kennen wird aussterben. Sieh dir das letzte DigitalFoundry Video zu Marvel's Avengers an. Pixel zählen und Rendering-Auflösung ist egal. Das was davon am Bildschirm ankommt ist relevant. Und hier kann DLSS grosse Vorteile bieten.

robbitop
2021-03-25, 09:14:41
Ich sehe recht häufig, dass es ab und zu an ein wenig Perspektive und Kontext fehlt, wenn es um DLSS und/oder anderen Verfahren in Bezug auf temporaler Rekonstruktion geht.

Jeder Vorteil hat einen Nachteil. Entsprechend wird es ganz nebenwirkungsfrei nie möglich sein. Aber man kann diese minimieren.

Bei DLSS 2.x gibt es einige wenige gute Implementierungen und viele mittelmäßige und schlechte. Das liegt daran, dass DLSS 2.0 erst verfügbar war, als die meisten Spiele die es haben schon fast fertig waren. Es war also ein so genannter "Afterthought". Wenn alle Voraussetzungen geschaffen worden sind und sich an die Implementierungsrichtlinie hält, sind die Ergebnisse deutlich konsistenter.
Ich würde erwarten, dass das über die Zeit besser und konsistenter wird. Dazu kann ich mir gut vorstellen, dass auch das Verfahren weiter evolutioniert wird, was helfen wird, die "Nebenwirkungen" zu reduzieren.

Was man in den guten Implementierungen (alles hat Motion vectors, Textur- und Geometrie LoD, es gibt einen korrekten Schärfefilter [der ja auch für TAA arbeitet]) klar sieht, dass durch das Verändern der Pixelposition pro Frame (Jitter) samples über die Zeit genutzt werden, um Auflösung zu akkumulieren. Damit das in Bewegung funktioniert, muss man die Position dieser Samples im Bild wiederfinden - das passiert durch das Clamping. Dank NN ist das Clamping wesentlich besser als bisherige bekannte Heuristiken. Entsprechend aggressiver kann man vorgehen - man kann mehr Samples akkumulieren, bevor es zu Artefakten kommt.

Lange Rede kurzer Sinn: genau daher kommt mehr Auflösung. Und deshalb kann und muss man das LoD verändern. Und da Clamping nie perfekt werden kann, kommen daher auch Artefakte. Je besser das Verfahren, desto weniger Artefakte. Je mehr Grundauflösung, desto weniger aggressiv das clamping und desto weniger Artefakte.

Mit all dem im Sinn ist es klar, dass temporale Rekonstruktion die Bildqualität pro Energieeinheit oder auch pro Transistor oder pro FPS erhöht.
Ja die absolute Bildqualität kann niedriger (je nach Szene aber auch höher!) sein als nativ. Aber sie kostet so viel weniger, dass man die frei werdende Leistung investieren kann. In mehr Framerate oder mehr Rechenaufwand pro Pixel (längere Shader, mehr Geometrie etc).

DLSS 2.0 ist in der Hinsicht "nur" eine Evolution von bisherigen TAA, temporal reconstructions, Checkerboardrendering. Es erweitert diese Verfahren um ein NN für das Clamping und geht einen Schritt weiter (das sieht man daran, dass auch das LoD verändert werden sollte). Ggf. wird AMD ja auch zeigen, dass gute Heuristiken dieses auch erreichen können. Id's TSSAA 8x in der neusten Iteration hat in der Hinsicht z.B. wirklich große Fortschritte gemacht.
Es ist nicht die erste Evolutionsstufe und es wird nicht die letzte sein. Ich vermute, dass es noch andere alternative (ggf. offene) Verfahren geben wird. Das Ergebnis wird über die nächsten Jahre immer besser und besser werden. Wer weiß: ggf. ist so etwas wie native Auflösung in 10 Jahren gar nicht mehr relevant.

Und das meine ich mit Perspektive und Kontext. Ein wenig weiter zu schauen, als das was die mittelmäßigen Verfahren heute zeigen. Das Potenzial was in Verfahren wie DLSS 2.0 und ggf Fidelity FX Super Resolution oder aber Microsofts Verfahren oder googles Verfahren etc steht erkennen und gedanklich sehen, wie es weiter gehen kann.

Troyan
2021-03-25, 09:26:14
Stellt doch einfach in modernen Spielen das Post-AA aus. Ich wette, niemand wird dieses Rendering DLSS vorziehen.

Zeigt eben auch, dass man garnicht mehr weiß, wie moderne Grafik erzeugt wird.

robbitop
2021-03-25, 09:38:48
Naja Temporal AA erhöht den Informationsgehalt des Bildes ohne Auflösung zu opfern. DLSS könnte dies grundsätzlich auch, wenn Nvidia einen solchen Modus exponieren wollen würde.

DLSS möchte Rechenaufwand sparen indem Auflösung reduziert wird. Das Ziel ist es dennoch keine Bildqualität zu verlieren. DLSS kann man heute von Quality bis Ultra Performance skalieren. Wenn man noch eine Option mit nativer Grundauflösung exponieren würde, würden manche es auch heute anders sehen.

IMO ist temporale Rekonstruktion nur ein Werkzeug. Das kann man nutzen, um Perf/W zu erhöhen. Natürlich nicht ohne Nebenwirkungen. Jedoch sind diese geringer als bei seinen technischen "Vorfahren" wie Checkerboarding.

Leonidas
2021-04-29, 11:10:02
Gerüchteküche: nVidias NextGen kommt später als erwartet, Ampere muß wohl bis Ende 2022 durchhalten
https://www.3dcenter.org/news/geruechtekueche-nvidias-nextgen-kommt-spaeter-als-erwartet-ampere-muss-wohl-bis-ende-2022-durch

HOT
2021-04-29, 12:58:42
Das war von Anfang an klar, dass der 2HJ 22 kommt, das ist doch überhaupt nichts neues.

Leonidas
2021-05-11, 12:07:29
Kopite7kimi @ Twitter:
2*(8*3*3*2?)

https://twitter.com/kopite7kimi/status/1392038577803046913

HPVD
2021-05-11, 12:59:32
Kopite7kimi @ Twitter:
2*(8*3*3*2?)

https://twitter.com/kopite7kimi/status/1392038577803046913

kopite7kimi @ Twitter

Maybe the right order is GPC-CPC-TPC-SM.

https://twitter.com/kopite7kimi/status/1392050618345402369

prinz_valium_2
2021-05-11, 13:47:17
Zum Glück gibt es die neuen Konsolen. Vor 2024 erwarte ich keine neuen guten GPUs zu angemessenen Preisen.

Platos
2021-05-11, 14:05:35
Naja und vor 2022 erwarte ich keine gute Verfügbarkeit von Konsolen, also... :biggrin:

Leonidas
2021-05-11, 17:08:50
Maybe the right order is GPC-CPC-TPC-SM.

Verstehen tu' ich es trotzdem derzeit noch nicht. Passt alles nicht gut zu dem, was NV bisher so gemacht hatte.

AffenJack
2021-05-11, 17:22:38
Verstehen tu' ich es trotzdem derzeit noch nicht. Passt alles nicht gut zu dem, was NV bisher so gemacht hatte.

Aktuell sind wir bei 8 x 8 x 2 (GPC x TPC x SM) mit 64 Cuda Cores pro SM in GA100.
Also 8 x 8 x 2 x 64 = 8192 Shader

Nun schiebt Nvidia anscheinend eine Stufe zwischen GPC und TPC, dementsprechend 8 GPC x 3 CPC x 3 TPC x 2 SM. TPC haben genausoviele SM wie vorher, also rechnen wir mal mit keiner Veränderung der Cores in der SM, dementsprechend:
8 x 3 x 3 x 2 x 64 = 9216 Shader pro Die. Dann fehlt noch die 2, weil Hopper ja nicht mehr Single Chip sein soll. Also 18232 Shader pro MCM.

Die Zwischenstufe könnte zb aufgrund einer neuen Cachestufe kommen. Vielleicht gibts einen zusätzlichen L2 Cache je CPC und dann kommt ein L3, statt L2. Auch möglich, dass der L3 dann auch langsamer, aber größer wird, um für die Verbindung der 2 Chips sowas wie einen Infinity Cache zu haben.

Edit: Gerade nochmal geguckt, der L2 ist bei Volta mit 40mb ja schon verdammt groß und damit der Sprung von 192kb L1 zu 40mb L2. Vll macht da ein neuer 2mb? L2 Cache Sinn, um die Datenlokalität zu erhöhen und Verbrauch zu senken. Ist aber auch nur pure Speku von mir.

Rampage 2
2021-05-11, 19:57:19
Also 18232 Shader pro MCM.

18432 ;)


Vielleicht gibts einen zusätzlichen L2 Cache je CPC und dann kommt ein L3, statt L2.

Was ist ein CPC? :confused:

R2

HPVD
2021-05-22, 21:07:36
Performance Prognosen von @kopite7kimi:

One thing is for sure, we will get a huge performance improvement, including power consumption. Maybe we can get 100tflops fp32 in a single card.

https://twitter.com/kopite7kimi/status/1396139640571236356

based on drafts, by my calculation only, the perf scale I guess:
NAVI21 0.9X
GA102 1X
AD102 2.2X
NAVI31(4 GCDs) >2.5X
GH202 >3X
I'm optimistic. But Jensen and Lisa need time to solve problems especially bandwidth. Boring days, wait and see.

https://twitter.com/kopite7kimi/status/1396147284539330571

Rampage 2
2021-05-22, 21:41:04
Performance Prognosen von @kopite7kimi:


https://twitter.com/kopite7kimi/status/1396139640571236356


https://twitter.com/kopite7kimi/status/1396147284539330571

Ist es naheliegend, dass Nvidia beim AD102 die Zahl der Raster-Engines/GPCs mehr als verdoppelt (7 -> 18), während die reine Anzahl der Recheneinheiten weniger stark (sagen wir mal 18432, also 71%) ansteigt? Die Zahl der Raster-Engines soll ja eines der Flaschenhälse sein, warum Ampere seine theoretische Rohleistung nicht voll ausnutzen kann...

Ein anderer Flaschenhals wäre die Kontrollogik, um die Auslastung zu steigern - ist es durchaus möglich, dass Nvidia wieder auf 64 FP-SPs pro SM runtergeht und stattdessen die Zahl der SMs mehr als verdreifacht? (84 -> 288 SMs)

R2

Lurtz
2021-05-22, 21:53:35
Performance Prognosen von @kopite7kimi:

https://twitter.com/kopite7kimi/status/1396139640571236356

Soll "including power consumption" heißen, dass der Verbrauch noch weiter steigen soll, oder dass die Karten energieeffizienter werden sollen? :confused:

-/\-CruNcher-/\-
2021-05-22, 21:55:18
Wieso willst du die Raster Leistung erhöhen wenn die eh immer unwichtiger wird im insgesammten scaling des Produktes und deren unterschiedlichen SKUs ?

aufkrawall
2021-05-22, 21:59:45
Soll "including power consumption" heißen, dass der Verbrauch noch weiter steigen soll, oder dass die Karten energieeffizienter werden sollen? :confused:
Da er "improvement", und nicht "increase" im Halbsatz zuvor verwendet hat, sollte der Verbrauch eigentlich geringer sein. Aber das passt dann mit den veranschlagten abnormen Performance-Gewinnen nicht, sofern sich das nicht nur auf z.B. RT bezieht.

Rampage 2
2021-05-22, 22:08:27
Wieso willst du die Raster Leistung erhöhen wenn die eh immer unwichtiger wird im insgesammten scaling des Produktes und der SKUs ?

Woran soll es dann liegen, dass die theoretische Rohleistung von Ampere in der Praxis erheblich brachliegt? Neben der ebenfalls bereits erwähnten Kontrolllogik (zu wenig davon, SMs wieder aufgebläht) fiele mir noch das Front-End/die Geometrie-Leistung ein, welche ebenfalls an die Zahl der GPCs gekoppelt/abhängig ist...

R2

BlacKi
2021-05-22, 22:13:37
so wie sich das rausließt würde ich sagen, das er meint, der chip bringt "erheblich mehr leistung", "verbrauch eingeschlossen".


aber so oder so, ich bezweifle das man im aktuellen status bestimmen könnte welches powerlimit man bringt. und damit auch letztendlich die leistung der karte.


schon alleine 8nm samsung vs 5nm tsmc wird bei gleichem powerlimit einen ordentlichen bums bringen.

wenn die topend karte dann hbm bringt und 500w zieht und dabei kühl bleibt wie eine 3090, dann solls mir egal sein, haubtsache leistung kommt bei rum.

wenn das mit mcm stimmt, könnte man sicher sowas auch besser kühlen, da mehr abstand zwischen den dies die hitze komprimierung entschärft.

Platos
2021-05-22, 22:47:19
Ich glaube nicht, dass sie für GeForce bei TSMC fertigen.

BlacKi
2021-05-22, 23:41:56
ich glaub die haben nur mit 7nm ihre kapazitäten nicht bekommen die sie wollten und haben sich rechtzeitig in 5nm eingekauft.

-/\-CruNcher-/\-
2021-05-23, 00:14:40
Ich glaube nicht, dass sie für GeForce bei TSMC fertigen.
Die Zeiten sind sehr wahrscheinlich vorbei, glaube auch nicht das wir einen Consumer TSMC sehen werden nachdem was Ampere gezeigt hat wäre es ja auch sehr idiotisch anstelle von Effizinterem Inferencing auf schlecht ausbalancierte und überteuerte Hardware Logik zu setzen in diesem Segment.

robbitop
2021-05-23, 08:53:42
128 FPs per SM sind schon ok - siehe Pascal. Bei Ampere sind sie aber offenbar nicht so flexibel ausgeführt. Dazu gab es hier im Forum mal Untersuchungen. Ich meine es waren die Ports vom Scheduler. War halt aus Transistorsich sehr günstig, die FPUs zu verdoppeln ohne die Ports und Register zu verdoppeln.
Damit kommen aber auch eine Menge Limitierungen die 128 FPUs voll auszunutzen. Ich tippe dafauf, dass manzu Lovelace das dann wieder wie bei Pascal einführt.

AffenJack
2021-05-23, 10:11:15
Performance Prognosen von @kopite7kimi:


https://twitter.com/kopite7kimi/status/1396139640571236356


https://twitter.com/kopite7kimi/status/1396147284539330571

Ganz ehrlich, weiterhin einfach nur Blödsinn. Seit G80 gab es solche Sprünge nicht mehr und jetzt sollen plötzlich beide mit solchen Sprüngen ankommen? Bei G80 wurde dies auch durch mehr Verbrauch erkauft. Die Gerüchteküche spinnt sich da einfach nur Zeugs zusammen oder wir haben 500W Karten von beiden.

Neurosphere
2021-05-23, 11:00:29
Vermutlich handelt es sich dabei einfach nur um die Rohleistung. Was davon letzten Endes auf dem Bildschirm landet ist was anderes.

Siehe FP32 float die sich bei Ampere ja auch mehr als verdoppelt zwischen 3080 und 2080ti.

Denniss
2021-05-23, 12:34:06
wenn nvidia wieder zu TSMC zurückkriechen würde dann müssten die sich erstmal hinten anstellen.
Da wird nicht anderes als der Chip für den Profibereich gebaut, Consumer wie gehabt bei Samsung. Also Aufteilung wie bei Ampere.

Platos
2021-05-23, 13:18:40
Ganz ehrlich, weiterhin einfach nur Blödsinn. Seit G80 gab es solche Sprünge nicht mehr und jetzt sollen plötzlich beide mit solchen Sprüngen ankommen? Bei G80 wurde dies auch durch mehr Verbrauch erkauft. Die Gerüchteküche spinnt sich da einfach nur Zeugs zusammen oder wir haben 500W Karten von beiden.

Sehe ich auch so. Aber manche hier glauben auch alles. Denen könnte man auch 5 Fache Perfomance verkaufen und dann gäbe es hier zuerst mal 20 Seiten darüber, wie man das erreichen könnte.

Man "frissts" einfach, weil der Wunsch vlt. so gross ist, dass es wirklich so kommt :D


Ampere& RDNA2 liefert ja bei manchen Grakas schon einen ordentlichen Leistungssprung (bei deutlich höherem Verbrauch). Aber gut, wer weiss, vlt. züchtet man den "Big-Chip" einfach so hoch, der kostet dann 2500 Dollar und zieht 400W. Nvidias 12 Pin Stecker lässt ja 432W zu, also wo liegt das Problem :D

Alle anderen, "normalen" Modelle sehen dann anders aus.

-/\-CruNcher-/\-
2021-05-23, 13:25:40
Gaming brauch solche Chips nicht mehr die Konsolen geben hier das Tempo an.
Es wäre wirtschaftlich absolut idiotisch anders zu denken Nvidia passt sich dem seit dem Konsolenverlust an und baut ihre eigene Platform aus.

Platos
2021-05-23, 13:47:44
Das kommt noch dazu, abseits eines teuren Top-Dog sehe ich keinen Anreiz, weder für nvidia noch für AMD, so einen Sprung hinzulegen.

Nightspider
2021-05-23, 14:15:56
Das kommt noch dazu, abseits eines teuren Top-Dog sehe ich keinen Anreiz, weder für nvidia noch für AMD, so einen Sprung hinzulegen.

Also AMD kann einfach eine Menge Marktanteil gewinnen wenn jede Ausbaustufe ein gutes Stück schneller ist als bei Nvidia dank Chiplet Design.

Siehe Zen2 und den Markanteilsverlusten bei Intel.

Und dank besserem Status könnte AMD die Marge erhöhen.

Nvidia müsste hingegen die Marge verringern, was sicherlich auch nicht in deren Interesse liegt.

Platos
2021-05-23, 14:22:44
Und der Stromverbrauch geht aus welchen Wundergründen nicht drastisch hoch, wenn die Leistung auch drastisch hoch geht? 5nm ist ja nicht mal ein Fullnode.

Als nächstes kommt die 7800XT mit 400W oder was?

AffenJack
2021-05-23, 15:37:30
wenn nvidia wieder zu TSMC zurückkriechen würde dann müssten die sich erstmal hinten anstellen.

Lol, was für Vorstellungen ihr immer habt. Alles was Nvidia machen muss ist mehr Geld als AMD für die Waferfläche bieten und das wars. Mehr interessiert TSMC nicht. Nur bevorzugt Nvidia Samsungs niedrigere Waferpreise. Aber gut möglich, dass man die größeren Chips wieder zu TSMC schiebt und die kleineren bei Samsung belässt, wie man es schon früher gemacht hat. Also x02 und vielleicht x04 von TSMC und der Rest Samsung.

Platos
2021-05-23, 16:11:35
Die (AMD) haben bestimmt schon längst Verträge, da kann man nicht einfach mal mehr bieten, ansonsten werden Verträge gebrochen.

Der Move zu Samsung war m.M.n kein "Wir kriegen nichts bei TSMC also gehen wird zu Samsung" Aktion. Das war sicherlich eine bewusste Entscheidung, weil TSMC immer mehr Marktanteile hat und vermutlich dann auch immer teurer wird.

Aber da scheiden sich ja die Meinungen anscheinend.

Nightspider
2021-05-23, 17:32:17
Aus Nvidias Sicht war Samsungs Prozess ja auch gut genug um alle Nvidia Fans glücklich zu stimmen.
Ampere hat niedrigere UVPs und deutlich mehr Leistung als Turing.

Gibt also vermutlich keinen Grund warum Nvidia Stress haben sollte um bei Gaming Chips wieder schnell zu TSMC zu wechseln für die nächste Generation.

Ärgern wird es Nvidia erst wenn AMD schneller ist dank Chiplet Design und man Marktanteile und Reputation verliert. Aber mit einem Chiplet Design könnte Nvidia auch mit Samsungs Prozessen wieder die Krone zurückholen, wenn man alles richtig macht und Samsung nicht weiter zurückfällt hinter TSMC.

Es steht und fällt ein wenig mit Samsungs GAA Prozessen.

Und der Stromverbrauch geht aus welchen Wundergründen nicht drastisch hoch, wenn die Leistung auch drastisch hoch geht? 5nm ist ja nicht mal ein Fullnode.

Für dich war dann RDNA2 auch ein Wunder, nehme ich mal an, weil die Effizienz um 50% gestiegen ist im ähnlichen 7nm Prozess?

AffenJack
2021-05-23, 22:41:23
Die (AMD) haben bestimmt schon längst Verträge, da kann man nicht einfach mal mehr bieten, ansonsten werden Verträge gebrochen.

Der Move zu Samsung war m.M.n kein "Wir kriegen nichts bei TSMC also gehen wird zu Samsung" Aktion. Das war sicherlich eine bewusste Entscheidung, weil TSMC immer mehr Marktanteile hat und vermutlich dann auch immer teurer wird.

Aber da scheiden sich ja die Meinungen anscheinend.

Man bietet auch nicht kurzfristig einfach mal mehr, sondern lange im Vorraus. Wenn Nvidia sich nun gedacht hat, Samsung hat es mit 7nm zu sehr verkackt (ich glaube 8nm war die Notlösung) und man will nicht mehr, dann wird Nvidia früh genug an TSMC rangetreten sein, um 5nm Wafer zu bekommen. Dann hast du ein Bieterrennen, wer denn halbwegs 5nm Wafer kriegt und da zählt nur die Kohle. Die Verträge werden da erst geschlossen.

Wikichip hat in ihrem Samsung Artikel eine interessante Folie vom Samsung zur Prozessverbesserung. Da hat Samsung einen Teil eines Cortex A75 mit Perf und Power Scaling in verschiedenen Prozessen angegeben.
7nm vs 8nm: +9%Perf, -15% Power
5nm vs 7nm: +11%Perf,-15% Power (+21% vs 8nm, - 28% vs 8nm)
4nm vs 5nm: +11%Perf,-16% Power (+34% vs 8nm, - -39% vs 8nm)

TSMC gibt N5P vs 7nm +20% Perf, -40% Power an.

Sollte sich Nvidia entscheiden bei Samsung zu bleiben, dann hätte man von 8nm zu 4nm wohl einen ähnlichen Nodesprung wie AMD von 7nm zu 5nm, auch wenn TSMCs 5nm Node absolut bestimmt weiterhin besser ist. Das wäre aber ne Möglichkeit der Waferknappheit bei TSMC entgegen zu wirken.

Thunder99
2021-07-04, 13:06:04
Gibts Anzeichen, dass es bei dem Niveau vom Stromverbrauch bleibt? Oder wird wieder dieser nach unten gedrückt? Leos Artikel auf der Hauptseite zeigt ja wieder schön, dass in den letzten Jahren es nur nach oben ging :(.

unl34shed
2021-07-04, 13:22:03
Eher nicht, da AMD wieder in Schlagdistanz ist. Da wird jedes mögliche Watt versucht in Rechenleistung umzusetzen.

Skysnake
2021-07-04, 13:27:44
Die Tendenz geht eher Richtung 500W. Gibt ja schon von der A100 nicht nur die 400W SMX Designs sondern von einzelnen OEMs/ODMs Designs mit 500W. Also nochmals gelockertem PowerLimit.

Da wird es nicht runter gehen.

Thunder99
2021-07-04, 13:53:31
Aus meiner Sicht falsche Richtung und Entwicklung. Als Kunde muss man dann halt die Konsequenzen ziehen.

Ein L102 bei 250W bis max 300W sollte möglich sein.

fondness
2021-07-04, 14:21:43
Man bietet auch nicht kurzfristig einfach mal mehr, sondern lange im Vorraus. Wenn Nvidia sich nun gedacht hat, Samsung hat es mit 7nm zu sehr verkackt (ich glaube 8nm war die Notlösung) und man will nicht mehr, dann wird Nvidia früh genug an TSMC rangetreten sein, um 5nm Wafer zu bekommen. Dann hast du ein Bieterrennen, wer denn halbwegs 5nm Wafer kriegt und da zählt nur die Kohle. Die Verträge werden da erst geschlossen.


Wobei das ja - wenn die zahlreichen Leaks aus Asien nur halbwegs stimmen - nicht immer so professionell abläuft, sondern nvidia bei 7nm wohl schlicht zu lange gewartet hat und dann keine Kapazitäten mehr von TSMC bekommen hat. Samsung war dann wohl eher die Notlösung. Sie haben nicht geschnallt, dass TSMC längst in der besseren Position ist und die Bedingungen stellt und nicht die Kunden. Allerdings werden sie den selben Fehler wohl kaum zweimal machen.

Timbaloo
2021-07-04, 15:37:45
Dumm wenn die Notlösung für Gaming am Ende besser ist ;D

ChaosTM
2021-07-04, 15:46:03
NV hatte doch einen ziemlichen Technologie Vorsprung und konnte sich das "leisten". Ob dem immer noch so ist wird sich zeigen.

HOT
2021-07-04, 20:22:05
Man bietet auch nicht kurzfristig einfach mal mehr, sondern lange im Vorraus. Wenn Nvidia sich nun gedacht hat, Samsung hat es mit 7nm zu sehr verkackt (ich glaube 8nm war die Notlösung) und man will nicht mehr, dann wird Nvidia früh genug an TSMC rangetreten sein, um 5nm Wafer zu bekommen. Dann hast du ein Bieterrennen, wer denn halbwegs 5nm Wafer kriegt und da zählt nur die Kohle. Die Verträge werden da erst geschlossen.


Das war keine Notlösung, das war schon exakt auf 8N geplant. Erste Gerüchte über den Einsatz von 8 LPP bei Samsung gab es bereits vor Turing, sodass man erst dachte, Turing würde auf den Node gehen. Es kam ja anders.


Wikichip hat in ihrem Samsung Artikel eine interessante Folie vom Samsung zur Prozessverbesserung. Da hat Samsung einen Teil eines Cortex A75 mit Perf und Power Scaling in verschiedenen Prozessen angegeben.
7nm vs 8nm: +9%Perf, -15% Power
5nm vs 7nm: +11%Perf,-15% Power (+21% vs 8nm, - 28% vs 8nm)
4nm vs 5nm: +11%Perf,-16% Power (+34% vs 8nm, - -39% vs 8nm)

TSMC gibt N5P vs 7nm +20% Perf, -40% Power an.

Sollte sich Nvidia entscheiden bei Samsung zu bleiben, dann hätte man von 8nm zu 4nm wohl einen ähnlichen Nodesprung wie AMD von 7nm zu 5nm, auch wenn TSMCs 5nm Node absolut bestimmt weiterhin besser ist. Das wäre aber ne Möglichkeit der Waferknappheit bei TSMC entgegen zu wirken.

MMn wird NV hier einen angepassten 5 LPP verwenden und den wieder 5N nennen. Ich halte die Produktion in 8N auch für ein absolutes Erfolgsmodell, da der Yield offenbar durchaus taugt und die Kosten recht niedrig sein dürften, dafür die Kapazität aber sehr gut. Das wird für 5nm ebenfalls wichtig sein dann. 4nm ist ja bei Samsung dann ein komplett neuer Prozess, dessen Kapazität Samsung erst noch aufbauen muss. Das taugt mMn nicht für ein Massenprodukt wie Lovelace. TSMC scheidet mMn aus Kapazitätsmangel einfach aus. Nv braucht für Consumerprodukte mit den doch recht großen Dies schon sehr viel Kapazität.

Slipknot79
2021-07-05, 01:45:22
Aus meiner Sicht falsche Richtung und Entwicklung. Als Kunde muss man dann halt die Konsequenzen ziehen.

Ein L102 bei 250W bis max 300W sollte möglich sein.


MOAR Wattage, so soll es sein.
Fehlt noch, dass die Lüfter wie nen V8-Motor klingen. :redface:

TheAntitheist
2021-07-05, 05:36:50
Also AMD kann einfach eine Menge Marktanteil gewinnen wenn jede Ausbaustufe ein gutes Stück schneller ist als bei Nvidia dank Chiplet Design.

Siehe Zen2 und den Markanteilsverlusten bei Intel.

Und dank besserem Status könnte AMD die Marge erhöhen.

Nvidia müsste hingegen die Marge verringern, was sicherlich auch nicht in deren Interesse liegt.
erst mal ich hab einen Zen2, aber warum ist denn Zen überhaupt ein Erfolg geworden, weil Intel seit 6 Jahren den gleichen Chip auflegt. Erst die DRITTE Ausbaustufe hat es auf Intels Niveau geschafft. Chiplet ist nur in einem besser, günstiger in der Produktion. Das war es aber auch schon.

Chiplets bei GPUs müssen wir erst mal abwarten, der letzte Hersteller der sich daran gewagt hat, war sofort nach dem Versuch Pleite. Nvidia hat technologisch einfach noch 3 Jahre Vorsprung vor AMD, da brauch man sich nix vor machen. Sie haben keine TCs, keine RTCs und einen deutlich besseren Fertigungsprozess. Ergo können sie deswegen beim Rastern mithalten, würde AMD aber Die-Fläche für TCs, RTCs "verschwenden" und den Takt aufs gleiche Niveau wie Nvidia bringen, dann wäre sie sicherlich beim Rastern 35% langsamer als Nvidia.

basix
2021-07-05, 07:30:30
Die Situation bezüglich Chiplets ist eine ganz andere als damals. Die ganze Industrie geht in Richtung Chiplets. Wegen dem IF$ haben sie die passende Technologie, um Off-Chip Bandbreite zu reduzieren. Und allenfalls sogar noch 3D-Stacking bei RDNA3, was aus Chiplets ~monolithisch machen könnte.

Und technologisch soweit hintendran ist AMD nicht. Energieeffizienz & Flächeneffizienz sind sie gleichauf (Raster). Tensor / Matrix Cores haben sie mit CDNA auch. RT wird mit extrem hoher Wahrscheinlichkeit mit RDNA3 deutlich schneller. FSR+ kommt auch und wird verbessert. Noch ist AMD nicht dort, Nvidia hat mit Tensor Cores, starker RT Leistung und DLSS Vorteile. AMD könnte mit RDNA3 diese Lücken aber alle schliessen. Was bringt jetzt Lovelace ggü. Ampere obendrauf? Einfach ein schnellerer Ampere? Wäre sicher nicht schlecht, aber eben eher ~Gleichstand AMD (meine Speku) als 3 Jahre Vorsprung.

Und welcher Prozess verwendet wird, ist eine akademische Frage. Was zählt ist das, was auf den Platz gebracht wird.

Neurosphere
2021-07-05, 15:27:53
Zumal NV auch viel mitschleppt das am Ende garnicht ausgenutzt werden kann. AMD hat die Chips da deutlicher getrennt bei Gaming und HPC mit RDNA und CDNA. Ich glaube diesen Weg wird NV auch irgendwann gehen müssen.

NV ist bei RT weiter, generell 3 Jahre Vorsprung kann zumindest ich aber nicht erkennen. Gerade sowas wie der Infinity Cache ist etwas das NV nicht hat aber in Zukunft vermutlich brauchen wird. Bei MCM ist man zumindest durch die Prozzis weiter und hat Erfahrung, auch etwas was NV bislang nicht bieten kann. Die 3 Jahre sind also eher marketing speech, weil man bei RT zumindest eine Gen weiter ist und mit DLSS ein starkes Marketinginstrument hat.

Troyan
2021-07-05, 15:31:24
Da Ampere Lichtjahre besser ist, weißt du? Ja? Nein?

Was bringt denn der sinnlose Infinity Cache, wenn am Ende die Rohleistung fehlt? nVidia hat bei Ampere die Rechenleistung verdoppelt und somit AMD mal richtig düpiert. Die haben nämlich sinnlose Transistoren in einen OnChip-Cache verballert, der ihnen bei Raytracing nichts bringt und nicht richtig nach unten skaliert.

Erstmal muss AMD beweisen, dass die nicht wieder Generationen brauchen mit nVidia aufzuschließen.

aufkrawall
2021-07-05, 15:45:25
Was bringt denn der sinnlose Infinity Cache
Es geht schon wieder los mit ihm. :freak:

Neurosphere
2021-07-05, 15:49:18
Da Ampere Lichtjahre besser ist, weißt du? Ja? Nein?

Ich habe selber die 3080 und kann da keine Lichtjahre erkennen.


Was bringt denn der sinnlose Infinity Cache, wenn am Ende die Rohleistung fehlt? nVidia hat bei Ampere die Rechenleistung verdoppelt und somit AMD mal richtig düpiert. Die haben nämlich sinnlose Transistoren in einen OnChip-Cache verballert, der ihnen bei Raytracing nichts bringt und nicht richtig nach unten skaliert.

Ich habe bei der ganzen Thematik nie mitbekommen das man bei AMD von der Leistung von Ampere überrascht war... eher andersrum.


Erstmal muss AMD beweisen, dass die nicht wieder Generationen brauchen mit nVidia aufzuschließen.

Ich frage mich wo da Generationen abstand sein sollen? NV ist bei RT weiter, ohne Frage, aber nunmal nur eine GEN. DLSS ist eine andere Geschichte, ich denke aber das FSR sich durch die Konsolen eher durchsetzen wird, egal welches Feature besser ist.

BlacKi
2021-07-05, 15:54:41
ich denke aber das FSR sich durch die Konsolen eher durchsetzen wird, egal welches Feature besser ist.

immer diesel konsolen verbindungen. die erzählt man schon jahre und sind einfach nicht wahr. fsr wird sich wohl wegen anderer dinge durchsetzen. mit durchsetzen meine ich das es mehr spiele mit fsr geben wird als mit dlss, aber nicht mehrfach.

Gibts Anzeichen, dass es bei dem Niveau vom Stromverbrauch bleibt? Oder wird wieder dieser nach unten gedrückt? Leos Artikel auf der Hauptseite zeigt ja wieder schön, dass in den letzten Jahren es nur nach oben ging :(.

kennst du noch die diskussion von vor ziemlich genau einem jahr, also ca.2 monate vor dem release? da wurde alles spekuliert, von erheblich effizienter bis 350w. ich denke das nv selbst zum aktuellen zeitpunkt keine ahnung haben wird, wieviel die nächste gamingkarte ziehen wird. das wird frühestens passieren, wenn die nächste FE kühler als prototyp in auftrag gegeben werden.

aber wenn man das chiplet design hernimmt, was die chips günstiger macht und hineininterprätiert das man nun mehr chipfläche günstig unterbringt, dann kann man davon ausgehen, das der verbrauch mit der chipfläche wohl steigen wird. ich tippe auf 400w, 500w werden es wohl nicht werden.

HOT
2021-07-05, 15:56:09
Bitte was? Die Konsolen haben einen gigantischen Fußabdruck im PC-Markt hinterlassen. Sicherlich hat NV davon trotzdem von dem PC-Umsetzungen profitiert, was auch absolut logisch ist, denn die Radeon-Optimierung gibts ja schon auf der Konsole, die PC-Version muss aber optimal auf NV laufen. Aber das negiert doch nicht diese Tatsache, dass die Spiele für die Konsole gebaut sind :freak:.
Immer diese NV-zentrische Sicht ;D

Ich sehe allerdings Ampere trotzdem eine Generation weiter als RDNA2, das wird letztendlich ein Faktor sein. Leider sind die ganzen Karten < 12GB hinterher durch ihren Speicher schlichtweg unbrauchbar.


Troyans IF$-Sicht ist einfach nur lächerlich, so viel Fanboy muss man erst mal sein :freak:. Speicherbandbreite ist jedenfalls absolut kein Problem der RDNA2, bei denen hapert es an der RT-Leistung, schlicht und ergreifend.

DLSS ist Software, das würd ich mal komplett außen vor lassen. Das wird in nem Jahr völlig egal sein, ob DLSS, FSR oder welche passende Technik auch immer.

Linmoum
2021-07-05, 16:00:04
Da Ampere Lichtjahre besser ist, weißt du? Ja? Nein? Du machst es einem aber auch immer derart einfach, deinem Namen noch 2x ll beizufügen...

Was bringt denn der sinnlose Infinity Cache, wenn am Ende die Rohleistung fehlt? nVidia hat bei Ampere die Rechenleistung verdoppelt und somit AMD mal richtig düpiert. Die haben nämlich sinnlose Transistoren in einen OnChip-Cache verballert, der ihnen bei Raytracing nichts bringt und nicht richtig nach unten skaliert.Wieso kackt eine 3090 in FHD und teilweise auch noch in WQHD eigentlich dermaßen ab, dass sie gerne mal (deutlich) langsamer als die Konkurrenz ist, wo sie diese doch mit doppelter Rechenleistung düpiert? Klappt aus Gründen mit deinem perfekt verinnerlichten Marketing-Speech nur nicht, nech.

Wer ernsthaft glaubt, dass auch NV (und Intel) langfristig nicht auf ähnliche Cache-Lösungen setzen werden, der ist extrem naiv. Und zwar so richtig.

Erstmal muss AMD beweisen, dass die nicht wieder Generationen brauchen mit nVidia aufzuschließen.Wieso wieder Generationen? Bis auf RT herrscht zwischen beiden Herstellern Gleichstand. Da ist niemand mehr irgendwo Generationen zurück.

BlacKi
2021-07-05, 16:04:30
Bitte was? Die Konsolen haben einen gigantischen Fußabdruck im PC-Markt hinterlassen. Sicherlich hat NV davon trotzdem von dem PC-Umsetzungen profitiert, was auch absolut logisch ist, denn die Radeon-Optimierung gibts ja schon auf der Konsole, die PC-Version muss aber optimal auf NV laufen. Aber das negiert doch nicht diese Tatsache, dass die Spiele für die Konsole gebaut sind :freak:.
Immer diese NV-zentrische Sicht ;D

so krass, das du nichtmal ein beispiel bringst.



Wieso wieder Generationen? Bis auf RT herrscht zwischen beiden Herstellern Gleichstand. Da ist niemand mehr irgendwo Generationen zurück.
aber nur wenn man die unterschiedlichen fertigungsprozesse verleugnet.

Troyan
2021-07-05, 16:09:13
Wieso kackt eine 3090 in FHD und teilweise auch noch in WQHD eigentlich dermaßen ab, dass sie gerne mal (deutlich) langsamer als die Konkurrenz ist, wo sie diese doch mit doppelter Rechenleistung düpiert? Klappt aus Gründen mit deinem perfekt verinnerlichten Marketing-Speech nur nicht, nech.

Kannst du mir kurz sagen, wieviele Frames die 3080 und die 6800XT in 1080p schaffen: https://www.computerbase.de/2021-06/lego-builders-journey-pc-benchmark-test/3/#abschnitt_die_performance_von_raytracing

Also abkacken ist das, was AMD macht. Aber so richtig. :eek:


Wieso wieder Generationen? Bis auf RT herrscht zwischen beiden Herstellern Gleichstand. Da ist niemand mehr irgendwo Generationen zurück.

Ja, nVidias CineFX war auch auf dem Niveau von R300. Man musste nur einiges ignorieren wie PS2.0. :rolleyes:
60% Leistungsunterschied ist Generationen.

Neurosphere
2021-07-05, 16:17:31
immer diesel konsolen verbindungen. die erzählt man schon jahre und sind einfach nicht wahr. fsr wird sich wohl wegen anderer dinge durchsetzen. mit durchsetzen meine ich das es mehr spiele mit fsr geben wird als mit dlss, aber nicht mehrfach.

Da fast alle großen Spiele Multiplattformer sind kommt es am Ende auf den Programmieraufwand an. Um optisch mithalten zu können wird FSR zum Standard auf den Konsolen werden. Ob es sich für die Entwickler lohnt beide Features zu unterstützen wird sich zeigen müssen.


Kannst du mir kurz sagen, wieviele Frames die 3080 und die 6800XT in 1080p schaffen: https://www.computerbase.de/2021-06/...von_raytracing

Also abkacken ist das, was AMD macht. Aber so richtig. :eek:


Da musst du aber für die schönen Kirschen die Leiter ganz weit nach oben...

amdfanuwe
2021-07-05, 16:22:50
Aus einem Interview mit einem Entwickler:
Implementing DLSS was quite complex to integrate into Unity for a small studio like us; it required tweaking the engine and creating an external plugin to bridge Unity and DLSS. It was complicated, but in the end, it gave amazing results. FSR, on the other hand, was very easy to implement, it only took me a few hours, requiring only simple data.
...
Quality-wise, when there is a lot of pixel info available for upscaling to 4K, both technologies give amazing results, and I have a hard time seeing differences between them. I’d even say that I slightly prefer the FSR for 4K resolution since it doesn’t introduce any artifacts/minor blurriness that DLSS can sometimes introduce.
https://wccftech.com/edge-of-eternity-tech-qa-dev-on-amd-fsr-vs-nvidia-dlss-ps5-vs-xsx-and-more/

BlacKi
2021-07-05, 16:43:08
Da fast alle großen Spiele Multiplattformer sind kommt es am Ende auf den Programmieraufwand an. Um optisch mithalten zu können wird FSR zum Standard auf den Konsolen werden. Ob es sich für die Entwickler lohnt beide Features zu unterstützen wird sich zeigen müssen.


du hast keinen echten programmiermehraufwand durch fsr. die leute modden das ohne support in gta5. welche anteil soll hier die konsole erfüllen? ich denke, das fsr den entwicklern sogar arbeit spart. es werden vermutlich andere komplexere optimierungen einfach wegfallen, wenn fsr und dlss standardmäßig in spiele implementiert werden.

HOT
2021-07-05, 17:05:15
Wir sind ja hier im Lovelace-Thread und ich verstehe, warum NV-Leute gerne DLSS herausheben. Aber wir haben heute Mitte 21 und Lovelace kommt, wenn wir Glück haben, Ende 22. Das sind noch 1 1/2 Jahre. Bis dahin wird sich bezüglich qualitatives Upscaling noch ne ganze Menge tun, denn bis dahin gibt es Erfahrungen auf den Konsolen en masse und mit Sicherheit ein FSR2 und vielleicht auch noch ein paar andere enginespezifische Upscalingverfahren.
Ich halte es für extrem unwahrscheinlich, dass DLSS noch ein ernsthaftes Kaufargument für Lovelace sein wird. Die nackte RT-Leistung wird mMn für die nächste Generation absolut entscheidend sein mMn, da Ende 22 fast keine AAA-Spiele ohne RT mehr erscheinen werden. Für DX12_1-Karten wird es mMn ein RT-Fallback geben, das wars dann. Ich finde Ampere im Moment eigentlich besser, aber die Speichermengen sind halt der nächste Sargnagel. Wenn NV die Karten mit ordentlicher Bestückung bringen würde, wie die 3060, dann wäre Ampere wirklich überall überlegen.

Aber das heißt noch lange nicht, dass das für Lovelace vs. RDNA3 auch so bleibt.

Ex3cut3r
2021-07-05, 17:13:28
Typischer 3DCenter Grabenkampf. Ich wollte eigentlich was zum Ampere Nachfolger lesen, dar ich Ampere auslassen werden. Und dann das. ;D

Skysnake
2021-07-05, 17:27:52
Da Ampere Lichtjahre besser ist, weißt du? Ja? Nein?

Was bringt denn der sinnlose Infinity Cache, wenn am Ende die Rohleistung fehlt? nVidia hat bei Ampere die Rechenleistung verdoppelt und somit AMD mal richtig düpiert. Die haben nämlich sinnlose Transistoren in einen OnChip-Cache verballert, der ihnen bei Raytracing nichts bringt und nicht richtig nach unten skaliert.

Erstmal muss AMD beweisen, dass die nicht wieder Generationen brauchen mit nVidia aufzuschließen.

AMD hat die die Exascale Systeme geliefert. Wahrscheinlich überzeugender als NVIDIA und Intel. Genaueres wird man in 6-12 Monaten wissen

ChaosTM
2021-07-05, 17:46:08
Jedes Mal wenn ich den Trojaner lese hinterfrage ich meinen Entscheidung eine 90er kaufen zu wollen. Wird mein Gehirn dann auch so kritiklos NV vernebelt sein ? Die 1080ti hat es bis jetzt nicht geschafft, aber die dicke 3090er ist ein ganz anderes Kaliber So viele Fragen..

RDNA3 vs Porno Queen wird sicher spassig :D

AffenJack
2021-07-05, 17:56:41
Das war keine Notlösung, das war schon exakt auf 8N geplant. Erste Gerüchte über den Einsatz von 8 LPP bei Samsung gab es bereits vor Turing, sodass man erst dachte, Turing würde auf den Node gehen. Es kam ja anders.

Die ersten Gerüchte sprachen öfter von EUV und man muss sich angucken wie Ampere geworden ist. Ich glaube nicht, dass Nvidia von Anfang an mit solch einem Verbrauch geplant hat. Der kam meiner Meinung nach durch das Porten auf 8nm zustande.

Dazu ist das Ding einfach eine halbgare Architektur, die mehr aussieht, als wenn sie aus der Not geboren ist. Verdopplung von FP32, ohne dass man das ordentlich nutzen kann? Sieht mir auch eher danach aus, dass man Teile von der Kontrolllogik einstampfen musste, weil man mit 7nm und höherer Transistordichte gerechnet hat.

Daher erwarte ich als ersten Punkt bei Lovelace auch eine deutliche Erhöhung der FPS/FP32 Flop, nachdem diese mit Ampere drastisch gesunken sind. Zwar wird der Fokus auf Compute bleiben, aber es bringt nix, wenn es fast unmöglich zu nutzen ist. Desweiteren würde es mich stark wundern, wenn Nvidia nicht auch einfach einen riesigen Cache einbaut. AMD zeigt ja ganz klar die Vorteile davon.

rentex
2021-07-06, 08:04:14
Bei FHD merkt man doch, das NV ein Problem hat, so wie AMD bei 4K. Rein von der Rohpower, müsste Ampere deutlich besser abschneiden. Tut es aber nicht. Von der Effiziens nicht zu sprechen.

Thunder99
2021-07-06, 09:08:55
Eventuell wird es dann "Ampere done right" :D.

Eine Speicher Anpassung wird sicher kommen. Nochmal mit 8GB brauchen sie nicht nochmal um Kunden buhlen.

Was meint ihr? 104er 14-16GB und 102 16-24GB?

Ex3cut3r
2021-07-06, 09:18:57
Ja. War eigentlich schon bei Ampere überfällig. Allerdings bin ich kein Fan vom GDDR6X, zu stromhungrig und zu heiß. GDDR7 wäre gut.

Diese wird dann wieder mit einer Witz UVP angekündigt, die am Markt für 3 FEs gilt. Die Customs kosten alle 200-300€ mehr. Angenommen natürlich die Mining und Liefersituation hat sich bis dahin entspannt, sonst natürlich noch mehr.

HOT
2021-07-06, 09:57:04
Die ersten Gerüchte sprachen öfter von EUV und man muss sich angucken wie Ampere geworden ist. Ich glaube nicht, dass Nvidia von Anfang an mit solch einem Verbrauch geplant hat. Der kam meiner Meinung nach durch das Porten auf 8nm zustande.

Dazu ist das Ding einfach eine halbgare Architektur, die mehr aussieht, als wenn sie aus der Not geboren ist. Verdopplung von FP32, ohne dass man das ordentlich nutzen kann? Sieht mir auch eher danach aus, dass man Teile von der Kontrolllogik einstampfen musste, weil man mit 7nm und höherer Transistordichte gerechnet hat.

Daher erwarte ich als ersten Punkt bei Lovelace auch eine deutliche Erhöhung der FPS/FP32 Flop, nachdem diese mit Ampere drastisch gesunken sind. Zwar wird der Fokus auf Compute bleiben, aber es bringt nix, wenn es fast unmöglich zu nutzen ist. Desweiteren würde es mich stark wundern, wenn Nvidia nicht auch einfach einen riesigen Cache einbaut. AMD zeigt ja ganz klar die Vorteile davon.
Die Wirkung ist egal, vielleicht ist Ampere auch nur ein "schlechtes" Produkt aus deiner Sicht. Aber das ändert nichts daran, dass der Vorlauf Jahre braucht und der Fertigungsprozess einer der ersten Schritte ist, wenn es ans konkrete Chipdesign geht. Dazu passt der Zeitraum vor Turing sehr gut. Zudem ist Ampere doch ne konkrete, konsequente Weiterentwicklung von Turing. Ich sehe überhaupt keine Anhaltspunkte, dass der mit "heißer Nadel gestrickt" sein soll.
Lovelace wird eine konkrete, konsequente Weiterentwicklung von Ampere sein. Ich denke, dass man mit der Idee, die den Architekturen seit Maxwell zugrunde liegt, noch ne ganze Weite fahren wird, weil die einfach gut ist.
Ich halte Ampere nicht für ineffizient oder schlecht, ich halte die Schnapsidee, GDDR6X zu verwenden, für einen epic-Fail, in zweifacher Hinsicht, sowohl Kapazität als auch Verbrauch. Die 3070Ti ist der eindrucksvolle Beweis dafür. Ampere leidet unter einem bescheuerten Vertrag, den NV mit Micron hat. Mittlerweile gibt es 18GT/s Speicher von Samsung, GDDR6X ist also total überflüssig gewesen. Wenn NV das bei Samsung forciert hätte, hätte man den auch früher haben können, immerhin hat Samsung den auf dem Papier von Anfang an vorgesehen. Hoffentlich machen die bei Lovelace nicht wieder so einen Quatsch.
RDNA2 lebt davon, dass man komplett neu angefangen hat und die Konsolen der Haupttreiber waren, was bedeutet, dass hier auch richtig Geld floss, was AMD zu früheren Zeiten nicht hatte für GPUs. Zudem entwickelt ja jetzt das CPU-Team mit den den Chips. Hätte man das früher gemacht, wäre evtl. sogar Vega schon ein Hit geworden - die Architektur ist jedenfalls nicht der Bremsklotz, das sieht man eindrucksvoll an den APUs. Wenn V10 aus dem Stand weg 1,7GHz gehabt hätte und nicht 1,2-1,3 in Reallasten, hätte das Bild auch ganz anders ausgesehen.

Leonidas
2021-07-06, 10:01:41
Eine klarere Trennung HPC/Gaming wäre angebracht. Offenbar will man da bei nVidia noch nicht den großen Schritt wagen - dabei haben sich die Architekturen eigentlich schon stark voneinander entfernt.

w0mbat
2021-07-06, 10:54:21
Die Kombi aus 256bit + IC + GDDR6 ist einfach super effizient und günstig, ein breites Speicherinterface und GDDR6X eher suboptimal.

Ich bin mit 105% sicher, dass Nvidia das auch so sieht und wir eine bessere Speicherarchitektur bekommen.

RT wird noch mehr im Fokus stehen und langsam bewegen wir uns auf 4K 60FPS Territorium zu, da muss AMD schauen, dass sie nicht noch mehr abgehängt werden.

HOT
2021-07-06, 11:27:25
Ach, bei 384 Bit hätte 18GT/s Speicher gereicht für Ampere, dann hätte ne 3080 unter 300W gehabt und die Probleme wären nicht so groß gewesen und ne 20GB-Variante wär problemlos gewesen. Dagegen wäre AMD wieder chancenlos gewesen. NV hats einfach selber versaut diese Mal.

BlacKi
2021-07-06, 11:40:33
Die Kombi aus 256bit + IC + GDDR6 ist einfach super effizient und günstig, ein breites Speicherinterface und GDDR6X eher suboptimal.

Ich bin mit 105% sicher, dass Nvidia das auch so sieht und wir eine bessere Speicherarchitektur bekommen.

RT wird noch mehr im Fokus stehen und langsam bewegen wir uns auf 4K 60FPS Territorium zu, da muss AMD schauen, dass sie nicht noch mehr abgehängt werden.
allerdings nur über die chiplets. der infini cache kostet auch viel platz. und für 4k müsste man ihn erneut massiv größer machen. man sieht doch ziemlich deutlich das der infini cache nicht gut mit der auflösung scaled. vermutlich müsste man den verdoppeln um dem entgegenzuwirkgen.

imho ist die beste lösung wohl hbm, aber wie wir wissen kommt der nichtmehr für gaming zum einsatz, obwohl effizient und massentauglich.

aber wenn das chiplet design wirklich für gaming gpus angewandt wird, wissen wir sowieso nicht was kommen wird.

Lehdro
2021-07-06, 13:13:42
man sieht doch ziemlich deutlich das der infini cache nicht gut mit der auflösung scaled.
Woran machst du das fest? Hoffentlich nicht am RDNA2 Scaling vs Ampere, denn das hat damit nichts zu tun und ist eher eine Eigenart von Ampere. Wie schon woanders mehrfach belegt, scaled RDNA2 + IC genauso wie man es erwarten würde, siehe Quervergleiche vs. Turing und RDNA1.

basix
2021-07-06, 13:48:55
Jop, ich weiss auch nicht, wieso man hier immer die "Schuld" auf RDNA2 schiebt. Ampere benötigt einfach viele Pixel, um die Einheiten besser auslasten zu können. Das sollte bei der aberwitzig hohen FP32 Leistung eigentlich klar sein und steht in jedem Launch-Review, wo RDNA2 noch gar nicht auf dem Markt war.

aufkrawall
2021-07-06, 13:58:46
Sieht man auch daran, dass die Mehreinheiten der 6900 XT in 4k weiterhin normal vs. die 6800 skalieren, trotz der gleichen Cache-Menge. Manche wollen es einfach nicht kapieren...

HOT
2021-07-06, 14:22:42
Jop, ich weiss auch nicht, wieso man hier immer die "Schuld" auf RDNA2 schiebt. Ampere benötigt einfach viele Pixel, um die Einheiten besser auslasten zu können. Das sollte bei der aberwitzig hohen FP32 Leistung eigentlich klar sein und steht in jedem Launch-Review, wo RDNA2 noch gar nicht auf dem Markt war.
Ist das gleiche Phänomen wie bei Maxwell va. GCN. Nicht N21 ist bei hohen Auflösungen schwach, Ampere ist "schwach", wenn man nicht die richtigen Pixelmenge hat. Die CPU-Last hat sich umgekehrt. Das, was für AMD ein Nachteil war bei DX11 ist jetzt ein Vorteil bei DX12, grob gesagt. Das gilt eben nicht immer, war aber ne Prognose schon 2015.

aufkrawall
2021-07-06, 14:33:47
Nope, liegt eher nicht an der CPU. In den meisten Fällen warten Teile der GPU auf andere Teile dieser, nicht auf die CPU.

Leonidas
2021-07-07, 03:40:39
Ich bin mit 105% sicher, dass Nvidia das auch so sieht und wir eine bessere Speicherarchitektur bekommen.

... und ich hab dagegen gehört, das es wieder 384-Bit bei AD102 sein sollen.

Aber natürlich ohne jede Bestätigung. Zudem könnte NV nochwas beim Thema Caches machen, dieses Gerücht gab es ja.

Thunder99
2021-07-07, 08:58:20
Ein Vergleich der Speicherinterface und deren Energiebedarf wäre hilfreich. Soweit ich weiss liegt es an dem Interface und nicht Speicher selbst warum Ampere so viel mehr verbraucht.

Und Ampere ist wie GCN damals. Stark in hohen Auflösung, "schwach" in niedriger Auflösung. Ergo nichts dramatisches. Könnte beim Nachfolger halt ähnlich sein, da es mehr Sinn macht die Architektur in diese Richtung weiter zu optimieren (kein überproportionaler Einbruch bei starker/extremer Belastung).

HOT
2021-07-07, 09:03:02
Nope, liegt eher nicht an der CPU. In den meisten Fällen warten Teile der GPU auf andere Teile dieser, nicht auf die CPU.
Das stimmt z.T., aber z.T. auch nicht. Da gibts ausgiebige Messreihen in der PCGH zu. Es gibt allerdings auch Spiele, die mit LL-API auf Ampere wenig CPU-Last erzeugen.

... und ich hab dagegen gehört, das es wieder 384-Bit bei AD102 sein sollen.

Aber natürlich ohne jede Bestätigung. Zudem könnte NV nochwas beim Thema Caches machen, dieses Gerücht gab es ja.

Kann ich mir auch absolut nicht vorstellen, dass NV hier AMD kopiert, zumal das ja jetzt auch nicht so lange bekannt ist. Die LL-Entwicklung läuft ja schon länger mMn.

Leonidas
2021-07-07, 09:32:53
Das muß auch nicht zwingend auf den AMD-Ansatz bezogen werden. Die originale Aussage dreht sich nur um "größere Caches".

"And a larger cache."
https://twitter.com/kopite7kimi/status/1343482136901398530

basix
2021-07-07, 10:20:14
Nvidia hat auch ein Paper dazu, wo Nvidia einen A100 mit einen hypothetischen LLC mit bis zu 2 GByte koppeln (und sogar bis "Infinity" Grösse :D als upper thoretical bound) und die Performance-Gewinne analysieren. Ist jetzt eher auf HPC/ML bezogen, aber Nvidias Ingenieure sind sich des Einflusses von grossen Caches mit Sicherheit bewusst. Ist eher eine ökonomische Frage, ob es für den Chip in Betracht gezogen wird. Bei RDNA2 hat es sich gelohnt. Bei RDNA3 und vermutlich V-Cache lohnt es sich noch mehr. Aber es ist nicht auszuschliessen, dass Nvidia mit etwas vergleichbarem kommt.

mboeller
2021-07-07, 10:48:41
Falls Nvidia bei Samsung als Fertiger bleibt muss Samsung erst einmal einen ausgereiften Prozess für eine Art 3D V-Cache haben.
Laut anandtech gibt es zwar von Samsung so was (X-Cube), aber der Artikel ist noch nicht einmal 1 Jahr alt. Bis das wirklich serienreif ist dauert es bestimmt noch ein paar Jahre.

https://www.anandtech.com/show/15976/samsung-announces-xcube-3d-tsv-sramlogic-die-stacking-technology

Und ohne 3D V-Cache funktioniert das bei Nvidia sehr wahrscheinlich nicht. Die GPU sind auch ohne "Infinite Cache" schon grenzwertig groß.

HOT
2021-07-07, 11:17:23
Das muß auch nicht zwingend auf den AMD-Ansatz bezogen werden. Die originale Aussage dreht sich nur um "größere Caches".

"And a larger cache."
https://twitter.com/kopite7kimi/status/1343482136901398530
Na ja, das müssen ja nicht direkt 128MB sein wie bei AMD. Könnte auch ne simple Verdopplung sein.

basix
2021-07-07, 15:05:14
Falls Nvidia bei Samsung als Fertiger bleibt muss Samsung erst einmal einen ausgereiften Prozess für eine Art 3D V-Cache haben.
Laut anandtech gibt es zwar von Samsung so was (X-Cube), aber der Artikel ist noch nicht einmal 1 Jahr alt. Bis das wirklich serienreif ist dauert es bestimmt noch ein paar Jahre.

https://www.anandtech.com/show/15976/samsung-announces-xcube-3d-tsv-sramlogic-die-stacking-technology

Und ohne 3D V-Cache funktioniert das bei Nvidia sehr wahrscheinlich nicht. Die GPU sind auch ohne "Infinite Cache" schon grenzwertig groß.

TSMCs Demo mit 12-hi Stacked Die war auch erst vor 1 Jahr: https://www.anandtech.com/show/16026/tsmc-teases-12-high-3d-stacked-silicon

Samsungs X-Cube könnte schon mit dem Zeitplan von Lovelace zusammenfallen, wer weiss. Und wer weiss, ob Lovelace monolithisch ist oder nicht. Wir werden sehen.

Leonidas
2021-07-09, 09:18:59
Nochmal eine Termin- und Performance-Aussage zu RTX40:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-juli-2021
Ist sinngemäß dasselbe, aber eine Bestätigung aus anderer Quelle.

Edgecrusher86
2021-07-10, 12:19:54
Ausgehend von der Spekulation mit 12 GPCs und 144SM für AD102 mal meine Spekulation - das Lineup dann inkl. PCI-E 5.0 und DP2.0:


Release März-Mai 2023:

RTX 4090 - AD102-300[+] - 140/144SM - 17920CC - 560/576 TMUs - 192 ROPs - 384-bit SI - 24GB G6X/G7 @ 24-28 Gbps [1152 GB/s bis 1344 GB/s] - 17xx MHz Baseclock - 2000[+] MHz Boost - 2300-2400 MHz Max Boost - 300-350W TGP - $1499-1749 MSRP [FE]


RTX 4080 - AD102-200[+] - 116/144SM - 14848C - 464/576 TMUs - 160 ROPs - 320-bit SI - 20GB G6X/G7 @ 24-26 Gbps [960 GB/s bis 1040 GB/s] - 17xx MHz Baseclock - 2000[+] MHz Boost - 2300-2400 MHz Max Boost - 280-320W TGP - $799-999 MSRP [FE]



Release: April - Juni 2023:

RTX 4070 - AD104-300 - 84/96SM - 10752CC - 336 TMUs - 112 ROPs - 256-bit SI - 16GB G6/G6X/G7 @ 18-21 Gbps [576 GB/s bis 672 GB/s] - 17xx MHz Baseclock - 2000[+] MHz Boost - 2300-2400 MHz Max Boost - 200-230W TGP - $499-599 MSRP [FE]



Release Juli bis August 2023:

RTX 4060 - AD106-400 - 48/48SM - 6144CC - 192 TMUs - 96 ROPs - 192-bit SI - 12GB G6/X/G7 @ 18-21 Gbps [403 GB/s bis 470 GB/s] - 18xx MHz Baseclock - 2100[+] MHz Boost - 2400-2500 MHz Max Boost - 170-200W TGP - $399-499 MSRP [FE]



Release 2024 - Bis Ende Q1:

RTX 4080 Ti - AD102-250[+] - 128/144SM - 16896C - 512/576 TMUs - 168 ROPs - 352-bit SI - 22GB G6X/G7 @ 24-26 Gbps [1056 GB/s bis 1144 GB/s] - 17xx MHz Baseclock - 2000[+] MHz Boost - 2300-2400 MHz Max Boost - 300-350W TGP - $1199-1299 MSRP [FE]


RTX 3070 Ti - AD104-400 - 96/96SM - 12228CC - 256 TMUs - 128 ROPs - 256-bit SI - 16GB G6X/G7 @ 24-26 Gbps [768 GB/s bis 832 GB/s] - 18xx MHz Baseclock - 2100[+] MHz Boost - 2400-2500 MHz Max Boost - 250-280W TGP - $599-699 MSRP [FE]



Hm, glaube bezüglich ROPs passt es noch nicht so sehr - mal später schauen. :D

Unter normalen Umständen hätte ich den 104er Chip für die 4080 vermutet, aber ich habe meine Zweifel, dass das gegen einen N31 Salvage alias "7800XT" mit vermutlich sowas wie zwei Mal 72 CUs per MCM also 9216SP ausreichend stark wäre. Da dürfte NV vermutlich wieder den Big Chip in beschnitter Form nutzen und dafür erscheint mir ein Vorgehen wie mit Ampere mit wieder 320-bit SI am wahrscheinlichsten. Man würde sicherlich am liebsten höchstens 16GB verbauen, aber so etwas ist eigentlich nur mit extrem schnellem VRAM und Spar-Anbindung oder mehr als 384-bit möglich...da glaube ich also auch nicht dran - also etwa eine hypothetische 102er GPU mit 448-bit Salvage und 14GB VRAM. 384-bit und 12GB samt langsamen Speichertakt wäre natürlich auch ein klassischer Jensen-Move für eine 4080. Die 4070 und Konsorten kommen dann wieder mit mehr. ^^

An eine AMD Lösung mit maximal 256-bit und riesigen Cache glaube ich weniger für die Top-Modelle. Eventuell ein Mittelweg wie 32-64MB - aber man sieht schon, dass Ampere in Highres verglichen mit N21 Boden gut macht (was wohl auch an der besseren Auslastung der doppelten FP32 Units liegt) - mehr Bandbreite würde der Konkurrenz sicherlich auch nicht schaden, auch wenn man sagen muss, dass sich der Ansatz echt gut schlägt, dafür dass man seit 2015 mit Ausnahme der VII nur um die 0,5 TB/s nutzt, aber die Leistung extrem angestiegen ist.

davidzo
2021-07-11, 11:13:40
Im mainstream und Performance mag das hinkommen, aber bei deinem AD102 Vorschlag fehlt es erheblich an Speicherbandbreite.
Mit den erhöhten Taktraten wäre das ein Anstieg der Aluleistung von über 100%. Dazu nur ein Bandbreitenzuwachs von 20-30%, das passt nicht zusammen. Realistisch gesehen kommen da vielleicht + 50% performance bei rum, das wäre ziemlich traurig für eine neue µArch.
Gerüchte sprechen aber von Faktor 2,2 bei der performance-Ansetzung. Dafür muss man aber erstmal das Skalierungsproblem von Ampere lösen und nicht sogar ein neues Bottleneck einführen.

Nvidia hat zudem nun seit einiger Zeit das Wissen um das Fiasko was GD6X ist. 3070ti: GD6x statt GD6 verursacht +25% Verbrauch für nur +8% Mehrperformance. Das SI säuft soviel dass die Taktraten sogar niedriger ausfallen als bei einer guten 3070. Dazu ist man auch bei der supplychain nicht so flexibel wie bei standard gddr. Das wird man nicht noch einmal wiederholen wollen.
Diese Erkenntnis wird noch rechtzeitig in die Konzeptionierung von Lovelace eingeflossen sein, so vor 1.5-2 Jahren als man erste 3080 samples mit g6x im labor hatte. Wenn man die Handbremse beim SI löst kann man auch wieder zurück zu Turing Taktraten, bzw. deutlich höher mit 5nm.

Ich könnte mir für den 102er Chip daher sogar eher eine Rückkehr bzw. erstmalige Einführung bei nvidia von HBM im Consumermarkt vorstellen als ein 384bit G6X SI. Es löst sowohl das Problem der Bandbreite als auch der niedrigen Energieeffzienz des SI. Mehr Power für die ALUs, 2,5Ghz + oder so
Damit wäre auch das Problem der Auslastung/Skalierung von Ampere angegangen. Taktanhebung skaliert deutlich besser als noch mehr in die Breite zu gehen.

Sunrise
2021-07-11, 11:47:29
…Gerüchte sprechen aber von Faktor 2,2 bei der performance-Ansetzung. Dafür muss man aber erstmal das Skalierungsproblem von Ampere lösen und nicht sogar ein neues Bottleneck einführen.
Ich frage mich derzeit eher, wie man das noch kühlen will, wenn einerseits der Flaschenhals gelöst werden sollte, dadurch die Auslastung anstiege (deutlich mehr Verbrauch) und man dann noch bei der Skalierung ähnlich vorginge, wie in der Vergangenheit, bei dieser massiven Erhöhung an Rechenleistung. Ampere ist bereits jetzt am Limit, würde ich mal behaupten. Zumindest relativ zur Vergangenheit.

Zusätzlich die Bandbreite, die du ja angesprochen hast.

Irgendwas ergibt hier garkeinen Sinn oder aber Lovelace führt hier gänzlich neue Cache-Hierarchien/-Systeme oder Kniffe ein, die das Verhältnis von theoretischer Rohleistung zu Bandbreite auch noch zusätzlich stark (fast schon bahnbrechend) verbessern, sodass hier nicht noch mehr totes Silizium aus pur theoretischer Sicht, verbaut wird.

Und selbst wenn das alles passt, wird es sicher nicht einfach, das selbst auf 5nm Samsung zu realisieren, denn auch der IF bei AMD ist alles, aber sicher nicht kostenlos. Bei NV muss Lovelace entweder komplett umgedacht haben oder sie entwickeln (lediglich) eine Art Ampere Next. Was da genau passiert ist, werden wir wohl leider erst wieder erfahren, wenn z.B. Kimi das ausplaudert.

Nightspider
2021-07-11, 12:12:42
Nvidia hat für Ampere aber auch einen Prozess genutzt der beim Energieverbrauch kaum besser ist als bei Turing.

Dafür macht man dann von Samsung 8nm auf Samsung 5nm+ wieder einen größeren Sprung.

HBM würde die Effizienz deutlich verbessern, größerer Cache ebenfalls.

Eine höhere Packdichte und eine neue Architektur können die Effizienz ebenfalls wieder ein gutes Stück verbessern.

Nicht alles so negativ sehen.

ChaosTM
2021-07-11, 12:36:54
NV hat die Wahl zwischen einem Performance Monster und einem Effizienz Monster. Was sie basteln werden ist glaube ich klar.
Man wird das wieder bis an die Grenze ausreizen, weil man ja nicht genau weiß wie schnell AMD sein wird.

Nightspider
2021-07-11, 12:53:25
Das macht irgendwie nicht so sehr viel Sinn.

Für ein Performane-Monster braucht man auch eine extrem gute Effizienz.

Ist die 6900XT im Vergleich zur 5700XT ein Performance UND Effizienzmonster? Definitiv.

Wenn NV zu TSMCs N5 wechsel würde, würde man erst Recht einen guten Sprung machen können. (Habe mir jetzt mal das Wort "einfach" verkniffen)
Der Prozess bringt alleine schon 30%. Von Samsungs 8nm sinds wohl eher 45% schätze ich.

Du kannst auch jede HighEnd Karte Undervolten und 20% im Takt senken und kriegst ein Effizienzmonster.

Sunrise
2021-07-11, 12:57:58
Gab es denn bzgl. HBM irgendwelche bahnbrechenden Verbesserungen in der Supply Chain, Packaging usw., die mir entgangen sind?

Irgendwie scheint mit jeder neuen Architektur-Generation, egal welcher IHV, immer wieder der Problemlöser HBM genannt zu werden, wo doch die Argumente dagegen, sollte sich jedenfalls an dem obigen nichts geändert haben, identisch sind.

Warum überhaupt erst den Weg mit GDDR6X gehen, wenn man total easy HBM aufs Board kleben kann… und wenn ich doppelte Rechenleistung will, baue ich eben 2x HBM drauf, it’s that simple…

AMD geht den Weg mit dem IF ja genau aus dem Grund, HBM umgehen zu können und zusätzlich Effizienz (Verbrauch) zu verbessern, vor allem wenns zum externen Speicher geht.

Das Thema Auslastung ist auch nicht einfach mit Caches zu lösen, das liegt doch zum überwiegenden Teil bei NV an der schieren Masse an ALUs (FP32 Durchsatz) und der Unausgewogenheit, vor allem seitens der Programmierung, da müsste sich ja dann nicht nur die GPU darum kümmern.

Da müsste irgendwas Radikaleres kommen, wenn man all diese Themen auf einmal bearbeiten wollen würde, aber das werden wir sicher bald wissen, ansonsten wirds noch schlimmer als bei Ampere.

Bei einem Ampere Next wirds wohl eher eine Zwischenstufe, aber mir fällt bei der Masse an spekulierten GPC kein Ansatz ein, der auch vom Speicher dazu passt, also muss dennoch irgendwas die Effizienz chipintern stark verbessern.

davidzo
2021-07-11, 13:01:09
Lovelace soll ja schon eher nur ein Ampere Next sein, der zwischen Hopper+MCM dazwischen geschoben wurde.

Das ist wohl ausgehend davon dass man nach dem Tapeout von Ampere gemerkt hat wieviel Potential man auf dem Tisch liegen lassen hat. Jetzt wird man die low hanging fruits pflücken.
Ich erwarte daher eher eine Vorgehensweise wie bei GF100-GF110 (Architekturell, ohne nodesprung) bzw. bei Maxwell auf Pascal.

So sehr man sich einen besseren Hardwarebasierten Scheduleransatz wünscht, glaube ich kaum das nvidia hier investieren wird. Das durch Software zu lösen ist flexibler und bei den heutigen Zuwächsen an CPU performance wird das auch für Lovelace nochmal reichen. Gut für nvidia ist dass selbst midrange Karten üblicherweise mit highend CPUs getestet werden, das frühere CPUlimit gegenüber RDNA3 wird also wieder kaum zu sehen sein.
Dann schon eher leichte Cache Vergrößerungen um die Skalierung innerhalb des SMs und mit mehr SMs parallel zu verbessern. Große caches wie bei RDNA würde ich nicht erwarten, da dann architekturell zuviel verändert werden muss und Samsung Prozesse auch nicht gerade für ihre HD Sram libraries bekannt sind. Bisher erreicht Samsungs EUV SRAM, also das was nach 8LP kommt nur eine vergleichbare Density zu TSMC N7P non-EUV SRAM.


Das ruinöse G6x 384bit SI frisst derzeit gute 1/3 des TDP Budgets. Wenn man das irgendwie fixen kann, z.B. durch HBM der eher noch sparsamer ist als regulärer 256bit GDDR6, dann würde der +70% Einheitenzuwachs in einer ähnlichen TDP möglich sein wie eine aktuelle 3080/3090.

Ich meine A100 schafft es auch 128 SMs in 250-500Watt zu packen, die mit packed FP16 und uint8, 1:2 DP sicher nicht kleiner sind als die doppelten FP32 Alus von GA102. Und in den 400Watt TDP für ein normales SXM Modul sind sogar noch die 6x stacks b´von 40 oder 80gb HBM2e mit drin.

Wenn man dann auch noch durch den neuen Prozess das Taktratenlimit auf um die 2,5Ghz anheben kann ohne das dadurch der Verbrauch steigt, dann hätte man die Alu-Rohleistung mehr als verdoppelt im selben TDP Budget.

3 Stacks HBM2e (1500gb/s) oder HBM3 (2000gb/s) würden genau für 24gb VRAM passen. Bei HBM3 würden wohl auch 2 Stacks (1400gB/s / 32gb) hinhauen und wären bei der Speichermenge ein gutes Upgradeangebot für Turing und Ampere Highendkunden.

Im Performancesegment dagegen reichen wohl 256 bis ggf. 320bit GDDR6 für WQHD und da ist TDP auch ein weniger schweres Argument. Solange man unter 300Watt bleibt ist da alles okay, selbst wenn die Konkurrenz effizienter ist. AMD hat ja auch damals mit Polaris noch gut Marktanteile gegen Pascal verteidigt obwohl man überhaupt nicht konkurrenzfähig beim Verbrauch war.

ChaosTM
2021-07-11, 13:08:50
@Nightspider
Es hängt nur davon ab, wie viel Energie man durch schicken kann und will, ja.
Man könnte sagen.: Schaut her, unsere Karte braucht nur 240 Watt und ist 70% schneller als XY oder man baut eine mit 400 Watt die dann nochmal 10-15% mehr drauf legt. War etwas unglücklich ausgedrückt. Effizient muss sie auf alle Fälle sein.

basix
2021-07-11, 13:20:18
Zum Thema Bandbreite:
Sehe ich nicht so als Problem. Eine 3090 hat 2.09x Bandbreite einer 3070. Ist dabei aber nur 1.44x schneller in 4K und nur 1.59x mit aktiviertem Raytracing (CB und PCGH Index). Die Bandbreite ist also eher nicht das Problem.

Ich sehe auch G6X mit 24 Gbit/s als Maximum an. 28 Gbit/s halte ich für Wunschdenken. Vor allem, wenn das G6X Interface schon mit 19 Gbit/s ein Stromschlucker ist. Mehr benötigt man mMn aber auch nicht:

2.2x Performance (um mal das als Zielwert für dieses Beispiel zu übernehmen)
2.09 / 1.6 = 1.3x Bandbreite pro Performance verglichen mit einer 3070
24 / 19.5 Gbit/s = 1.23x Bandbreite verglichen mit einer 3090
32 MByte L3$ aka "Infinity Cache" bringt bei 4K nochmals 1.37x effektive Bandbreite (1 / (100% - 27%) = 1 / 0.73 = 1.37; siehe https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12713938#post12713938)
1.3 * 1.23 * 1.37 = 2.2x effektive Bandbreite und Bandbreitennutzung

Ach, die Rechnung passt fast zu perfekt :D

Und höher als 4K will man aus Sicht Nvidia eigentlich auch nicht gehen: Für etwas gibt es DLSS 2.x, womit die effektive Auflösung eher <4K betragen wird und die Cache-Effizienz und somit der Bandbreitenmultiplikator noch zunimmt (ausser man spielt in 8K).

Ausser dem L3$ muss man nicht mal etwas an der Architektur ändern (z.B. grössere L1/L2$ sind nicht zwingend nötig). Ich erwarte aber, dass Nvidia auf 3 Instruction-Ports bei den SM gehen wird und somit 2x FP32 und 1x INT32 parallel laufen lassen kann. Das wäre die logische Weiterentwicklung von Pascal, Turing, Ampere und nun Lovelace. Damit könnte man ca. +30...40% IPC gewinnen, was bei 144 zu 84 SMs wieder gut zu den 2.2x Performance passen würden.
- 144/84*1.3 = 2.2x
- 144/84*1.4 = 2.4x, abzüglich Saklierungseffizienz auf 144 SMs landet man dann wieder auf 2.2x (~änhliche Taktraten wie bei Ampere vorausgesetzt, so um die 2.0 GHz Boost Clock)

Sunrise
2021-07-11, 13:32:57
Lovelace soll ja schon eher nur ein Ampere Next sein, der zwischen Hopper+MCM dazwischen geschoben wurde.

Das ist wohl ausgehend davon dass man nach dem Tapeout von Ampere gemerkt hat wieviel Potential man auf dem Tisch liegen lassen hat. Jetzt wird man die low hanging fruits pflücken.
Ich erwarte daher eher eine Vorgehensweise wie bei GF100-GF110 (Architekturell, ohne nodesprung) bzw. bei Maxwell auf Pascal.

So sehr man sich einen besseren Hardwarebasierten Scheduleransatz wünscht, glaube ich kaum das nvidia hier investieren wird. Das durch Software zu lösen ist flexibler und bei den heutigen Zuwächsen an CPU performance wird das auch für Lovelace nochmal reichen. Gut für nvidia ist dass selbst midrange Karten üblicherweise mit highend CPUs getestet werden, das frühere CPUlimit gegenüber RDNA3 wird also wieder kaum zu sehen sein.
Dann schon eher leichte Cache Vergrößerungen um die Skalierung innerhalb des SMs und mit mehr SMs parallel zu verbessern. Große caches wie bei RDNA würde ich nicht erwarten, da dann architekturell zuviel verändert werden muss und Samsung Prozesse auch nicht gerade für ihre HD Sram libraries bekannt sind. Bisher erreicht Samsungs EUV SRAM, also das was nach 8LP kommt nur eine vergleichbare Density zu TSMC N7P non-EUV SRAM.


Ich denke das klingt schlüssig.

Also verbaut NV aufgrund des Transistor-Spielraums bei Samsung vor allem wieder massiv mehr Einheiten und verbessert die Auslastung über die SMs, so weit es möglich und wirtschaftlich sinnvoll ist.

Dann sind wir aber wieder an dem Punkt, den du ursprünglich aufgeworfen hast, woher die Bandbreite? Vor allem, wenn es im Chip selbst dann zu mehr Anfragen an den Speicher kommt, weil jetzt mehr Arbeit verarbeitet werden kann, da muss ich ja umso stärker die Bandbreite hochschrauben, ansonsten verhungert der Chip grandios daran.

@basix
Danke für deine Rechnung, war mir garnicht bewusst, dass da noch soviel Bandbreitenspielraum brach liegt. Ich bin mir fast sicher, dass man GD6X wieder verwendet, nur in verbesserter, bzw. optimierter Form. Im Endeffekt will NV immer hohe Margen und Leistung verkaufen und benötigt viel Kapazität (wenn auch relativ bei GX102 bzw. AD102 weniger). HBM würde diese Rechnung IMHO zerstören.

Nightspider
2021-07-11, 13:33:45
Lovelace soll ja schon eher nur ein Ampere Next sein, der zwischen Hopper+MCM dazwischen geschoben wurde.

Hopper war jetzt der A100 Nachfolger für HPC?

Wenn Lovelace aber nur ein "besserer Aufguss" von Ampere ist, würde der doch nicht erst Ende22/Anfang23 aufschlagen oder?

Dann hätte NV eher 1,5 Jahre nach Ampere angestrebt. Oder haperts am unfertigen Samsung Prozess?

Sunrise
2021-07-11, 13:54:39
Hopper war jetzt der A100 Nachfolger für HPC?

Wenn Lovelace aber nur ein "besserer Aufguss" von Ampere ist, würde der doch nicht erst Ende22/Anfang23 aufschlagen oder?

Dann hätte NV eher 1,5 Jahre nach Ampere angestrebt. Oder haperts am unfertigen Samsung Prozess?
Ich bin zwar nicht davidzo (war aber gerade sowieso am tippen):

Ja, Hopper ist HPC (wieder ziemlich sicher TSMC).

Ich gehe davon aus, dass man einerseits die Lieferfähigkeit sicherstellen will (Papiertiger will niemand) und andererseits (ist ja das identische Thema) muss Samsung bei solch großen GPUs dafür yieldmäßig bereit sein. Wir reden immerhin von 5nm bei Samsung, und hier gabs ja Gerüchte, dass der aktuell noch mehr als unrund laufen soll.

NV als AG muss ja nachweisen, dass sie neue Investitionen und Ausgaben auch zu höheren Ergebnissen bringen und das geht nicht, wenn sie einerseits (neue) Technologie bzw. für sie extrem wichtige Kernprodukte vorstellen, aber nicht liefern können.

Da Samsung ja scheinbar alles brutal auf Dichte und mobile optimiert, weil die vor allem SoC-Kunden haben, ist NV da schon ein Kunde, der extrem hohe Ansprüche bei großen ASICs hat, die aber auch immer sehr an der Kante gebaut sind. Aus dem Grund hatten sie ja häufig eigene Varianten beim Auftragsfertiger definiert, weil das vollkommen andere Parameter sind, die NV hier anfordert. So flexibel sollten die aber auch alle sein, NV nimmt ja schließlich auch beträchtliche Mengen ab.

basix
2021-07-11, 15:27:04
32 MByte SRAM sollten in Samsung 4/5nm eigentlich nicht sehr gross sein. Samsungs 5nm Prozess erreicht die etwas höhere SRAM-Density wie TSMCs 7nm. Und von der Navi 21 Präsentation wissen wir, dass 128 MByte 108mm2 gross sind (ausgehend von 27mm2 für 32 MByte bei Zen 3). Also sollten 32 MByte in etwa 25mm2 an Fläche beanspruchen, wenn sie es ähnlich wie bei RDNA2 machen. Auf einen 500...700mm2 Chip gerechnet ist das jetzt nicht extrem viel.

Ich vermute, das Nvidia 5LPP oder 4LPP nimmt. Dann erreicht man ausgehend von 8nm 1.59x oder 1.97x Scaling (vermutlich vor allem Logic, SRAM und IO wird schlechter skalieren, siehe https://www.anandtech.com/show/16815/samsung-deployment-of-3nm-gae-on-track-for-2022).
5LPP würde eigentlich von der Timeline, Verfügbarkeit usw. gut passen. Wird dann halt eher ein 700mm2 als 600mm2 Chip und vergrösserte Caches sehe ich als etwas skeptisch an. 4LPP würde dagegen sehr gut mit vergrösserten Caches und ~650mm2 passen. Anfang 2023 wäre ebenfalls ein Indikator für 4LPP.

Eine starke Vergrösserung des L2$ ist nicht mal unbedingt besser, da hier laut den AMD Folien 4x mehr Fläche pro MByte beansprucht wird. Da lässt man eher den L2$ etwas kleiner (z.B. 9 MByte anstatt irgendwie 16 MByte). Vergrössert man dann noch pro SM den L0/L1 Cache um der erhöhten IPC Herr zu werden und wäre es eine wirklich starke und balancierte Architektur.

aufkrawall
2021-07-11, 15:44:29
Ich denke auch, dass man nicht gleich einen riesigen Cache bräuchte. Mit der 3060 bringt VRAM-OC hier lächerlich wenig, ~12% mehr Bandbreite bringen vielleicht ~3% mehr Performance.

Edgecrusher86
2021-07-11, 16:35:23
NV hatte in der Regel immer 3-4 Gbps an Bandbreite pro Generation addiert - insofern dürften es maximal 24 Gbps für AD werden - eventuell auch gleich als etwas sparsamerer GDDR7 2023 - das sollte sicher machbar sein, dass der neue Standard dann marktreif ist. Die bis zu 28 Gbps waren auch eher theoretischer Natur, sofern keine wirkliche Cache Verbesserung käme - was wohl Recht unwahrscheinlich ist bei dem aufgezeigten Bandbreiten-Optimierungspotenzial. Da Samsung wohl Probleme mit 5nm hat, wird es wohl eher maximal 5LPP in grob zwei Jahren werden, denn 4LPP.

Eine Mehrleistung um oder über den Faktor 2 sehe ich eigentlich nicht und diese wird wohl auch nicht notwendig sein - so etwas gab es in der Vergangenheit auch eigentlich nie - vielleicht mit Ausnahme G80 zu G71 in Highres und mit viel AA. Dies könnte eher wieder für wenige best Case Szenarios sein wie Lego Builder's Journey (RT) oder diverse Computer-Anwendungen. Ein Pascal ähnlicher Sprung von +60-70% im Mittel dürfte ausreichend sein, da vermutlich auch N31 nicht mehr als 80% bezogen auf N21 schneller werden dürfte mit MCM und 2x 80 CUs [N21 ist ja trotz doppelten Einheiten, Taktplus, IPC und IF auch "nur" 80% vor N10]. Dann könnte man auch die Taktraten weiterhin niedrig halten (also zum Beispiel "nur" +200 MHz für das Portfolio) und die GPU-Effiziens mit einer niedrigeren Spannung weiter verbessern; generell sind ja viele Einheiten mit weniger Takt auch effizienter als anders herum. Im Endeffekt wird es wohl kein Problem sein, wenn AMD in Rasterizing einige Prozentpunkte schneller sein wird, aber in RT dürften man Lovelace wohl eher nicht überholen und in der Zeit könnte vielleicht auch DLSS 3.0 aufschlagen.

Man darf gespannt sein, denn hier über die AI ist sicherlich noch ein riesiger Sprung bezüglich Bildqualität/Upscaling zu erwarten und der Sprung von DLSS 1.0 auf 2.0 war schon beeindruckend. Ohne temporäre Kompetente ist FSR ja im Grunde auch nur eine auf breiter GPU-Basis aufgestellte Alternative, denn ein kompletter Ersatz. Ich gehe davon aus, dass DLSS weiter bestehen bleibt, erst Recht wenn es zum Beispiel in die UE4/5 implementiert wurde.

mksn7
2021-07-11, 18:32:26
Ausser dem L3$ muss man nicht mal etwas an der Architektur ändern (z.B. grössere L1/L2$ sind nicht zwingend nötig). Ich erwarte aber, dass Nvidia auf 3 Instruction-Ports bei den SM gehen wird und somit 2x FP32 und 1x INT32 parallel laufen lassen kann. Das wäre die logische Weiterentwicklung von Pascal, Turing, Ampere und nun Lovelace. Damit könnte man ca. +30...40% IPC gewinnen, was bei 144 zu 84 SMs wieder gut zu den 2.2x Performance passen würden.

Von 2 auf 3 wäre im aktuellen Schema etwas awkward. Ampere/Turing sind eigentlich nur single issue, aber weil an halb breite Einheiten geissued wird kann man damit trotzdem jeweils zwei halbe FP32/Int Einheiten auslasten. Für drei halb breite Einheiten bräuchte es 1.5x Issue...

AffenJack
2021-07-11, 20:05:30
Kann ich mir auch absolut nicht vorstellen, dass NV hier AMD kopiert, zumal das ja jetzt auch nicht so lange bekannt ist. Die LL-Entwicklung läuft ja schon länger mMn.

Von Wissen über den IF bei Nvidia bis Release Lovelace düften es schon drei Jahre sein. Das ist ne gute Zeit. Außerdem vergisst du, dass Nvidia teilweise schon den Weg zu großen Caches geht, wenn auch bei A100. Aber da ist man auch schon bei 40mb L2. Es ist jetzt nicht so das Problem das vorhandene Wissen für die Consumersparte umzuwandeln. Bei RT wurde glaube auch öfter erwähnt, dass größere Caches von Vorteil sind. Das mag auch unabhängig von AMD eine parallele Entwicklung bei Nvidia sein. Man muss ja nicht sofort bei 128mb landen, sondern vll bei 40-60mb.

HOT
2021-07-12, 09:15:20
Das klingt realistisch.

Etwas Sorgen macht mir da eher die 450-550W-Aussage. Aber ich denke, es wird sich bei den Steigerungen im RT nicht vermeiden lassen, noch höhere Verbräuche zu fahren.

basix
2021-07-12, 09:42:08
Bei diesen TDPs bin ich raus. Ich fand die 270W der 2080 Ti schon viel und mit UV konnte man das auf <200W drücken. Aber 500W? Das kriegt man selbst mit extremem UV nicht <300W. Schon bei der 3080/3090 ist man mit UV in der Nähe von 300W.

Ich kann fast nicht glauben, dass man mit dem FE Modell so hoch geht. Bei Boardpartnern schon eher.

Edgecrusher86
2021-07-12, 10:39:05
Es kommt natürlich auch immer auf die Präferenzen drauf an, wieviel eine Karte ziehen darf.

Ich fahre hier UWQHD mit, wenn möglich, extrem UV bei 1335-1365 MHz @ 731mV + 60 fps Limiter und DLSS Q oder B (CP) [teils auch nur 40 oder 50 fps - W_D Legion etwa fühlt sich ordentlich mit 40 fps an + G-SYNC].
Dann zieht die 3090er meistens so 170-200W, also nicht extrem viel mehr als Pascal 1080 Ti früher mit 1670 MHz @ 800mV (24/7 Profil) [~ 125-150W im Mittel, sehr selten im Peak bei grob 185W].
Bei BF1 im MP langen obige Taktraten bei der 3090, um hier die 100Hz Refresh zu halten bei ~ 240W Verbrauch. CoD CW hatte ich letztens oft mit 80 fps Cap bei grob 140-150W gespielt.
Ich habe halt gerne große Reserven inkl. VRAM-Bestückung, wenn doch mal notwendig - darum werden keine kleine Karten gekauft. ;)

Doom Eternal läuft hier auf UN und RT per DLSS Q [960p] auf 3440x1440 mit ~ 105-136W [1350 MHz @ 731mV] und 60 fps - ein Traum für warme Tage. :)

Klar, wenn ich auf Kante fahren würde und vor allem nativ, wäre ich auch weit jenseits der 300W möglich, aber darauf verzichte ich freiwillig [hab das GB OC BIOS oben, also 390-400+ W Peaks dürfte sich die Karte genehmigen].

Also 450-550W klingt nicht sehr sinnig - dann muss man ja 3,5-4 Slot Modelle oder gleich per AiO bringen - oder noch besser in einem extra Gehäuse mit integriertem NT. :D
Also ich würde als Hersteller darauf achten, dass die nächste Generation nicht mehr TGP als die 3090 bekommt - und wenn 5-10% weniger Leistung bei herum kämen.

WedgeAntilles
2021-07-12, 10:46:16
500W - bekäme man das mit Luft überhaupt noch gekühlt?

Und nicht jeder will eine Wasserkühlung. Man entwirft aber kein Produkt, dass einen Teil der Käuferschaft quasi von Haus aus ausschließt.

Eine FE mit 500W kann ich mir daher nicht wirklich vorstellen.


Ich bin auf die Ram-Bestückung der 4070 gespannt.
Gab es da schon Gerüchte?
Kommt ein viertes mal 8GB?
Geht man auf 12?
Oder auf 16?

Ich hoffe einfach mal auf 16.

HOT
2021-07-12, 10:55:20
Nö, die sind dann alle AIO-Gekühlt und es wird von den High-End-Modellen mMn jeweils auch ne reine Wasserblockvariante geben, in den Bereichen gibts dann mMn keine LuKü mehr, nur noch Exoten. Lukü läuft im High-End mMn aber sowieso ab. Das ist dann für die x60er und x70er vorbehalten. Bei Preisen jenseits der 800€ ist das aber auch kein Problem ne AIO anzubieten. Technisch machbar ist das, mit den jetzigen Gehäusen ist das kein Problem, Netzteile sind ja soweiso immer mehr oder weniger ein Problem bei neuen Generationen, von daher auch nix neues. Ich sehe keine Hindernisse mehr Strom zu verbraten. Die Frage ist eher, ob man das als Konsument mitmachen möchte. mMn ist das der Preis für schnelles RT und das trifft alle Hersteller.

Bei Speicherbestückung reden wird dann ja von Anfang 23. Wir werden abseits der 3090 und 3060 ne runde Verdopplung sehen, das halte ich für sicher, vielleicht schon bei einem evtl. Super-Refresh für Desktop in 22.

Edgecrusher86
2021-07-12, 10:58:38
Das würde man wohl unter Luft schon gekühlt bekommen - aber dann braucht es 2-3 Stützen und einen Kühler mit 2,5-3kg würde ich meinen. :D
Ja, eine AiO mit 240mm Radiator wäre natürlich sinniger - aber am besten auch die Rückseite massiv passiv gekühlt dann. :)

Sinnig wäre es wohl, auf 16GB zu gehen und 256-bit beizubehalten. Die 4060 wird sicherlich auch 12GB bekommen.
Ich denke nicht, dass sich das Marketing das erlauben kann, ein zweites Mal das kleinere Modell zu bevorteiligen, aber man weiß ja nie bei NV. ^^

Slipknot79
2021-07-12, 11:03:29
Ne Graka kann nicht genug W benötigen, wie nen Lambo. Wen stört schon nen Lambo? (y)
THE MOAR YOUR WATTAGE, THE HIGHER YOUR FPS. :redface:

Troyan
2021-07-12, 11:20:18
Von Wissen über den IF bei Nvidia bis Release Lovelace düften es schon drei Jahre sein. Das ist ne gute Zeit. Außerdem vergisst du, dass Nvidia teilweise schon den Weg zu großen Caches geht, wenn auch bei A100. Aber da ist man auch schon bei 40mb L2. Es ist jetzt nicht so das Problem das vorhandene Wissen für die Consumersparte umzuwandeln. Bei RT wurde glaube auch öfter erwähnt, dass größere Caches von Vorteil sind. Das mag auch unabhängig von AMD eine parallele Entwicklung bei Nvidia sein. Man muss ja nicht sofort bei 128mb landen, sondern vll bei 40-60mb.

Größere Caches bringen überhaupt nichts bei Raytracing, weil das BVH viel zu groß ist.

Ampere ist effizienter als der RDNA2 Fehlschlag und das trotz normalen GDDR6. Transistoren für Caches zu nutzen, macht nur Sinn, wenn die Architektur nicht mehr skaliert wegen Ineffzienz.

Linmoum
2021-07-12, 11:23:49
Der letzte Absatz ist pure Realsatire und der letzte Satz vor allem dann, wenn man die 3070 und 3070Ti vergleicht. NV wird natürlich für die Zukunft aus dem GDDR6X-Fiasko gelernt haben. Die Frage ist nicht ob NV auch auf Cache setzen wird, sondern in welcher Form.

Nightspider
2021-07-12, 11:27:44
Troyan ist nicht mehr zu helfen.

Thunder99
2021-07-12, 11:29:29
Ich hoffe und erwarte eine moderate Leistungssteigerung bei geringerem Energieverbrauch. Technisch möglich und der Druck besteht ja nicht, da die Konsolen ja auch nicht die RT MMonster sind.

No way bei Karten die noch mehr verbrauchen als Ampere!

HOT
2021-07-12, 11:34:36
Die Konsolen sind bei der Entwicklung von RT egal, sie können das Minimum ja leisten. Klar ist, dass RT massiv wachsen wird und das wir erst am Anfang der Entwicklung stehen. Hinzu kommt die weitere Diversifikation des Marktes in mehr Marktteilnehmer, die Druck auf NV ausüben und einen moderaten Anstieg schwer möglich machen. Konkurrenz belebt das Geschäft. Ich denke, mehr Watt sind unvermeidlich.

basix
2021-07-12, 11:47:23
Ich denke, mehr Watt sind unvermeidlich.

Aufgrund mehr Konkurrenz sind steigende Verbräuche wahrscheinlich, ja. Eigentlich hat der Verbrauch zwischen 2011 und ~2019 nur stagniert, weil Intel und Nvidia klare Performance-Leader waren und es sich leisten konnten, die TDP nicht noch mehr zu steigern. Seit AMD wieder im Geschäft ist, steigen auch die Stromverbräuche der Chips wieder (bei Intel wie auch Nvidia).

Dennoch ist das mMn keine zu begrüssende Entwicklung aus Sicht des Kunden. Mehr Verbrauch, schwerere Kühler welche man fast schon abstützen muss, grössere Netzteile, neue Steckerformate, höhere Anforderungen an die Gehäuse-Kühlung, allgemein höherer/unnötiger Ressourcenbedarf für ein Hobby welches auch ohne dies gut funktionieren würde. Und on Top: Gaming bei warmen Tagen nur noch in Unterhosen möglich ;)

HOT
2021-07-12, 11:49:12
Das werte ich gar nicht. Das kann jeder für sich entscheiden.

basix
2021-07-12, 11:50:24
Kann man? Hat man wirklich die Wahl? Wenn es nichts anderes mehr gibt als >200W Klopper, auch im Midrange?

Einzige Wahl wäre: Hobby aufgeben / reduzieren oder wie Edgecrusher 2/3 des Potentials der HW liegen lassen (welche aber aufgrund der Auslegung auf 3/3 dann entsprechend überdimensioniert ist).

HOT
2021-07-12, 11:52:42
Das ist halt die Macht des faktischen. Du kannst ja sehr wohl für dich entscheiden ob du das machen möchtest oder nicht. Als man sich ne Voodoo eingebaut hat, hat sich auch keiner vorstellen können, dass mal irgendwann ne extrerne Stromversorgung nötig ist wie bei der 9700.

Grundsätzlich: Es sind mMn momentan in allen Themenbereichen zu viele Leute unterwegs, die alles nur bewerten (ich mein nicht dich jetzt persönlich) und wenig reflektieren, was einfach nur ist. Genau wie bei dieser Chinadiskussion. Man kann daran nichts ändern, wie totalität China ist oder nicht ist (und man kann es anhand der spärlichen Information auch gar nicht bewerten, das aber nebenbei). Es ist schlichtweg phyiskalisch nicht möglich, die Leistung inclusive RT deutlich weiter zu steigern als mit mehr Saft. Das ist ein phyiskalisches Fakt. Bewerten ist sinnlos.

Nightspider
2021-07-12, 11:53:41
Kann man? Hat man wirklich die Wahl? Wenn es nichts anderes mehr gibt als >200W Klopper, auch im Midrange?

Einzige Wahl wäre: Hobby aufgeben / reduzieren oder wie Edgecrusher 2/3 des Potentials der HW liegen lassen (welche aber aufgrund der Auslegung auf 3/3 dann entsprechend überdimensioniert ist).

Einfach sowas wie 4060 oder 4050 kaufen und vielleicht noch undervolten.

Es zwingt ja niemanden in 4K mit RT zu spielen.

Oder Konsole kaufen.

Konsolen gehen am effizientesten mit der vorhanden Leistung um.

HOT
2021-07-12, 11:58:11
Wobei auch da der Verbrauch steigt, nur langsamer.

Nightspider
2021-07-12, 12:01:40
Über Generationen gesehen ja aber die PS5 hat nur um die 300-350W wenn ich mich nicht irre.
Das ist nichts im Vergleich zu dem was auf dem Bildschirm landet (Ratchet & Clank Rift Apart).

Man wird aber auch bei den kommenden 5nm Karten 200W Modelle bekommen oder sich eben selbst zaubern können und die werden brachiale Leistung für die 200W haben.

Genauso wird Zen4 in 5nm wahrscheinlich wieder eine ganze Ecke effizienter.

Wer ein hocheffizientes Gamingsystem will kann sich das auch nächstes Jahr mit 5nm Komponenten zusammenbauen, weiß nicht was das Gejammere hier soll.

Niemand muss sich gewzungen fühlen alle Regler bei RT und anderen Effekten immer nach rechts zu schieben und in 4K trotzdem noch 60fps erreichen zu müssen.

Wer JETZT etwas für sein Gewissen tun will soll komplett auf Ökostrom umsatteln und/oder sich eine Solaranlage anschaffen.
Selbst für den Balkon gibts 600W Balkonkraftwerke womit man schon verdammt viel für seine Energiebilanz tut.

Gibt auch die Option sich an Solarparks oder Windkraftanlagen zu beteiligen.Das ist nicht nur eine sinnvolle Investition aus finanzieller Sicht sondern gleicht viele andere Sünden unserer Konsumgesellschaft zum Teil aus.

Troyan
2021-07-12, 12:11:54
Der letzte Absatz ist pure Realsatire und der letzte Satz vor allem dann, wenn man die 3070 und 3070Ti vergleicht. NV wird natürlich für die Zukunft aus dem GDDR6X-Fiasko gelernt haben. Die Frage ist nicht ob NV auch auf Cache setzen wird, sondern in welcher Form.

Stimmt, deswegen ist die 3070 mit GDDR6 auch nicht effizienter als die 6700XT. Oh wait, doch ist sie. :eek:

Hoffentlich wird AMD aus dem erbärmlichen RDNA2 Fiasko gelernt haben und in Zukunft auf mehr Rechenleistung und -einheiten setzen. Der Versuch mit einem "Wundercache" die miserable Architektur zu kaschieren ist mal so richtig in die Hose gegangen.

Slipknot79
2021-07-12, 12:19:00
Und on Top: Gaming bei warmen Tagen nur noch in Unterhosen möglich ;)


https://abload.de/img/bx7loeuimaaul4g.pnglagdj76.png


THE MOAR YOU GAME, THE MOAR CLOTHES-COSTS YOU SAVE. :redface:


Gerüchteweise soll 2x Leistung vs 3090 anvisiert werden (wobe ich mich Frage, wie man das jetzt schon bei NV wissen soll, 1,5 Jahre vor Release?). Dann sollten aber auch +50% moar Wattage drin sein. (y) Die 2x gibt es sicher nicht for free. (y)

arcanum
2021-07-12, 12:27:00
Über Generationen gesehen ja aber die PS5 hat nur um die 300-350W wenn ich mich nicht irre.
Das ist nichts im Vergleich zu dem was auf dem Bildschirm landet (Ratchet & Clank Rift Apart).

im schnitt zieht die ps5 (wie auch die xsx mit 44% mehr CUs) im spielbetrieb ~200w aus der dose. ein grund, warum ich seit über einem monat nur noch mit konsolen spiele und der spiele-pc (>500w schnitt) aus bleibt.

auf der anderen seite sollte man den niedrigen verbrauch nicht überbewerten. leistungstechnisch bewegen sich die konsolen auf 2070/super/2080 super niveau je nach titel und die zen2 cpu taktet mit 3,6ghz.

HOT
2021-07-12, 12:28:28
Wobei doppelte Leistung einer 3090 sicher nur für RT gilt, nicht für Rasterization.

robbitop
2021-07-12, 12:30:24
Stimmt, deswegen ist die 3070 mit GDDR6 auch nicht effizienter als die 6700XT. Oh wait, doch ist sie. :eek:

Hoffentlich wird AMD aus dem erbärmlichen RDNA2 Fiasko gelernt haben und in Zukunft auf mehr Rechenleistung und -einheiten setzen. Der Versuch mit einem "Wundercache" die miserable Architektur zu kaschieren ist mal so richtig in die Hose gegangen.
Der Vergleich ist nicht sauber, weil auch zwei völlig verschiedene uArchs verglichen werden.

Die Wirksamkeit des Caches zu bewerten, sollte man so viele wie mögliche Randbedingungen festziehen. Entsprechend kann man wenn dann eigentlich nur Navi 1x mit Navi 2x vergleichen.
Navi 2x zeigt ggü 1x sehr klar, dass ein Großteil der gesteigerten Energieeffizienz dort her kommt.

Ein Cache kostet Fläche und damit Geld. Aber er spart aufgrund der Hitrate nunmal Energie. Denn moderne uArchs verbrauchen einen Großteil ihres Energiebudget mit Datentransfers. Mit dem gewonnenen Energiebudget kann man entweder mehr Einheiten verbauen oder Taktraten erhöhen.

Ein Teil des Mehrinvests in Chipfläche bekommt man bei der SKU wieder durch:
weniger Flächenverbrauch durch ein kleineres SI + potenziell günstigeren Speicher + weniger PCB Komplexität aufgrund weniger breiter Anbindung.

Am Ende ist es die Frage, wie viel mehr der Cache an der gesamten SKU kostet und was einem der Vorteil wert ist.

Das gleiche Prinzip würde jeder anderen uArch in ähnlicher Ausprägung auch helfen.

Allerdings sind die Planungszeithorizonte für GPU sehr lang. Wenn NV nicht sehr lange vor der Veröfferntlichung von Navi 2x davon gewusst hatte oder das in der Pipeline hatte, dann wird wird man im 2022 Produkt noch keinen Cache haben (als Reaktion). Wenn man doch einen haben wird, dann hatte man das selbst bereits in der Pipeline oder wusste extrem lange vor uns, dass AMD das vor hatte.

-------
Laut dem CB Test liegt die 3070 gerade mal 5% vorn in der Energieeffizienz.
https://www.computerbase.de/2021-03/amd-radeon-rx-6700-xt-test/4/#abschnitt_energieeffizienz_in_fps_pro_watt

Das ist relativ unwesentlich - besonders wenn man sich die Streuung von GPUs heutzutage vor Augen hält. Das ist Gleichstand. Praktisch gleiche Transistorenzahl (inkl. Cache) und kleinerer Die bei der 6700XT aufgrund 7nm.

Thunder99
2021-07-12, 12:45:01
Und wenn man noch die 3070Ti mit der 6800 vergleicht sieht es übel aus für Nvidia. Das GDDR6X Interface verbraucht im Vergleich zu anderen Lösungen einfach viel mehr.

maximus_hertus
2021-07-12, 12:52:59
Stimmt, deswegen ist die 3070 mit GDDR6 auch nicht effizienter als die 6700XT. Oh wait, doch ist sie. :eek:

Hoffentlich wird AMD aus dem erbärmlichen RDNA2 Fiasko gelernt haben und in Zukunft auf mehr Rechenleistung und -einheiten setzen. Der Versuch mit einem "Wundercache" die miserable Architektur zu kaschieren ist mal so richtig in die Hose gegangen.

Ist Ampere nicht genauso ein Fiasko? Wo sind die tollen Karten?

Und das RDNA2 Fiasko hat sogar die beste Performance / Watt Karte (6800) aktuell auf em Markt. Wenn das schon ein Fiasko-Chip ist, wie sieht es dann aus, wenn es mal keinen AMD Fiasko gibt?

Das ist aber alles Offtopic, von daher sollten wir es dabei belassen.

Falls RTX40 wirklich 500 und mehr Watt anvisiert, dann gute Nacht. Dann kann man nichtmal Fiasko dazu sagen, es wäre eine totale Bankrotterklärung von nV. Aber es ist noch viel zu viel Zeit bis dahin und daher sind die ganzen Angaben eher Schätzungen / Hoffnungen etc. und wohl eher weniger "harte" Fakten.

ChaosTM
2021-07-12, 12:54:17
Stimmt, deswegen ist die 3070 mit GDDR6 auch nicht effizienter als die 6700XT. Oh wait, doch ist sie. :eek:

Hoffentlich wird AMD aus dem erbärmlichen RDNA2 Fiasko gelernt haben und in Zukunft auf mehr Rechenleistung und -einheiten setzen. Der Versuch mit einem "Wundercache" die miserable Architektur zu kaschieren ist mal so richtig in die Hose gegangen.


Bin grad vor Lachen fast vom Sessel gefallen. Bitte mehr davon :D

rentex
2021-07-12, 12:58:59
RDNA Fiasko...da lebt wer in einem Multiversum ;-D

Edgecrusher86
2021-07-12, 13:07:49
Kann man? Hat man wirklich die Wahl? Wenn es nichts anderes mehr gibt als >200W Klopper, auch im Midrange?

Einzige Wahl wäre: Hobby aufgeben / reduzieren oder wie Edgecrusher 2/3 des Potentials der HW liegen lassen (welche aber aufgrund der Auslegung auf 3/3 dann entsprechend überdimensioniert ist).

Ah ja, 2/3. :freak:

https://abload.de/img/beispielf2jq3.png

34% fps Differenz bei 58% Verbrauchsunterschied zwischen sehr niedrig getaktet und lauter Brechstange unter Luft anhand Doom Eternal Hell on Earth - gemessen in 6880x2880 [Oktober 2020]. :)
Das gesunde Mittelmaß wäre 1,6x GHz -> um die 90% maximaler Leistung, aber ~100W eingespart. ;)

E: Also alles über 1,8 GHz inkl. UV - besonders unter Luft - ist mMn nicht sinnig - die Mehrleistung rechtfertigt keineswegs den Mehrverbrauch und die einher gehende Lautstärke - das letzte bisschen wird halt extrem teuer erkauft.
Unter Wasser bleibt ja immer noch der Verbrauch sowie die Abwärme - auch wenn sie sich indirekter verteilt.

Ansonsten ist doch auch generell ein Kompromiss möglich - hier und dort mal auf 10-20 fps verzichten [etwa wenn man eh im dreistelligen Framebereich ist], aber gleichzeitig deutlich weniger Abwärme generieren.
Nun ja, jeder so, wie er mag - nur muss man dann halt unter Umständen den damit einher gehenden Malus in Kauf nehmen. :)

Ich habe nun einmal lieber gute Reserven für künftige, forderndere Titel, als dass mir z.B. die Rohleistung und/oder der VRAM ausgeht (oder ich vielleicht auch mal mit DSR spielen möchte)
- entsprechend wird etwas großzügiger eingekauft; etwa auch beim RAM oder dem NT (früher wurde ja auch noch SLI gefahren). ;)

The_Invisible
2021-07-12, 13:07:54
500W - bekäme man das mit Luft überhaupt noch gekühlt?

Und nicht jeder will eine Wasserkühlung. Man entwirft aber kein Produkt, dass einen Teil der Käuferschaft quasi von Haus aus ausschließt.

Eine FE mit 500W kann ich mir daher nicht wirklich vorstellen.


Ich bin auf die Ram-Bestückung der 4070 gespannt.
Gab es da schon Gerüchte?
Kommt ein viertes mal 8GB?
Geht man auf 12?
Oder auf 16?

Ich hoffe einfach mal auf 16.

Nvidia war mit Speichermengen immer sehr kreativ, da gabs ja 384, 640, 768, 1280, 1536 (aja MB) usw :D

Bis 2023 ist schon noch lange, die 2GB Chips werden bis dahin schon entsprechend günstig sein, die Frage ist ob man die Speicherbandbreite zusammenbekommt. Die werden bei den größeren Karten >=3080 wohl nicht umsonst G6X verbaut haben, gibts irgendwo eigentlich Tests zu dem Thema? Gut, gab aber ja auch schon Karten mit 512bit Bus, alles ist möglich ;D

BlacKi
2021-07-12, 15:30:11
Wobei doppelte Leistung einer 3090 sicher nur für RT gilt, nicht für Rasterization.


lol

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1011-juli-2021

ich weiß was du meintest. immerhin hat ampere schließlich auch schon die doppelte peak fp32 performance.

und intel doppelt soviel wie ampere XD https://www.computerbase.de/2020-08/intel-xe-hp-profi-gpu-ampere-fp32-leistung/

-/\-CruNcher-/\-
2021-07-12, 15:47:40
Ist Ampere nicht genauso ein Fiasko? Wo sind die tollen Karten?

Und das RDNA2 Fiasko hat sogar die beste Performance / Watt Karte (6800) aktuell auf em Markt. Wenn das schon ein Fiasko-Chip ist, wie sieht es dann aus, wenn es mal keinen AMD Fiasko gibt?

Das ist aber alles Offtopic, von daher sollten wir es dabei belassen.

Falls RTX40 wirklich 500 und mehr Watt anvisiert, dann gute Nacht. Dann kann man nichtmal Fiasko dazu sagen, es wäre eine totale Bankrotterklärung von nV. Aber es ist noch viel zu viel Zeit bis dahin und daher sind die ganzen Angaben eher Schätzungen / Hoffnungen etc. und wohl eher weniger "harte" Fakten.

Blödsinn mit DLSS sind es auf Nvidia 8nm Samsung bis zu -70W Gesamteinsparung und du kannst davon ausgehen das sie diese Effizienz noch weiter innerhalb des Lovelace Design steigern werden sobald das wieder auf TSMC kommt sieht der gesammtgewinn zerstörerisch für AMD aus solten sie bis dahin keine eigene solution liefern können.

Diese mickrigen 10 FPS Raster gewinn durch ein bischen design spielen und shrinking stehen in keiner relation zu dem was Nvidia mit einem momentan hardware unterlegenen Gesammtdesign erreicht hat, aber viele sind einfach scheinbar nur zu dumm über den eigenen Tellerand zu schauen und das überhaupt zu begreifen.

Spätestens nach FSR hätte man ja hoffen können das es so einige anfangen zu verstehen ;)

HOT
2021-07-12, 16:13:04
Das ist haltlos. Du spekuleirst, dass DLSS noch mehr bringt, was überhaupt nicht gesagt ist, denn dafür müsstest du erst mal nachweisen, dass DLSS wirklich was spart (wenn man jetzt von FPS-Krachern wie Doom absieht, aber mit RT-on ist das auch vorbei) und zweitens setzt du voraus, dass NV TSMC nutzen wird, was ebenfalls überhaupt nicht gesichert ist. Zudem überschätzt du noch die Möglichkeiten des Prozesses und obendrein unterstützen lange nicht alles Spiele DLSS ;).

Tolle Balls-of-Steel-Aussage, Nutzen leider 0.

-/\-CruNcher-/\-
2021-07-12, 16:17:20
AMD muss die Raytracing Effizienz steigern und dabei ihre ML performance während Nvidia in ihrem Design die Balance gefunden hat.
Viel Glück

basix
2021-07-12, 16:22:58
https://abload.de/img/bx7loeuimaaul4g.pnglagdj76.png


THE MOAR YOU GAME, THE MOAR CLOTHES-COSTS YOU SAVE. :redface:


Der hat aber keine Unterhose an :D

=Floi=
2021-07-12, 16:23:04
Wie seht ihr die chance, dass nv mal den ram variabel taktet?
Vor allem pro speicherchißp sehe ich da potential. Man könnte auch mit der bandbreite spielen, wenn nicht der volle vram genützt wird.

Lehdro
2021-07-12, 16:31:58
AMD muss die Raytracing Effizienz steigern und dabei ihre ML performance während Nvidia in ihrem Design die Balance gefunden hat.
Viel Glück
Das würde ich jetzt aber einmal in Frage stellen. Das NV Design ist rechenleistungsheavy und hat Probleme diese Leistung auch immer auf die Straße zu bringen. Dazu fehlt noch ein ordentlicher Scheduler der dir eben nicht die CPU wegnuckelt. Da gibt es noch viel zu tun und eben auch viel zu gewinnen.
Zudem: Auch NV kann gerne mehr RT Leistung vertragen. Die Einbrüche sind immer noch hoch, vor allem wenn man wirklich RT nutzt (z.B. Control -40%) und nicht nur nachträglich draufklatscht. Ja, DLSS 2.X kann eine Lösung sein, hat aber eben nicht nur Vorteile. Fakt.

Von einer Balance kann also auch bei NV nicht die Rede sein.

aufkrawall
2021-07-12, 16:41:52
Dazu fehlt noch ein ordentlicher Scheduler der dir eben nicht die CPU wegnuckelt.

Das ist eher ein Mythos. Gibt zwar mit D3D12 einige Titel, die mit AMD im CPU-Limit schneller laufen. Dass die Hardware hier aber wirklich limitiert, kann man wegen der guten Vulkan-Performance nicht sagen. Tippe eher, mit Vulkan ist mit den Extensions eine gezieltere Optimierung möglich.


Von einer Balance kann also auch bei NV nicht die Rede sein.
Die Balance ist schon wesentlich besser. Zwar ist die 3060 bei Rasterizer ohne DLSS klar im Nachsehen gegenüber der 6700 XT. Wenn beides genutzt wird, geht Letztere aber völlig unter (und der Chip ist auch leicht größer).

HOT
2021-07-12, 17:04:02
AMD muss die Raytracing Effizienz steigern und dabei ihre ML performance während Nvidia in ihrem Design die Balance gefunden hat.
Viel Glück
Was hat das mit AMD zu tun? Bezug? AMD war hier gar nicht das Thema. Troyan hat den Quatsch halt angefangen, aber wir wollen doch nicht auf diesen Zug aufspringen. Ich weiss auch nicht, warum Robbi da immer wieder drauf hereinfällt :freak:.
Das Ding von Troyan war derart unsachlich, dass das für sich selbst steht, da braucht man keine Antwortzeit für verschwenden.

BlacKi
2021-07-12, 17:16:08
Wie seht ihr die chance, dass nv mal den ram variabel taktet?
Vor allem pro speicherchißp sehe ich da potential. Man könnte auch mit der bandbreite spielen, wenn nicht der volle vram genützt wird.
das passiert schon im unteren mhz bereich. aber du meinst eben mehr zwischenschritte. machbar ist das sicherlich. ob man sich dann neue probleme aufhalst halte ich aber für möglich.

das abschalten von modulen bzw. teile des speicherinterfaces geht garantiert nicht, bzw. nicht sauber. stell dir vor du würdest während des betriebes ein raid 0 auflösen. selbst wenn das technisch gehen würde, wäre der traffic so hoch, das es garantiert zu rucklern kommen würde.

davidzo
2021-07-12, 17:41:40
Das ist eher ein Mythos. Gibt zwar mit D3D12 einige Titel, die mit AMD im CPU-Limit schneller laufen. Dass die Hardware hier aber wirklich limitiert, kann man wegen der guten Vulkan-Performance nicht sagen. Tippe eher, mit Vulkan ist mit den Extensions eine gezieltere Optimierung möglich.
Das ist für Nutzer viel realer als in den einzelnen tests wo man mal nachgefühlt hat. Es gibt nicht wenige die vor 2-3 Jahren erst den Rechner upgregradet haben mit nem 2700x oder so und die jetzt mit einer 3070 oder 3080 ihr blaues Wunder erleben, weil selbst die schon massiv im CPU Limit hängt. Da braucht es gar keine krassen Beispiele wie 7600k oder 1700x mit 3090 etc. Das sind beides performance Klasse bis Highend.
Fakt ist dass bei einer solchen CPU zwar nicht die Kerne/Threads für moderne Spiele fehlen, es aber schwierig ist mit einer neuen GPU irgendwelche Settings zu finden die nicht CPUlimitiert sind. In den tests von Gamrs Nexus war da am Ende sogar eine 5700xt schneller als eine 3080, geschweige denn 6700xt und 6800.


das abschalten von Modulen bzw. teile des speicherinterfaces geht garantiert nicht, bzw. nicht sauber. stell dir vor du würdest während des betriebes ein raid 0 auflösen. selbst wenn das technisch gehen würde, wäre der traffic so hoch, das es garantiert zu rucklern kommen würde.

Ja, das macht auch wenig Sinn, denn der Pagerefresh des Speicherchips kostet nicht viel energie, jedenfalls nicht so dass einen das bei Desktopkarten stören würde.

Eine 3090 hat ja nicht 30Watt mehr TDP als die 3080 weil sie 24GB Ram hat statt 10GB, sondern weil es 320bit 19gps ram ist statt 384bit 19,5gbps. Die Größe der Module ist irrelevant, für die TDP zählen die joules pro übertragenem Bit. D.h.die Speicherbandbreite ist entscheidend, nicht der Speicherausbau.

Sieht man gut an der 3080ti, die ebenfalls 384bit hat und damit dieselbe TDP wie die 3090.

maximus_hertus
2021-07-12, 17:46:25
Blödsinn mit DLSS sind es auf Nvidia 8nm Samsung bis zu -70W Gesamteinsparung und du kannst davon ausgehen das sie diese Effizienz noch weiter innerhalb des Lovelace Design steigern

I think the next generation will appear 450 ~ 550W TDP graphics card.
Quelle: Greymon55 @ Twitter 10. Juli am 2021

Jo, sieht genau danach aus ;)

550W TDP??? Doppelte Leistung bei 550W wäre das wahrscheinlich größte nVidia Fiasko seit dem FX Föhn Anno 2002.

2021 braucht ganz andere Ansätze, die Stromverschwendungs-Geschichte war eigentlich 2012 zu Ende. Das ist schlich inakzeptabel. Wenn man wenigsten einen entsprechend großen Performancegewinn bekmmen würde.
"10nm" auf 5nm und man bekommt doppelte Performance bei 60% mehr Stromverbrauch. Das ist etwas, was man bei AMD erwarten kann, aber nVidia? Was ist da los?
Meinen die das Ernst oder ist das ein falscher Aprilscherz?

aufkrawall
2021-07-12, 17:48:36
Das ist für Nutzer viel realer als in den einzelnen tests wo man mal nachgefühlt hat.
Ein 11400F + Board kostet gar nichts vs. Grafikkarten. Wer noch Zen 1/+ für Gaming hat, ist selbst schuld. Ich bin mit der 3060 und DLSS Q nirgendswo auch nur ansatzweise in der Nähe eines CPU-Limits (Legion ohne RT mal ausgenommen, aber das crashte mit AMD regelmäßig den Treiber...)...

Thunder99
2021-07-12, 19:48:59
I think the next generation will appear 450 ~ 550W TDP graphics card.
Quelle: Greymon55 @ Twitter 10. Juli am 2021

Jo, sieht genau danach aus ;)

550W TDP??? Doppelte Leistung bei 550W wäre das wahrscheinlich größte nVidia Fiasko seit dem FX Föhn Anno 2002.

2021 braucht ganz andere Ansätze, die Stromverschwendungs-Geschichte war eigentlich 2012 zu Ende. Das ist schlich inakzeptabel. Wenn man wenigsten einen entsprechend großen Performancegewinn bekmmen würde.
"10nm" auf 5nm und man bekommt doppelte Performance bei 60% mehr Stromverbrauch. Das ist etwas, was man bei AMD erwarten kann, aber nVidia? Was ist da los?
Meinen die das Ernst oder ist das ein falscher Aprilscherz?
Jeglicher Performance Sprung bei dieser spekulierten Leistungsaufnahme ist ein Desaster. Ich hoffe das sind fake news, egal wie schnell der Chip wird.
Mein aktuelles Netzteil hat 500W und befeuert den PC in der Sig! Alles andere ist doch krank wenn damit nur die Grafikkarte so viel braucht :freak::hammer:
Nebenbei, egal von welchem Hersteller :wink:

Nightspider
2021-07-12, 20:51:00
Ich bleib dabei: Wer 1000-2000 Euro für eine stromfressende Grafikkarte ausgeben kann, kann auch ein paar tausend Euro in regenerative Energie stecken. :)

Und alle die nicht so viel Geld haben werden wahrscheinlich eh zu stromsparenderen Modellen greifen.

Nur schade das wenige so denken.

davidzo
2021-07-12, 21:18:13
Naja, es ist ja nicht nur die Stromrechnung. Man braucht auch größere Gehäuse, die mehr Platz bedürfen oder das Ganze wird lauter. Mehr Lüfterdurchsatz heißt auch mehr Staub und häufiges Reinigen.
Das merke ich schon seit meinem letzten GPUupgrade dass ich da viel häufiger die Filter reinigen muss und den PC nicht ganz an die Wand schieben darf um die Ansaugluft nicht abzuquetschen. Im Sommer finde ich das auch nicht unerheblich wie sich das Zimmer dadurch aufheizt. Gerade in einem eher kleinen Zockerzimmer ist das nicht gerade erfreulich.

Wir haben die besten stromsparendsten Nodes aller Zeiten mit N7 und N5. Da ist sowas einfach unnötig, die Leistung sollte auch ohne eine Verbrauchsexplosion steigerbar sein. Sieht man ja an der M1 IGP, die sogar in einem Ipad läuft und dennoch Leistung auf 1650m Niveau abliefert.

ChaosTM
2021-07-12, 21:27:06
Fractal Designs Define6 Gehäuse. Staubgeschütz und gedämmt. Das ist nicht das Problem.

Solange es auch genügsamere GPUs gibt, können sie ruhig auch 500Watt Monster verkaufen. Die Frage ist, ob die noch vernünftig kühlbar sind, aber selbst das ist kein Problem mehr dank ANC Headphones oder Earbuds. Meine Jabra 85er rechnen meinen Brüll-Laptop problemlos leise.

Troyan
2021-07-12, 21:43:09
-------
Laut dem CB Test liegt die 3070 gerade mal 5% vorn in der Energieeffizienz.
https://www.computerbase.de/2021-03/amd-radeon-rx-6700-xt-test/4/#abschnitt_energieeffizienz_in_fps_pro_watt

Das ist relativ unwesentlich - besonders wenn man sich die Streuung von GPUs heutzutage vor Augen hält. Das ist Gleichstand. Praktisch gleiche Transistorenzahl (inkl. Cache) und kleinerer Die bei der 6700XT aufgrund 7nm.

Es sind 5% bis 10% bei Computerbase bei gleicher Anzahl an Transistoren und mehr OffChip-Bandbreite. Ampere und RDNA2 nehmen sich im Grunde nichts beim Rasterizing und das ohne sinnlosen L3-Cache auf nVidia-Seite.

Dagegen stehen 40%+ mehr Leistung beim Hybrid-Rendering.

Auch im Vergleich zur 5700XT failt die 6700XT extrem. Knapp 70% mehr Transistoren, aber nur 30% Mehrleistung. Die RTX3070 liegt hier zwischen 40% und 50% vor der 5700XT.

davidzo
2021-07-12, 21:49:43
Es sind 5% bis 10% bei Computerbase bei gleicher Anzahl an Transistoren und mehr OffChip-Bandbreite. Ampere und RDNA2 nehmen sich im Grunde nichts beim Rasterizing und das ohne sinnlosen L3-Cache auf nVidia-Seite.

Dagegen stehen 40%+ mehr Leistung beim Hybrid-Rendering.

Auch im Vergleich zur 5700XT failt die 6700XT extrem. Knapp 70% mehr Transistoren, aber nur 30% Mehrleistung. Die RTX3070 liegt hier zwischen 40% und 50% vor der 5700XT.

Die 6700xt spart aber auch 25% des SI ein, sowohl zur 3070 als auch zur 5700xt. Das was der Chip also größer ist macht das boarddesign wieder günstiger und kompaktere Karten möglich. So ermöglicht das auch die Speicherbestückung von 12Gb in dieser Klasse während die 3070 mit ihren 8Gb schon ohne RT häufig am Limit läuft. Nicht so tolle Zukunftstauglichkeit...

ChaosTM
2021-07-12, 21:51:07
Etwas runter takten und man liegt gleichauf mit der 3070er bezüglich Energieeffizienz.
Die 6700er rennt etwas über der Kotzgrenze.

-/\-CruNcher-/\-
2021-07-12, 22:00:42
Die 6700xt spart aber auch 25% des SI ein, sowohl zur 3070 als auch zur 5700xt. Das was der Chip also größer ist macht das boarddesign wieder günstiger und kompaktere Karten möglich. So ermöglicht das auch die Speicherbestückung von 12Gb in dieser Klasse während die 3070 mit ihren 8Gb schon ohne RT häufig am Limit läuft. Nicht so tolle Zukunftstauglichkeit...
Dafür gibts UMA und Out of Memory

ChaosTM
2021-07-12, 22:04:47
Mit dem Problem der 8GB schlag ich mich auch gerade herum. Die 3070er (mobile) hat einfach zu wenig Speicher. Momentan geht es sich gerade noch aus beim FS2020 aber nur ganz knapp. Zukunftssicher ist das nicht. Da wird man wohl sehr bald Details reduzieren müssen.

Rampage 2
2021-07-13, 01:47:56
NV hatte in der Regel immer 3-4 Gbps an Bandbreite pro Generation addiert - insofern dürften es maximal 24 Gbps für AD werden - eventuell auch gleich als etwas sparsamerer GDDR7 2023 - das sollte sicher machbar sein, dass der neue Standard dann marktreif ist.


Denke ich auch - also entweder 384Bit @ 24Gbps GDDR6X/7 oder gleich HBM2/3... oder als Last Resort-Lösung 512Bit @ 18Gbps normalem GDDR6:devil: (Ersteres und Letzteres würden ziemlich exakt auf die gleiche Bandbreite (1152GB/sek.) kommen;))

Den restlichen Bandbreitenbedarf erledigen dann größere Caches oder ein neues Cache-System (wie N21) und/oder, falls noch möglich, nochmals verbesserte Bandbreitenkompression.


Eine Mehrleistung um oder über den Faktor 2 sehe ich eigentlich nicht und diese wird wohl auch nicht notwendig sein - so etwas gab es in der Vergangenheit auch eigentlich nie - vielleicht mit Ausnahme G80 zu G71 in Highres und mit viel AA.


Den R300, den NV40 und den G71 (vs. NV40) hast du nicht mitbekommen? :confused:

Radeon 9700 Pro fast 3x schneller als eine GeForce 4 Ti 4600 im allerletzten Test (https://www.anandtech.com/show/970/18)

GeForce 6800 Ultra mehr als 3x so schnell wie die FX 5950 Ultra in der höchsten Auflösung @ 4xAA+16xAF (https://alt.3dcenter.org/artikel/nv40_benchmarks/index19.php)

GeForce 7900 GTX fast 3x so schnell wie die 6800 Ultra @ 4xAA+16xAF trotz nicht-höchster Auflösung! (https://alt.3dcenter.org/artikel/geforce_7900/index9.php)

:)


Das ruinöse G6x 384bit SI frisst derzeit gute 1/3 des TDP Budgets. Wenn man das irgendwie fixen kann, z.B. durch HBM der eher noch sparsamer ist als regulärer 256bit GDDR6, dann würde der +70% Einheitenzuwachs in einer ähnlichen TDP möglich sein wie eine aktuelle 3080/3090.


Rückblickend betrachtet, wäre es für Nvidia wohl besser (oder weniger schlimm) gewesen, auf ein 512Bit Speicherinterface mit normalem GDDR6 zu setzen:

Ausgehend von 384Bit mit 16Gbps GDDR6:

384Bit GDDR6X @ 19,5Gbps: 22% höherer Takt -> 48,5% mehr Energie alleine für das Speicherinterface

512Bit GDDR6 @ 16Gbps: 0% höherer Takt, 33% größeres Interface -> 33% mehr Energie für das SI


Etwas Sorgen macht mir da eher die 450-550W-Aussage.


Nvidia wird die TDP eh nur noch !höchstens! um 15% steigern können (ausgehend von der RTX 3090; 350W -> 400W). Schließlich muss ja auch an die Overclocker gedacht werden - Erhöhung des TDP auf 125% ergibt bereits 500W und nicht wenige Custom-Modelle bieten 130% oder gar mehr an! Ausgehend von 400W wären wir dann schon bei bis zu 550WX-D

R2

boxleitnerb
2021-07-13, 02:13:37
Ich bleib dabei: Wer 1000-2000 Euro für eine stromfressende Grafikkarte ausgeben kann, kann auch ein paar tausend Euro in regenerative Energie stecken. :)

Und alle die nicht so viel Geld haben werden wahrscheinlich eh zu stromsparenderen Modellen greifen.

Nur schade das wenige so denken.

Nein - die ganze Palette rutscht im Verbrauch dann hoch. Was ein Unsinn so eine Aussage…

Nightspider
2021-07-13, 04:34:18
Ist ja logisch.

Wer sich eine harte Grenze von 200 Watt setzt muss dann halt zum kleineren Model greifen.

Gejammer macht die Karten jedenfalls nicht effizienter. ;)

boxleitnerb
2021-07-13, 05:41:23
Ist ja logisch.

Wer sich eine harte Grenze von 200 Watt setzt muss dann halt zum kleineren Model greifen.

Gejammer macht die Karten jedenfalls nicht effizienter. ;)

Du verstehst es einfach nicht. Auch die kleinen Modelle würden wahrscheinlich mehr verbrauchen. Alle…
Und weil der Kunde es schluckt geht es mit der nächsten Generation weiter hoch. Kühlsysteme kosten ja nichts. Lärm machen sie auch keinen. Und im Laptop ist Verbrauch auch egal. Alles egal 😜

Die Entwicklung ist halt einfach scheiße, wenn das so weitergeht.
Was ist denn für dich noch ok im obersten Segment? 500, 600, 800W? Mehr?
Die 6070 dann auch schon bei 400 und 6050 bei 200.
Sorry, aber das ist völlig absurd so was zu akzeptieren.

-/\-CruNcher-/\-
2021-07-13, 05:51:12
Nvidia hat bis jetzt stetig die Effizienz erhöht und bei Ampere + DLSS ist das nicht anders
der einzige unterschied non Sparse ist der Verbrauch durch die Samsung Entscheidung etwas höher ausgefallen als üblich da der zusätzliche Raytracing aufwand doch etwas sehr reinhaut und selbst mit DLSS nicht gänzlich aufzufangen ist bis jetzt.

bin von 1080 zu 3070 und die Effizienz ist unvergleichbar in allen tasks und workloads ist die Effizienz sehr ordentlich ausbalanciert

Sei es bei Compute (Mining), Raytracing, Machine Learning, Rastering (Hybrid, Low Level) Tesselation, Video

Das nennt man eierlegende wohlmilchsau und Ampere bedient alles ordentlich

über euren Tellerrand schauen wie gesagt ;)

Und selbst in AMD optimierten tasks schlägt sie sich doch sichtbar gut auch wenn Nvidia einige der agressiveren implementations geschichten nicht mehr so schnell unter kontrolle kriegt (und die einige selbst sehr dumme visuelle probleme schaffen können unter Vulkan dann hin bis zu kompletter instabilität), schaffen sie es teils immernoch sehr gut da zu stehen im Vergleich zu AMD bei Nvidia optimierten Tasks die dort komplett untergehen in allen workloads und teilbereichen momentan und nur AMDs insgesammte HSA effizienz rettet sie momentan noch und kann eine menge kompensieren leider weniger auf dem PC ;)

Microsoft hilft auch ordentlich und macht Nvidia das leben nicht leicht.

Ergo hat Jensen die Schnauze langsam voll Ergebniss hochdruck Arbeit an eigener Platform und dem Omniverse

Die die Effizienz von AMDs Konsolen in den Schatten stellen wird.

Immer der erste im Lineup bei Microsoft Präsentationen sein zu dürfen hat auch mittlerweile einen bitteren Nachgeschmack ;)
Darauf kann man gut verzichten

Nightspider
2021-07-13, 07:31:59
Du verstehst es einfach nicht.

Sicher, Cpt. Obvious?

Bald brauchen wir alle AKWs für unsere PCs, jaja habs kapiert. ;D


Was soll das Gejammer. Wir kriegen pro Watt immer mehr Leistung.
Wenn du eine bahnbrechende Technologie für eine bessere Effizienz in deiner Kulturtasche hast, die IHVs würden sich freuen.

Du kannst natürlich auch Wahlkampf betreiben für "back to 720p" und darauf hoffen das genug Grüne darauf aufspringen. :ugly:

Die 3060 verbraucht laut CB um die 175 Watt. Vielleicht braucht die 4060 dann 200W.
Wem das zu viel ist der muss dann halt zur 4050 greifen oder die 4060 undervolten.

Man muss sich auch mal vor Augen führen welche Optik eine 3060 schon hinbekommt.
Niemand zwingt die Leute in maximaler Grafik zu zocken.

Den Stromverbrauch verballert nur ihr alleine mit der Entscheidung die hohe Qualität haben zu wollen.
Man kann nicht immer nach mehr gieren und sich dann darüber aufregen das es technische Hürden gibt für immer höher und immer weiter.

Und nur weil die IHVs die Chips bis ans Limit treiben, müsst ihr sie doch nicht mit den Stock Settings betreiben.
Mit 5-10% weniger Leistung sind die Karten schon enorm effizienter.

Wenn man den IHVs etwas vorwerfen kann dann das. Das sie die Chips bis ans Limit fahren.
Aber die Käufer sind da zum Teil selbst mit dran schuld weil für 3-5%mehr Leistung früher auch 100-200 Euro mehr für OC-Karten ausgegeben wurden, die dann übertriebene Kühler hatten.

Und die Fanboy Extremisten sind auch mit dran Schuld weil sie sich wegen +/- 5% die Köpfe einschlagen und die IHVs versuchen auf Brechen den Längsten zu haben.

Edit:

Noch noch was: Wenn Lovelace doppelt so schnell wird, dann wird wohl auch eine 4060 in 3090er Regionen wildern und das wahrscheinlich mit um die 200W.
Das wäre brachial viel Leistung für den Stromverbrauch. Und wenn man davon popelige 5% Leistung wegnimmt und undervoltet landet man vielleicht auch bei 170W.

boxleitnerb
2021-07-13, 10:39:40
Sicher, Cpt. Obvious?

Bald brauchen wir alle AKWs für unsere PCs, jaja habs kapiert. ;D


Was soll das Gejammer. Wir kriegen pro Watt immer mehr Leistung.
Wenn du eine bahnbrechende Technologie für eine bessere Effizienz in deiner Kulturtasche hast, die IHVs würden sich freuen.

Du kannst natürlich auch Wahlkampf betreiben für "back to 720p" und darauf hoffen das genug Grüne darauf aufspringen. :ugly:

Die 3060 verbraucht laut CB um die 175 Watt. Vielleicht braucht die 4060 dann 200W.
Wem das zu viel ist der muss dann halt zur 4050 greifen oder die 4060 undervolten.

Man muss sich auch mal vor Augen führen welche Optik eine 3060 schon hinbekommt.
Niemand zwingt die Leute in maximaler Grafik zu zocken.

Den Stromverbrauch verballert nur ihr alleine mit der Entscheidung die hohe Qualität haben zu wollen.
Man kann nicht immer nach mehr gieren und sich dann darüber aufregen das es technische Hürden gibt für immer höher und immer weiter.

Und nur weil die IHVs die Chips bis ans Limit treiben, müsst ihr sie doch nicht mit den Stock Settings betreiben.
Mit 5-10% weniger Leistung sind die Karten schon enorm effizienter.

Wenn man den IHVs etwas vorwerfen kann dann das. Das sie die Chips bis ans Limit fahren.
Aber die Käufer sind da zum Teil selbst mit dran schuld weil für 3-5%mehr Leistung früher auch 100-200 Euro mehr für OC-Karten ausgegeben wurden, die dann übertriebene Kühler hatten.

Und die Fanboy Extremisten sind auch mit dran Schuld weil sie sich wegen +/- 5% die Köpfe einschlagen und die IHVs versuchen auf Brechen den Längsten zu haben.

Edit:

Noch noch was: Wenn Lovelace doppelt so schnell wird, dann wird wohl auch eine 4060 in 3090er Regionen wildern und das wahrscheinlich mit um die 200W.
Das wäre brachial viel Leistung für den Stromverbrauch. Und wenn man davon popelige 5% Leistung wegnimmt und undervoltet landet man vielleicht auch bei 170W.

Hör doch mit der Polemik auf. Von 720p hat niemand was gesagt. DLSS finde ich hier allerdings eine gute Entwicklung. Aber das ist nicht primär das Thema.

Undervolten und auf die letzten 5% zu verzichten ist überhaupt kein Argument, weil das eben mit jeder Generation geht. Du kannst doch nicht Äpfel mit Birnen vergleichen.

Auch Forderung nach hoher Qualität ist kein Argument. Denn wenn der Verbrauch allgemein steigt, steigt er bei jeder halbwegs GPU-lastigen Einstellung, egal ob da ultra, hoch, mittel dransteht.

Du kannst es drehen und wenden wie du willst - höherer Verbrauch schlägt sich global nieder. Man kann entgegenwirken, aber das kannst du bei jeder Generation.

=Floi=
2021-07-13, 11:00:48
Auch bei AMD verbrauchen die kleinen karten längst mehr watt.
Energietreiber ist die rechenleistung und die steigt nunmal überproportional an.

WedgeAntilles
2021-07-13, 11:01:26
Du verstehst es einfach nicht. Auch die kleinen Modelle würden wahrscheinlich mehr verbrauchen. Alle…
Und weil der Kunde es schluckt geht es mit der nächsten Generation weiter hoch. Kühlsysteme kosten ja nichts. Lärm machen sie auch keinen. Und im Laptop ist Verbrauch auch egal. Alles egal 😜

Die Entwicklung ist halt einfach scheiße, wenn das so weitergeht.
Was ist denn für dich noch ok im obersten Segment? 500, 600, 800W? Mehr?
Die 6070 dann auch schon bei 400 und 6050 bei 200.
Sorry, aber das ist völlig absurd so was zu akzeptieren.

Dude, du fabulierst hier von einer 6070 mit 400W und ähnlichem, wie willst du darauf "diskutieren"?

Das ist doch hanebüchen, genauso kann ich argumentieren dass aufgrund der geringen Produktionen es gar keine 6070 mehr geben wird, wir alle tot sind oder eine 6070 dann 3500 Euro kosten wird.

Mag ja rein theoretisch alles sein, aber es gibt doch bisher 0 Datenbasis um da zu spekulieren.

Eine 3070 braucht normal viel Strom - und z.B. deutlich weniger als eine 5700XT.

Ja, die 3080 und die 3090 (und auch die 3070TI) brauchen etwas viel, das stimmt.

Aber dann kauft man halt die 3070.

Dein Horrorszenario, dass du keine GraKa mehr unter 300 Watt irgendwann bekommst ist doch völlig abwegig.

Ja, aktuell bewegen wir uns ein bisschen nach oben, im Top-Bereich auch stärker.
Das ist jetzt eine Generation.
Und die Aussage: "Wenn es einem zu viel ist kann man eine Karte kleiner kaufen" ist nun mal auch richtig.
Hattest du bisher eine xx80 kannst du zu xx70 greifen.
Dann hast du nicht mehr Stromverbrauch als bisher, aber mehr Leistung.
Hattest du eine xx70 kannst du zur xx60 greifen.
Deine Leistungssprünge werden dann geringer, aber dein Stromverbrauch bleibt gleich (oder sinkt sogar)

Und wenn du einen größeren Leistungssprung willst, musst du halt einen höheren Stromverbrauch in Kauf nehmen.

Man kann halt nicht alles haben.
Du tust ja so, als ob man inzwischen MEHR Strom verbraucht für die gleiche Leistung wie früher. Das ist aber nicht so. Selbst wenn eine Leistungskategorie (xx80 z.B.) mehr Strom braucht, bekommst du trotzdem mehr Frames pro Watt wie bei einer älteren Karte.


Generell finde ich Verbräuche von 300 Watt aufwärts viel, ich persönlcih möchte das nicht haben. Da wird mir zu viel Wärme produziert.

Und ja, evt. kannst du keinen PC mehr mit 100W Verbrauch oder so bauen - so what, wen interessierts?
Ob der PC jetzt 30 Watt mehr oder weniger verbraucht ist doch egal.
Und wenn es dir nicht egal ist: Behalte deinen PC halt.
Der wird ja nicht schlechter.
Er wird halt nicht schneller wie wenn du etwas Neues kaufst - aber wie gesagt, man kann halt nicht alles haben.

Neurosphere
2021-07-13, 11:07:12
Die Gefahr ist dabei groß das es doch irgendwann zu Regularien durch die EU oder ähnlich kommt, siehe Staubsauger. Von daher bewirkt die Brechstange nur das es langfristig zu Problemen kommen wird.

ChaosTM
2021-07-13, 11:21:17
Vielleicht kann man diesen neuen High-Power GPUs, die wohl alle auf Chiplet Designs basieren werden, ein professionelles Label verpassen, um damit einer Limitierung zu entgehen. "Sli" on a chip zb., damit diese praktisch als 2 Karten gesehen werden.

Nur so ein Gedanke..

=Floi=
2021-07-13, 11:33:15
Bei stabsaugern wurde es damit aber besser. Es gibt jetzt gute sauger die leise sind und nicht mit 1kw wärme produzieren.

-/\-CruNcher-/\-
2021-07-13, 12:18:13
So gesehen haben wir schon einen Effizienzstandard und das sind die Konsolen momentan über deren Verbrauch insgesammt sollte man mit einer Desktop GPU heutzutage eh nicht mehr gehen.

Wenn man sich als Öko Aktivist betrachtet bei Nvidia muss man hier DLSS mit einberechnen im Eco Power Save Mode

BlacKi
2021-07-13, 14:07:45
ich könnte mir vorstellen, das man den vram garnichtmehr erhöht, sondern mit direct io(RTX IO im nv slang^^) ersetzt. der kostenvorteil ist imens, es würde auch den alten karten zugute kommen. es würde auch den nötigen push für den standard bringen. 16gb mögen vl noch bei einer 550€ karte gehen, aber wenn man eine 4070 bringen will und dann schon ein großteil davon der speicher kostet? ich würde eine 4070(Tie) mit 8gb nicht komplett ausschließen. 4K 120fps könnten dann auch gerade mit dlss gut möglich sein.

=Floi=
2021-07-13, 14:14:15
7gb/sek vs 1tb/sek?!

BlacKi
2021-07-13, 14:18:24
7gb/sek vs 1tb/sek?!


kennst du das wenn der vram ausgeht und die texturen nachgeladen werden? manchmal merkt man das nichtmal, manchmal istes offensichtlich. wenns offensichtlich ist, an den stellen setzt rtx io an. es verdoppelt die bandbreite der pcie anbindung und reduziert die cpu auslastung und belastet den pcie express weniger. es ist die zukunft, ich glaube nicht an 24gb karten im unteren preissegment.

Nightspider
2021-07-13, 14:38:05
Undervolten und auf die letzten 5% zu verzichten ist überhaupt kein Argument, weil das eben mit jeder Generation geht.
...
Man kann entgegenwirken, aber das kannst du bei jeder Generation.

Klar konnte man das schon immer aber früher waren hier ja scheinbar noch alle zufrieden mit dem Verbrauch und der Effizienz.

Jetzt wird schon 1-2 Jahre vor Release geheult. :D

boxleitnerb
2021-07-13, 14:38:40
Dude, du fabulierst hier von einer 6070 mit 400W und ähnlichem, wie willst du darauf "diskutieren"?

Das ist doch hanebüchen, genauso kann ich argumentieren dass aufgrund der geringen Produktionen es gar keine 6070 mehr geben wird, wir alle tot sind oder eine 6070 dann 3500 Euro kosten wird.

Mag ja rein theoretisch alles sein, aber es gibt doch bisher 0 Datenbasis um da zu spekulieren.

Eine 3070 braucht normal viel Strom - und z.B. deutlich weniger als eine 5700XT.

Ja, die 3080 und die 3090 (und auch die 3070TI) brauchen etwas viel, das stimmt.

Aber dann kauft man halt die 3070.

Dein Horrorszenario, dass du keine GraKa mehr unter 300 Watt irgendwann bekommst ist doch völlig abwegig.

Ja, aktuell bewegen wir uns ein bisschen nach oben, im Top-Bereich auch stärker.
Das ist jetzt eine Generation.
Und die Aussage: "Wenn es einem zu viel ist kann man eine Karte kleiner kaufen" ist nun mal auch richtig.
Hattest du bisher eine xx80 kannst du zu xx70 greifen.
Dann hast du nicht mehr Stromverbrauch als bisher, aber mehr Leistung.
Hattest du eine xx70 kannst du zur xx60 greifen.
Deine Leistungssprünge werden dann geringer, aber dein Stromverbrauch bleibt gleich (oder sinkt sogar)

Und wenn du einen größeren Leistungssprung willst, musst du halt einen höheren Stromverbrauch in Kauf nehmen.

Man kann halt nicht alles haben.
Du tust ja so, als ob man inzwischen MEHR Strom verbraucht für die gleiche Leistung wie früher. Das ist aber nicht so. Selbst wenn eine Leistungskategorie (xx80 z.B.) mehr Strom braucht, bekommst du trotzdem mehr Frames pro Watt wie bei einer älteren Karte.


Generell finde ich Verbräuche von 300 Watt aufwärts viel, ich persönlcih möchte das nicht haben. Da wird mir zu viel Wärme produziert.

Und ja, evt. kannst du keinen PC mehr mit 100W Verbrauch oder so bauen - so what, wen interessierts?
Ob der PC jetzt 30 Watt mehr oder weniger verbraucht ist doch egal.
Und wenn es dir nicht egal ist: Behalte deinen PC halt.
Der wird ja nicht schlechter.
Er wird halt nicht schneller wie wenn du etwas Neues kaufst - aber wie gesagt, man kann halt nicht alles haben.

Die Entwicklung dieser Steigerungen läuft ja nicht seit gestern. Schau mal wo wir herkamen und extrapoliere das. Da sind 400W gar nicht so abwegig. Und damals waren wir von der Fertigung her noch nicht so am Limit.

Nightspider
2021-07-13, 14:40:36
Irgendwo läuft man aber auch in eine Deckelung weil die Leute keine Heizung im Sommer haben wollen.

Und ins TV Rack passen auch schwerlich 500W Konsolen.

Und Smartphones werden nie 30W Abwärme erzeugen.

Wuge
2021-07-13, 14:55:21
Also wenn ich ein pre production sample bekommen könnte, dass 200% 3090 Leistung bei 1kw bringt, dann her damit :D Das ganze in zwei Jahren dann mit 500-600W - immernoch ok. Ich glaube nur nicht an 200%.

Thunder99
2021-07-13, 15:23:17
Bevor nicht weitere Leaks das Gerücht verbreiten denke und hoffe ich, dass es nicht soweit kommt.

Früher hat es der Prozess nicht zugelassen, so hohe Leistungsaufnahme zu ermöglichen. Jetzt mag es möglich sein aber der Aufwand bei Kühlung ist immens!